sábado, 28 de septiembre de 2013

Gota Fría

Dada la época en la que nos encontramos, finales de verano principios de otoño en el hemisferio norte, parece apropiado comentar el fenómeno meteorológico que se produce habitualmente en la región mediterránea, principalmente en las costas de los países bañados por el mar mediterráneo occidental, debido al efecto de diatermancia.

Temperatura del mar en época estival
Este fenómeno meteorológico, que se desencadena principalmente en los meses de Septiembre y Octubre, es consecuencia de la aparición de bajas presiones o inestabilidades atmosféricas, normalmente locales, debido a que las aguas mediterráneas presentan su máximo de temperatura y las temperaturas continentales empiezan a descender. La gota fría se desarrolla por el contacto de estas masas de aire cálido y húmedo con masas de aire frío de capas altas que comienzan a aparecer en estos meses como descuelgues de aires fríos de latitudes superiores. También juega un papel importante en las consecuencias, como en cualquier fenómeno meteorológico, el comportamiento orográfico de la región en la que se produzcan estos intercambios de aire-temperatura-humedad.

Descuelgue de aire frío sobre la península Ibérica

Estas circunstancias favorecen la fuerte evaporación de las aguas calientes, que ascienden rápidamente a grandes alturas, enfriándose también rápidamente  y provocando la creación de grandes nubes y precipitaciones. Es un fenómeno local aislado generalmente de la circulación atmosférica.

Si bien el término no es del todo correcto, es en Alemania, lugar de origen del término (kaltlufttropfen) y en España donde se mantiene en uso. Y no es correcto porque el término gota fría no se corresponde con el verdadero origen del fenómeno ya que se debe realmente a la creación de una burbuja de aire caliente y muy húmedo dentro de una depresión barométrica. Al entrar en contacto dicha burbuja con la depresión barométrica con aires mucho más fríos en las capas superiores de la atmósfera se produce la precipitación de dicha humedad, tanto más intensa cuanto mayores contrastes térmicos y de humedad existan entre la burbuja y el aire frío y seco. El término técnico más adoptado para este efecto es el de DANA (depresión aislada en niveles altos).

Una definición muy acertada del fenómeno meteorológico es dada por Francisco M. León , INM 2003:


...“una depresión cerrada en altura que se ha aislado y separado completamente de  la circulación atmosférica asociada a la corriente de chorro, y que se mueve independientemente de tal flujo llegando, a veces, a ser estacionaria o, incluso, retrógada (su desplazamiento es, en estos casos, de dirección Este-Oeste)".


Según la definción de Wikipedia, “La gota fría, que conserva su giro ciclónico, se convierte en una zona anticiclónica en altura, lo que produce en su borde exterior, un descenso del aire frío y seco en espiral descendente (sentido horario) que alimenta, a su vez, el ascenso o convección del aire caliente y húmedo en forma de espiral (ascendente) con sentido antihorario típicamente ciclónico. La gota fría será más importante cuanto mayor sea la temperatura de las aguas marinas ya que el vapor de agua asciende repentinamente debido a la menor densidad del aire caliente y se condensa, formando rápidamente nubes de gran altura (generalmente, de más de 10 km) que casi siempre son del tipo de cumulonimbos

Formación de Gota Fría en el Levante de la
península Ibéríca

Como se ha comentado, la precipitación (generalmente acompañada de fuertes vientos, granizo y aparato eléctrico) será más intensa cuanto mayor sea la temperatura del agua en su creación (esta circunstancia es también determinante en la realimentación de los huracanes, como se explicaba en la anterior entrada del blog "Cómo se crean los huracanes") y mayores sean los vientos mar-tierra que alimentan de humedad el proceso. Estas precipitaciones pueden alcanzar o sobrepasar los 500 l/m2 (medio metro de agua en superficie) en menos de 24 horas en regiones en las que, como es el caso de la región murciana dentro de la península ibérica, presentan medias de precipitación anuales incluso inferiores a esa cantidad. Hay que recordar que los grandes el Monzón en la zona del océano índico (grandes precipitaciones de orígenes similares aunque mucho más afectadas por cuestiones orográficas) pueden alcanzar los 3000 o 4000 l/m2 en lapsos de  tiempo de varias semanas o meses.

El clima mediterráneo, considerado en particular dentro de la clasificación de los climas terrestres conocidos, presenta como característica diferenciadora la aparición de este fenómeno, principalmente en su región occidental (península ibérica, sureste francés, península itálica y costa oeste mediterránea de África). Debido a esto, las regiones afectadas presentan incluso una ordenación urbanística particular. Es habitual observar en la cuenca mediterránea zonas de evacuación de grandes torrenteras de agua en las proximidades de las costas (llegando a las playas), que generalmente están secas, incluso durante años, pero de vital importancia para las zonas urbanizadas cercanas.

Límite ecológico del cultivo del olivo en la cuenca mediterránea. Este límite se ha mantenido inamovible durante miles de años y es considerado para establecer las regiones de propio clima mediterráneo

Uno de los mayores desastres ocurridos como consecuencia de una gota fría y de la mala ordenación urbanística que no consideró estos fenómenos meteorológicos se produjo en 1962. En la zona del Vallés Occidental, en las ciudades del anillo metropolitano de la ciudad de Barcelona y en una década de alto crecimiento demográfico por inmigración,  una inmensa tromba de agua sorprendió a los recién asentados habitantes, causando más de 1000 muertos registrándose precipitaciones que llegaron a superar los 400 l/m2 (la media anual es de 610 l/m2).




Si bien son más característicos de la cuenca mediterránea, estos fenómenos pueden expenderse a regiones limítrofes, como es el caso del mar cantábrico, también en la península ibérica, como ocurrió en la región cercana a Bilbao en 1983. El siguiente vídeo muestra las inmensas consecuencias de aquella gran Gota Fría que alcanzó los 600 l/m2.




Y para finalizar,  muestro un vídeo que yo mismo capté este mes de septiembre en una playa de la costa de Tarragona en Cataluña, donde se observa la creación de una gran tormenta con formaciones de nubes toroidales como consecuencia de la circulación de los vientos descrita anteriormente.



sábado, 9 de febrero de 2013

Cómo se calcula la cota de nieve


La cota de nieve se refiere a la altitud con respecto al mar a partir de la cual la precipitación que alcance la superficie lo hará en forma de nieve. Su cálculo no es tan sencillo como pueda parecer. Siendo necesario que en la superficie haya temperaturas próximas a 0ºC, este factor no es el único para que se produzca esta precipitación. Existen casos de nevadas a temperaturas próximas a 10ºC en superficie y precipitación en forma de lluvia a temperaturas muy por debajo de 0ºC,  denominada lluvia helada.


Es importante resaltar que el paso de la humedad atmosférica de estado líquido a sólido (y viceversa) no se produce a los 0ºC, pues pueden existir gotas de agua a temperaturas de hasta -40ºC. De hecho en las nubes, a la temperatura de -10ºC, existe un cristal de hielo por cada millón de gotas de agua.

Al precipitarse una gota o cristal de hielo hacia la superficie, éste puede sufrir muchas alteraciones al ir traspasando diferentes capas de la atmósfera. Si se trata de un cristal de hielo que atraviesa diferentes capas húmedas, éste va incrementando su volumen hasta alcanzar la superficie con gran tamaño, mientras que si en las últimas capas la humedad es baja ésta nieve será muy pequeña, dando lugar a la denominada nieve seca o en polvo.


Para conocer la altitud en la que se producirá la precipitación de nieve es necesario conocer los siguientes parámetros, principalmente relacionados con el estado de las capas superiores de la atmósfera

Temperatura a 850Hpa (esta presión es la que hay a una altura sobre el nivel del de 1.500 m)
Temperatura  a 500Hpa (aproximadamente a 5500 m)
Altura del geopotencial a 850Hpa
Humedad
Viento

Conociendo algunos de estos datos es posible conocer la cota de nieve de forma muy aproximada con la siguiente fórmula: 

Cota de Nieve = 150 X Temperatura a (850hPa) + 1000 (resultado en metros)

Con las siguientes imágenes ofrecidas por los modelos númericos (HIRLAM-AEMET 0.16º), se puede observar como para el día 11 de Febrero de 2013 hacia las 7:00 AM se preeven nevadas en cotas muy bajas en la zona norte de la península Ibérica.

Temperatura prevista a 500hpa

Temperatura prevista a 850hpa


Puedes usar este script de Jorge Miralles para calcular la cota de nieve haciendo uso de la información que se obtiene de ambas imágenes.

Sin embargo, los meteorólogos suelen usar los datos ofrecidos por las radiosondas, que son dispositivos empleados en globos meteorológicos para medir varios parámetros atmosféricos y transmitirlos a un aparato receptor fijo. La frecuencia de radio de 403 MHz está reservada para uso con las radiosondas. Una radiovoentosonda es un dispositivo más simple cuyo propósito es medir sólo la velocidad del viento. Estas medidas se toman realizando un seguimiento de la posición de la radiovoentosonda, por lo que no necesita un enlace de radio.




jueves, 31 de enero de 2013

Los inicios de las memorias de almacenamiento digital

“640K deberían ser suficientes para cualquiera". Eso es lo que el famoso Bill Gates dijo una vez, refiriéndose a la RAM en los ordenadores. O al menos eso es lo que se rumorea que ha dicho, aunque él se niega enérgicamente a aceptarlo. Dicho esto, como demuestra este post, 640 KB fue una estupenda cantidad de memoria para la época. Algunas de las primeras tecnologías utilizadas para el almacenamiento de datos digitales contenían probablemente la misma capacidad que la llave de nuestro coche y ocupaban, en ocasiones, lo que ocupa la oficina donde trabajamos.

Pero no todo son ventajas en el progreso de las memorias. El dilema documental, planteado por Paul Conway, de la Universidad de Yale, explica que, si bien a lo largo de la humanidad se han utilizado múltiples métodos de retención de información que han ido aumentado exponencialmente las densidades de almacenamiento, la vida de esas memorias ha ido disminuyendo de forma equivalente. En ocasiones es mucho más importante que la información perdure que almacenar ingentes cantidades de información, muchas veces irrelevante, sin esperar mantenerla apenas unos años.

Longevidad vs Densidad en archivo documental


Las tarjetas perforadas

Antes de las memorias magnéticas y electrónicas, los ingenieros resolvieron el problema de computación y memoria mediante tarjetas perforadas. Desde finales del siglo 18 y a lo largo de 19, las cintas perforadas y las tarjetas perforadas fueron utilizadas para "programar" telares y otras máquinas industriales. La tecnología fue adaptada para el almacenamiento de datos del censo en 1890 por Herman Hollerith. Sus diseños iniciales eran de matrices de 12 filas por 24 columnas de orificios redondos. En 1928, IBM lanzó una versión actualizada con orificios cuadrados en un 10 x 80 o 12 x 80 matriz. La capacidad variaba en función del sistema - para el IBM 1401, por ejemplo, se necesitaron tres columnas para codificar una palabra de 36-bit. (Imagen cortesía de IBM).


Tubo Williams-Kilburn

Desarrollado en 1946, el tubo de Williams-Kilburn era una solución de memoria formada por un tubo de rayos catódicos (TRC). Este dispositivo se basaba en el efecto de “emisión secundaria”, debido al cual, un punto dibujado en el tubo de rayos catódicos genera un área pequeña a su alrededor de carga positiva, mientras que en la zona contigua de carga negativa, creando una "zona de carga". Esta zona permanece en la superficie del tubo durante una fracción de segundo, permitiendo al dispositivo actuar como memoria una memoria. La duración de la zona de carga depende de la resistencia eléctrica en el interior del tubo. 

El punto puede ser borrado dibujando un segundo punto inmediatamente a continuación del primero, llenando de esta manera la zona de carga. Muchos sistemas hacían esto dibujando una corta línea en la posición del punto; de esta manera la extensión de la línea borraba la carga inicialmente almacenada en la posición del punto. 

El computador lee la información del tubo a través de una placa de metal que cubre el frente del tubo. Cada vez que un punto es creado o borrado, el cambio en la carga eléctrica induce un pulso de voltage en la placa. Debido a que la computadora sabe qué lugar de la pantalla está siendo apuntado en cada momento, se puede usar el pulso de voltaje de la placa para "leer" el dato almacenado en la pantalla. 

Al leerse una ubicación de memoria se crea una nueva zona de carga, destruyendo el contenido original de esa localización. Esto implica que por cada lectura se debe realizar una reescritura del dato leido. Muchos sistemas hacían esto dibujando una corta línea comenzando en la posición del punto si la nueva zona de carga necesitaba borrarse. Además, debido a que la carga gradualmente se pierde, era necesario rastrear el tubo periódicamente y re-escribir cada punto (similar al refresco de memoria de la DRAM en los sistemas modernos). 

Estos dispositivos, al que requerir tecnología de haz de dirección de alta precisión, eran muy sensibles a la temperatura y propensos a fallas prematuras. Los equipos tenían una capacidad de hasta 1024 bits. La computadora IBM 701 utilizaba un conjunto de 72 tubos Williams-Kilburn de 7.5 cm de diámetro y una capacidad total de 2048 palabras de 36 bits.


El selectrón 

Es una válvula termoiónica capaz de actuar como memoria de acceso aleatorio (RAM), diseñada por RCA en 1946, pero que no estuvo disponible comercialmente hasta la primavera de 1948. Se fabricó con capacidades de 4096 bits, para el ordenador LAS, pero debido a las dificultades de RCA para poner a punto el tubo, finalmente LAS utilizó tubos Williams. Diseños posteriores del selectrón condujeron a modelos de 1024 y 256 bits, este último utilizado en el ordenador JOHNNLAC, de 1953. El selectrón era de acceso directo y mucho más fiable que el tubo de Williams, pero también más caro. El diseño original de 4096 bits se diferencia de los posteriores en que los eyelets se forman sobre un dieléctrico circular, dividido en cuatro cuadrantes.

El selectrón se basa en pequeñas celdas aisladas, llamadas eyelets, capaces de permanecer en dos estados estables: con carga eléctrica y descargadas. Una fuente termoiónica de electrones mantiene la carga de estos eyelets. Cuando está descargado, los electrones que inciden sobre ellos traen gran energía y producen la emisión de gran cantidad de electrones secundarios que impiden que el eyelet adquiera más carga; pero, si está cargado, los electrones provenientes del cátodo se encuentran con una barrera de potencial que los frena, de modo que al incidir sobre el eyelet ya no tienen energía para producir electrones secundarios. Para grabar un bit se altera temporalmente el potencial del eyelet, haciendo que se cargue cuando se disminuye su potencial, o se descargue por emisión secundaria cuando éste se aumenta. Durante el proceso de grabación solo inciden electrones sobre el eyelet que se está manipulando. 

La lectura se produce debido a que cuando el eyelet está cargado repele los electrones incidentes, mientras que si está descargado, algunos de ellos lo atraviesan. Midiendo esta corriente se sabe el estado del eyelet.


Memoria de tambor magnetico IBM 650

La memoria estaba en el tambor giratorio, que proporcionaba 2000 palabras, cada una con signo y de 10 dígitos (5 caracteres por palabra). Las direcciones de estos 2000 registros iban de 0000 a 1999 (en decimal). Una desventaja del tambor giratorio es que hacía muy lento el acceso a memoria (tiempo de acceso medio: 2,5 ms), ya que para leer o escribir una dirección de memoria, había que esperar a que el área mas apropiada del tambor pasara por debajo del cabezal de lectura/escritura. Para optimizar esto, el código de instrucciones se encontraba salteado por el tambor, a intervalos que dependían en cada momento del tiempo de ejecución de la instrucción anterior. Por eso, era necesario guardar junto con cada instrucción la dirección de la próxima instrucción a ejecutar. computadora.

El IBM 650 era un auténtico mastodonte tecnológico que casaba con la imagen de esas computadoras que ocupaban toda una habitación y eran extremadamente ruidosas. IBM pensó en la contabilidad con la principal aplicación del IBM 650 y se basó en las máquinas contables que existían en la época para el diseño de su computadora. Esta máquina estuvo en la industria hasta el año 1969, cuando IBM dejó de dar soporte.

El sistema estaba formado por tres subsistemas que tenían, cada uno, el tamaño de un armario y algunos periféricos: Una consola, que era el IBM 650 y pesaba la nada despreciable cifra de 900 Kg Un dispositivo de alimentación, el IBM 655 que pesaba 1350 Kg Un lector de tarjetas perforadas y un perforador de tarjetas (el IBM 533 o el IBM 537) Periféricos: terminal de consultas (IBM 838), Unidad de cinta magnética (IBM 727), etc 

La computadora costaba 500.000 dólares de la época, todo un capital que no podían gastar muchas empresas. Pensando en esto y, a la vez, en las ventajas que ofrecía esta máquina a la industria, IBM apostó por el alquiler de estos computadores, es decir, instauró un sistema de renting por el cual las empresas podrían acceder al sistema por 3.500 dólares mensuales (un método de ventas que les funcionó extraordinariamente bien).


Memoria de toros 

La memoria de toros o memoria de núcleos magnéticos, fue una forma de memoria principal de los computadores, hasta comienzos de 1970. Tras desplazar a otras tecnologías de almacenamiento, la memoria de toros dominó la industria informática durante los años 50 y 60. Fue usada de manera extensa en computadoras y otros dispositivos electrónicos como las calculadoras. Intel fue creada con la idea de convertir la memoria de estado sólido en la memoria dominante en la industria de los computadores. Para 1971, Intel logro posicionar una memoria tipo DRAM como un dispositivo de buenas prestaciones y relativo bajo precio copando los mercados de la memoria de núcleos y relegándola al pasado.

El mecanismo de memoria se basa en la histéresis de la ferrita. Los toros de ferrita se disponen en una matríz de modo que sean atravesadas por dos hilos, X e Y, que discurren según las filas y columnas. Para escribir un bit en la memoria se envía un pulso simultáneamente por las líneas Xi e Yj correspondientes. El toro situado en la posición (i, j) se magnetizará en el sentido dado por los pulsos. Los demás toros, tanto de la fila como de la columna, no varían su magnetización ya que sólo reciben un pulso (X o Y), cuyo campo magnético es insuficiente para vencer la histéresis del toro. Y por esto los toros se metían en corrales para soportar los hilos X e Y. El dato se lee mediante un nuevo hilo Z, que recorre todos los toros de la matriz. Escribimos un cero por el método descrito anteriormente, luego sólo el toro (i, j) puede cambiar de estado. Si contiene un cero, no cambia, luego en la línea Z no se tiene señal; pero si el toro tiene un uno, pasa a valer cero, su sentido de magnetización cambia e induce un pulso en la línea Z, que se leerá como "uno". Como se ve, el proceso descrito destruye el dato que se lee, luego en las memorias de toros es necesario reescribir el dato tras leerlo.

Una memoria con un tamaño de palabra de n bits, pongamos 16 bits, necesita 16 matrices como la descrita, con 16 líneas Z, una por bit.


Memoria de línea de Retardo

Una memoria de línea de retardo es un dispositivo capaz de almacenar datos aprovechando el tiempo que necesita una señal para propagarse por un medio físico. Un ejemplo típico son las memorias de línea de retardo de mercurio. Estas están constituidas por un tubo relleno de mercurio con un transductor, habitualmente piezoeléctrico, en cada extremo. 

El primer transductor convierte los datos, en forma eléctrica, a una onda acústica que se propaga por el mercurio líquido. Cuando dicha onda llega al otro extremo genera una señal eléctrica en el segundo transductor, la cual es amplificada y realimentada al primero. Se forma así un circuito cerrado en el que los datos circulan constantemente por el mercurio. Leyendo la señal de salida del segundo transductor es posible acceder a los datos almacenados, y alterando adecuadamente la señal inyectada en el primero se pueden modificar éstos. La capacidad de cada línea de retardo depende de la velocidad de propagación de una onda en el medio físico que constituye la memoria, del tamaño o duración de cada bit y de la longitud de la línea de retardo. Así, si la señal eléctrica de cada bit dura B segundos y la velocidad de propagación en el medio es V metros/segundo, tenemos que la perturbación de cada bit en el medio ocupa B*V metros; por tanto, una memoria con una longitud de L metros podrá almacenar L/(B*V) bits.

sábado, 16 de junio de 2012

La corriente del golfo: el futuro enfriamiento del continente europeo

Parece haber consenso entre los climatólogos: con el creciente incremento de las temperaturas, paradójicamente, Europa será mucho más fría que en la actualidad. 

Esta importante cuestión es en ocasiones obviada en los análisis que se realizan sobre el calentamiento global del planeta y que se está produciendo, en principio, por el efecto de la actividad humana en lo que se ha venido a llamar "Cambio Climático". 

La explicación a esta curiosa paradoja radica en la importante aportación al clima planetario que se desprende de la llamada "Corriente del Golfo". Esta corriente fue por primera vez descrita en 1786 por el que posteriormente sería presidente de los EEUU, Benjamin Franklin en su libro Sundry Maritime Observations

Este fenómeno es producido por un mecanismo complejo de compensación de salinidades y temperaturas de agua marina que se produce en el Atlántico, generando un flujo en forma de circuito de aguas cálidas y altamente salinas procedentes del Caribe y en dirección al Atlántico Norte y de aguas frías y muy poco salinas en sentido inverso.

Corriente del Golfo y sus ramificaciones

La fuerte radiación solar producida en las proximidades del Golfo de México provoca el calentamiento de las aguas más superficiales del océano, que debido a procesos termodinámicos, vientos predominantemente de oeste y compensacion de salinidad desplazan enormes cantidades de agua (en algunos puntos del océano Atlántico alcanza los 1000 km de anchura), recorriendo la costa sureste de América del Norte, la costa occidental de Europa y alcanzando las proximidades del circulo polar Ártico. Estas aguas superficiales, pasan por diferentes ramificaciones, se enfrían y retornan por las profundidades por la costa Noreste de América del Norte.

Temperatura superficial del agua en el atlántico norte

Debido al poder termo-regulador de los océanos, los climas en las tierras bañadas o próximas a éstos son muy dependientes de las temperaturas de las aguas. Esto explica que las costas francesas, bañadas por el mar Cantábrico, dispongan de inviernos relativamente suaves en los que en ocasiones es posible bañarse en pleno invierno, mientras al otro lado del océano (en la misma latitud), los gigantescos barcos rompehielos deben surcar el océano para abrir el hielo que congela las costas de Canadá. Esto es debido a dicha corriente oceánica, disponiendo de aguas templadas en la parte oriental del Atlántico (costa atlántica europea) y aguas muy frías en la costa occidental (costa Este de América del Norte), ofreciendo sorprendentes climas templados en latitudes tan septentrionales como Escocia o las islas Lofoten en Noruega.

 Archipielago de  Lofoten (Noruega)

Barcos Rompehielos en el puerto de Quebec

El constante incremento de las temperaturas en el planeta está provocando el deshielo de los polos, desencadenando que el océano Ártico pierda salinidad ya que el agua del hielo de los icebergs y  glaciares derretidos no contiene apenas sal. Esto ralentiza la circulación de la corriente, que finalmente quedará bloqueada, dejando de aportar aguas cálidas a la costa occidental europea, congelándose y provocando un descenso importántísimo en la temperatura media de esta zona. 

Este fenómeno no sería nuevo pues, en el pasado, las llamadas glaciaciones han sido periódicas, y han sido debidas en gran medida a la pérdida de estas circulaciones marinas. 

Por tanto, aunque en un principio, y eso es lo que está ocurriendo actualmente, las temperaturas en Europa están incrementándose rápidamente debido al calentamiento del planeta, este efecto de relativa poca duración, puede llevar a una era mucho más larga de clima mucho más frío, del que además para el planeta es muy dificil de salir, pues cuanto más hielo hay en la superficie terrestre más rayos solares son reflejados (por el efecto Alvedo), reduciendose la temperatura de ésta y generándose más hielo, en un proceso de realiamentación positiva.

Diferentes albedos o reflexión de rayos solares en diferentes superficies

No deberíamos olvidar que las comunidades humanas se han desarrollado en base al clima de las tierras en las que habitaban, e importantísimas civilizaciones como la egipcia han desaparecido ante los cambios climáticos que se produjeron.


Glaciciaciones, GulfStream

domingo, 18 de diciembre de 2011

Cómo se crean los huracanes

Los huracanes son los ciclones tropicales originados en el Oceáno Atlantico y el Oceáno Pacifico Oriental. Es decir, aquellos ciclones que mueren o nacen en la zona centroamericana. Este nombre se mantiene practicamente inalterable del dado a lo largo de la historia por los habitantes de esta zona. Los mayas los denominaban hurenkan, que significa el de una pierna, y dios del fuego y la tormenta, y para el pueblo arahuaco o taíno (de las Antillas Mayores) significaba Centro del Viento.

Si bien el nombre científico es ciclón tropical, en otras zonas son denominados: tifones en la zona de Asia Oriental (Pacífico Occidental) y ciclones (en el Océano Índico).

Como sea que se les llamen, todos los ciclones tropicales se forman de la misma manera y son las tormentas más grandes y violentas del mundo.

Los ciclones tropicales se comportan como motores gigantes obteniendo el combustible del aire cálido y húmedo de las zonas tropicales. Es por ello que sólo son posibles en las zonas próximas al ecuador, donde la radiación solar es mayor y la evaporación y calentamiento del agua marina es máxima. El aire caliente tiende a ascender a la atmósfera, por lo que en estas zonas el aire cálido y húmedo sobre los océanos se eleva desde su superficie. Debido a esta ascensión, queda menos aire cerca de la superficie, causando un área de menor presión de aire cerca del océano.

El aire con mayor presión de las áreas circundantes llena el área de baja presión. Luego, este "nuevo" aire se torna cálido y humedo volviendo a ascender. En la medida en que el aire cálido continúa subiendo, el aire circundante gira para ocupar su lugar. Cuando el aire cálido y húmedo se eleva y se enfría, el agua en el aire forma nubes. Todo el sistema de nubes y aire gira y crece, alimentado por el calor del océano y el agua que se evapora de la superficie.

Debido al efecto Coriolis que afecta en el sentido de giro de los vientos (descrito en "Explicación de la creación de los vientos" del mes de abril) las tormentas formadas al norte del ecuador giran en sentido contrario a las manecillas del reloj y las generadas al sur del ecuador, giran en el sentido de las manecillas del reloj.

Al girar el sistema de tormenta cada vez más rápido, se forma un ojo en el centro. En el ojo todo es muy tranquilo y claro, con una presión de aire muy baja. El aire de presión alta superior baja hacia el interior del ojo. En la siguiente figura se puede observar el mecanismo de circulación de los vientos, con las flechas rojas mostrando la ascensión de los vientos cálidos y húmedos generando bandas de nubes en espiral mientras que las azules muestran la circulación y descenso de los vientos frios y secos a través del ojo del huracán y entre las bandas de nubes generadas por los vientos cálidos.


Cuando los vientos en la tormenta giratoria alcanzan 65 km/h (39 mph), la tormenta se denomina “tormenta tropical”. Y cuando alcanzan los 120 km/h (74 mph), se considera oficialmente que la tormenta es un “ciclón tropical", o huracán.

Los ciclones tropicales por lo general se debilitan cuando tocan tierra, porque ya no se pueden "alimentar" de la energía proveniente de los océanos templados. Sin embargo, a menudo avanzan bastante tierra adentro causando mucho daño por la lluvia y el viento antes de desaparecer por completo. Hay que destacar el curioso efecto que se produce a la entrada de un ciclón en tierra. Imaginemos una región por la que transcurre transversal el huracan, es decir, el centro del huracán pasa por esa regíon. En esta región se observarán tres fases meteorológicas que durarán un tiempo variable: en la primera fase, los vientos de componente media en una dirección y las lluvias van incrementándose progresivamente, aumentando su poder destructor. En una segunda fase, los vientos y las lluvias de forma súbita prácticamente se detienen, asociados a un bajada de temperatura debido al paso del ojo del huracán. En una tercera fase, y casi de forma súbita, los vientos y las lluvias se incrementan al máximo alcanzado en la primera fase, pero en sentido opuesto, y se van decrementando progresivamente. Esta última fase suele ser la más peligrosa y destructora, pues imaginemos que en la primera fase los vientos tienen sentido mar-tierra, progresivamente incrementales, pero en la tercera fase los vientos arrastran lo destruido de tierra a mar súbitamente.

Un efecto importante de los huracanes, al margen de los fuertes vientos y las lluvias, es el incremento del nivel del mar, que puede alcanzar los 8 metros, debido al efecto succionador que provocan los propios vientos circulares del huracán que sobre el mar pasa.

Los ciclones tropicales son clasificados en la escala Saffir-Simpson según la intensidad del viento, desarrollada en 1969. En la siguiente figura se muestra esta clasificacion (1 mph= 1.609 kmh)


Uno de los huracanes más debastadores de la historia de EEUU fue el que arrasó, entre otras zonas, la ciudad de Nueva Orleans en 2005. Este huracán, que alcanzó el nivel 5, hizo ascender el mar por encima de los diques de contención de esa ciudad, provocando enormes daños y la muerte de miles de personas. A día de hoy, la ciudad no se ha recuperado, habiendo perdido la mitad de la población que tenía antes del desastre. En el siguiente video se puede observar la espectacular evolución del huracán, y el repentino cambio de trayectoria hacia el interior de EEUU por el estado de Luisiana.




Fuentes: Ventanas al universo, NASA,Wikipedia, Etimologías

sábado, 26 de noviembre de 2011

Cómo sacar el disco duro en un portátil Dell Inspiron M301z (hard disk removal in Dell Inspiron)

Despues de algunos problemas con el funcionamiento de la placa base de un portátil de Dell (concretamente Inspiron M301z), aquí dejo una presentación (siento la calidad de las fotos) de cómo extraje el disco duro para hacer una copia de seguridad de éste. Este modelo es particular, pues en otros la extracción se hace de forma muy sencilla por la parte lateral, pero en este caso, dadas las prestaciones de compactación del portatil, es necesario desmontarlo parcialmente.

Aunque en la presentación se puede observar la extracción de hasta 19 tornillos, nos facilita el remontaje el saber que todos son de la misma métrica, por tanto, de lo único que nos debemos de preocupar es que no nos sobre ninguno al restaurar el portátil.

domingo, 13 de noviembre de 2011

Qué es el mar de fondo

El mar de fondo se denomina a aquel sistema de ondas marinas que se encuentra fuera del área en el que fueron originadas y que se propaga hasta distancias alejadas de su fuente. Este fenómeno, denominado también mar de leva o mar tendida, es uno de los tres motivos frecuentes de aparación de las olas marinas, siendo los otros dos los generados por los vientos (mar de viento) o por movimientos geológicos (tsunamis o maremotos).

Si bien el origen de las olas es debido a fuertes vientos en alta mar, éste se puede apreciar en zonas en las que no existan vientos. El aspecto morfológico de estas olas es bien diferente al producido por otros fenómenos, pues presenta una longitud de onda muy superior a su altura, con crestas redondeadas e iguales entre sí que no llegan a romper en alta mar. Tienden a tener un perfil senoidal siendo sencilla su distinción de las generadas por los otros fenómenos, teniendo validez solo en alta mar, donde las olas tienen una longitud de onda menor que el doble de la profundicad de la mas de agua que existe debajo de ella.

Una vez alcanzada la costa, el mar de fondo se convierte, diciendose que la ola siente el fondo y provocando las resacas. Cuando la mar de fondo llega a una playa, la alineación de sus líneas de cresta y de seno se dispone paralelamente a la costa, cualquiera sea la dirección de la que proviniera inicialmente. Las olas que inciden así hacia la playa sienten el fondo convirtiéndose de olas de aguas profundas en aguas someras. La gravedad y el rozamiento con el fondo deforman la trayectoria de las partículas, inicialmente como sabemos, circulares, de manera que acaban por convertirse en elipses enormemente alargadas cuyo eje está inclinado hacia la dirección de oleaje. La energía de este se va amortiguando por rozamiento con el fondo, iniciándose entonces una reflexión del movimiento ondulatorio, es decir un retroceso del oleaje incidente, o en otras palabras, una ola reflejada que interfiere con ésta (resaca).

Cuando hay concordancia de fase entre ambos sistemas de olas incidente y reflejado, aumenta la altura de las crestas rompiendo éstas.

El mar de fondo puede predecir la llegada de una fuerte borrasca o a la inversa, ser consecuencia del paso de una fuerte borrasca.


Fuentes: foroTiempo, curso meteorología marina, Mar de fondo en wikipedia, youtube