sábado, 28 de septiembre de 2013

Gota Fría

Dada la época en la que nos encontramos, finales de verano principios de otoño en el hemisferio norte, parece apropiado comentar el fenómeno meteorológico que se produce habitualmente en la región mediterránea, principalmente en las costas de los países bañados por el mar mediterráneo occidental, debido al efecto de diatermancia.

Temperatura del mar en época estival
Este fenómeno meteorológico, que se desencadena principalmente en los meses de Septiembre y Octubre, es consecuencia de la aparición de bajas presiones o inestabilidades atmosféricas, normalmente locales, debido a que las aguas mediterráneas presentan su máximo de temperatura y las temperaturas continentales empiezan a descender. La gota fría se desarrolla por el contacto de estas masas de aire cálido y húmedo con masas de aire frío de capas altas que comienzan a aparecer en estos meses como descuelgues de aires fríos de latitudes superiores. También juega un papel importante en las consecuencias, como en cualquier fenómeno meteorológico, el comportamiento orográfico de la región en la que se produzcan estos intercambios de aire-temperatura-humedad.

Descuelgue de aire frío sobre la península Ibérica

Estas circunstancias favorecen la fuerte evaporación de las aguas calientes, que ascienden rápidamente a grandes alturas, enfriándose también rápidamente  y provocando la creación de grandes nubes y precipitaciones. Es un fenómeno local aislado generalmente de la circulación atmosférica.

Si bien el término no es del todo correcto, es en Alemania, lugar de origen del término (kaltlufttropfen) y en España donde se mantiene en uso. Y no es correcto porque el término gota fría no se corresponde con el verdadero origen del fenómeno ya que se debe realmente a la creación de una burbuja de aire caliente y muy húmedo dentro de una depresión barométrica. Al entrar en contacto dicha burbuja con la depresión barométrica con aires mucho más fríos en las capas superiores de la atmósfera se produce la precipitación de dicha humedad, tanto más intensa cuanto mayores contrastes térmicos y de humedad existan entre la burbuja y el aire frío y seco. El término técnico más adoptado para este efecto es el de DANA (depresión aislada en niveles altos).

Una definición muy acertada del fenómeno meteorológico es dada por Francisco M. León , INM 2003:


...“una depresión cerrada en altura que se ha aislado y separado completamente de  la circulación atmosférica asociada a la corriente de chorro, y que se mueve independientemente de tal flujo llegando, a veces, a ser estacionaria o, incluso, retrógada (su desplazamiento es, en estos casos, de dirección Este-Oeste)".


Según la definción de Wikipedia, “La gota fría, que conserva su giro ciclónico, se convierte en una zona anticiclónica en altura, lo que produce en su borde exterior, un descenso del aire frío y seco en espiral descendente (sentido horario) que alimenta, a su vez, el ascenso o convección del aire caliente y húmedo en forma de espiral (ascendente) con sentido antihorario típicamente ciclónico. La gota fría será más importante cuanto mayor sea la temperatura de las aguas marinas ya que el vapor de agua asciende repentinamente debido a la menor densidad del aire caliente y se condensa, formando rápidamente nubes de gran altura (generalmente, de más de 10 km) que casi siempre son del tipo de cumulonimbos

Formación de Gota Fría en el Levante de la
península Ibéríca

Como se ha comentado, la precipitación (generalmente acompañada de fuertes vientos, granizo y aparato eléctrico) será más intensa cuanto mayor sea la temperatura del agua en su creación (esta circunstancia es también determinante en la realimentación de los huracanes, como se explicaba en la anterior entrada del blog "Cómo se crean los huracanes") y mayores sean los vientos mar-tierra que alimentan de humedad el proceso. Estas precipitaciones pueden alcanzar o sobrepasar los 500 l/m2 (medio metro de agua en superficie) en menos de 24 horas en regiones en las que, como es el caso de la región murciana dentro de la península ibérica, presentan medias de precipitación anuales incluso inferiores a esa cantidad. Hay que recordar que los grandes el Monzón en la zona del océano índico (grandes precipitaciones de orígenes similares aunque mucho más afectadas por cuestiones orográficas) pueden alcanzar los 3000 o 4000 l/m2 en lapsos de  tiempo de varias semanas o meses.

El clima mediterráneo, considerado en particular dentro de la clasificación de los climas terrestres conocidos, presenta como característica diferenciadora la aparición de este fenómeno, principalmente en su región occidental (península ibérica, sureste francés, península itálica y costa oeste mediterránea de África). Debido a esto, las regiones afectadas presentan incluso una ordenación urbanística particular. Es habitual observar en la cuenca mediterránea zonas de evacuación de grandes torrenteras de agua en las proximidades de las costas (llegando a las playas), que generalmente están secas, incluso durante años, pero de vital importancia para las zonas urbanizadas cercanas.

Límite ecológico del cultivo del olivo en la cuenca mediterránea. Este límite se ha mantenido inamovible durante miles de años y es considerado para establecer las regiones de propio clima mediterráneo

Uno de los mayores desastres ocurridos como consecuencia de una gota fría y de la mala ordenación urbanística que no consideró estos fenómenos meteorológicos se produjo en 1962. En la zona del Vallés Occidental, en las ciudades del anillo metropolitano de la ciudad de Barcelona y en una década de alto crecimiento demográfico por inmigración,  una inmensa tromba de agua sorprendió a los recién asentados habitantes, causando más de 1000 muertos registrándose precipitaciones que llegaron a superar los 400 l/m2 (la media anual es de 610 l/m2).




Si bien son más característicos de la cuenca mediterránea, estos fenómenos pueden expenderse a regiones limítrofes, como es el caso del mar cantábrico, también en la península ibérica, como ocurrió en la región cercana a Bilbao en 1983. El siguiente vídeo muestra las inmensas consecuencias de aquella gran Gota Fría que alcanzó los 600 l/m2.




Y para finalizar,  muestro un vídeo que yo mismo capté este mes de septiembre en una playa de la costa de Tarragona en Cataluña, donde se observa la creación de una gran tormenta con formaciones de nubes toroidales como consecuencia de la circulación de los vientos descrita anteriormente.



sábado, 9 de febrero de 2013

Cómo se calcula la cota de nieve


La cota de nieve se refiere a la altitud con respecto al mar a partir de la cual la precipitación que alcance la superficie lo hará en forma de nieve. Su cálculo no es tan sencillo como pueda parecer. Siendo necesario que en la superficie haya temperaturas próximas a 0ºC, este factor no es el único para que se produzca esta precipitación. Existen casos de nevadas a temperaturas próximas a 10ºC en superficie y precipitación en forma de lluvia a temperaturas muy por debajo de 0ºC,  denominada lluvia helada.


Es importante resaltar que el paso de la humedad atmosférica de estado líquido a sólido (y viceversa) no se produce a los 0ºC, pues pueden existir gotas de agua a temperaturas de hasta -40ºC. De hecho en las nubes, a la temperatura de -10ºC, existe un cristal de hielo por cada millón de gotas de agua.

Al precipitarse una gota o cristal de hielo hacia la superficie, éste puede sufrir muchas alteraciones al ir traspasando diferentes capas de la atmósfera. Si se trata de un cristal de hielo que atraviesa diferentes capas húmedas, éste va incrementando su volumen hasta alcanzar la superficie con gran tamaño, mientras que si en las últimas capas la humedad es baja ésta nieve será muy pequeña, dando lugar a la denominada nieve seca o en polvo.


Para conocer la altitud en la que se producirá la precipitación de nieve es necesario conocer los siguientes parámetros, principalmente relacionados con el estado de las capas superiores de la atmósfera

Temperatura a 850Hpa (esta presión es la que hay a una altura sobre el nivel del de 1.500 m)
Temperatura  a 500Hpa (aproximadamente a 5500 m)
Altura del geopotencial a 850Hpa
Humedad
Viento

Conociendo algunos de estos datos es posible conocer la cota de nieve de forma muy aproximada con la siguiente fórmula: 

Cota de Nieve = 150 X Temperatura a (850hPa) + 1000 (resultado en metros)

Con las siguientes imágenes ofrecidas por los modelos númericos (HIRLAM-AEMET 0.16º), se puede observar como para el día 11 de Febrero de 2013 hacia las 7:00 AM se preeven nevadas en cotas muy bajas en la zona norte de la península Ibérica.

Temperatura prevista a 500hpa

Temperatura prevista a 850hpa


Puedes usar este script de Jorge Miralles para calcular la cota de nieve haciendo uso de la información que se obtiene de ambas imágenes.

Sin embargo, los meteorólogos suelen usar los datos ofrecidos por las radiosondas, que son dispositivos empleados en globos meteorológicos para medir varios parámetros atmosféricos y transmitirlos a un aparato receptor fijo. La frecuencia de radio de 403 MHz está reservada para uso con las radiosondas. Una radiovoentosonda es un dispositivo más simple cuyo propósito es medir sólo la velocidad del viento. Estas medidas se toman realizando un seguimiento de la posición de la radiovoentosonda, por lo que no necesita un enlace de radio.




jueves, 31 de enero de 2013

Los inicios de las memorias de almacenamiento digital

“640K deberían ser suficientes para cualquiera". Eso es lo que el famoso Bill Gates dijo una vez, refiriéndose a la RAM en los ordenadores. O al menos eso es lo que se rumorea que ha dicho, aunque él se niega enérgicamente a aceptarlo. Dicho esto, como demuestra este post, 640 KB fue una estupenda cantidad de memoria para la época. Algunas de las primeras tecnologías utilizadas para el almacenamiento de datos digitales contenían probablemente la misma capacidad que la llave de nuestro coche y ocupaban, en ocasiones, lo que ocupa la oficina donde trabajamos.

Pero no todo son ventajas en el progreso de las memorias. El dilema documental, planteado por Paul Conway, de la Universidad de Yale, explica que, si bien a lo largo de la humanidad se han utilizado múltiples métodos de retención de información que han ido aumentado exponencialmente las densidades de almacenamiento, la vida de esas memorias ha ido disminuyendo de forma equivalente. En ocasiones es mucho más importante que la información perdure que almacenar ingentes cantidades de información, muchas veces irrelevante, sin esperar mantenerla apenas unos años.

Longevidad vs Densidad en archivo documental


Las tarjetas perforadas

Antes de las memorias magnéticas y electrónicas, los ingenieros resolvieron el problema de computación y memoria mediante tarjetas perforadas. Desde finales del siglo 18 y a lo largo de 19, las cintas perforadas y las tarjetas perforadas fueron utilizadas para "programar" telares y otras máquinas industriales. La tecnología fue adaptada para el almacenamiento de datos del censo en 1890 por Herman Hollerith. Sus diseños iniciales eran de matrices de 12 filas por 24 columnas de orificios redondos. En 1928, IBM lanzó una versión actualizada con orificios cuadrados en un 10 x 80 o 12 x 80 matriz. La capacidad variaba en función del sistema - para el IBM 1401, por ejemplo, se necesitaron tres columnas para codificar una palabra de 36-bit. (Imagen cortesía de IBM).


Tubo Williams-Kilburn

Desarrollado en 1946, el tubo de Williams-Kilburn era una solución de memoria formada por un tubo de rayos catódicos (TRC). Este dispositivo se basaba en el efecto de “emisión secundaria”, debido al cual, un punto dibujado en el tubo de rayos catódicos genera un área pequeña a su alrededor de carga positiva, mientras que en la zona contigua de carga negativa, creando una "zona de carga". Esta zona permanece en la superficie del tubo durante una fracción de segundo, permitiendo al dispositivo actuar como memoria una memoria. La duración de la zona de carga depende de la resistencia eléctrica en el interior del tubo. 

El punto puede ser borrado dibujando un segundo punto inmediatamente a continuación del primero, llenando de esta manera la zona de carga. Muchos sistemas hacían esto dibujando una corta línea en la posición del punto; de esta manera la extensión de la línea borraba la carga inicialmente almacenada en la posición del punto. 

El computador lee la información del tubo a través de una placa de metal que cubre el frente del tubo. Cada vez que un punto es creado o borrado, el cambio en la carga eléctrica induce un pulso de voltage en la placa. Debido a que la computadora sabe qué lugar de la pantalla está siendo apuntado en cada momento, se puede usar el pulso de voltaje de la placa para "leer" el dato almacenado en la pantalla. 

Al leerse una ubicación de memoria se crea una nueva zona de carga, destruyendo el contenido original de esa localización. Esto implica que por cada lectura se debe realizar una reescritura del dato leido. Muchos sistemas hacían esto dibujando una corta línea comenzando en la posición del punto si la nueva zona de carga necesitaba borrarse. Además, debido a que la carga gradualmente se pierde, era necesario rastrear el tubo periódicamente y re-escribir cada punto (similar al refresco de memoria de la DRAM en los sistemas modernos). 

Estos dispositivos, al que requerir tecnología de haz de dirección de alta precisión, eran muy sensibles a la temperatura y propensos a fallas prematuras. Los equipos tenían una capacidad de hasta 1024 bits. La computadora IBM 701 utilizaba un conjunto de 72 tubos Williams-Kilburn de 7.5 cm de diámetro y una capacidad total de 2048 palabras de 36 bits.


El selectrón 

Es una válvula termoiónica capaz de actuar como memoria de acceso aleatorio (RAM), diseñada por RCA en 1946, pero que no estuvo disponible comercialmente hasta la primavera de 1948. Se fabricó con capacidades de 4096 bits, para el ordenador LAS, pero debido a las dificultades de RCA para poner a punto el tubo, finalmente LAS utilizó tubos Williams. Diseños posteriores del selectrón condujeron a modelos de 1024 y 256 bits, este último utilizado en el ordenador JOHNNLAC, de 1953. El selectrón era de acceso directo y mucho más fiable que el tubo de Williams, pero también más caro. El diseño original de 4096 bits se diferencia de los posteriores en que los eyelets se forman sobre un dieléctrico circular, dividido en cuatro cuadrantes.

El selectrón se basa en pequeñas celdas aisladas, llamadas eyelets, capaces de permanecer en dos estados estables: con carga eléctrica y descargadas. Una fuente termoiónica de electrones mantiene la carga de estos eyelets. Cuando está descargado, los electrones que inciden sobre ellos traen gran energía y producen la emisión de gran cantidad de electrones secundarios que impiden que el eyelet adquiera más carga; pero, si está cargado, los electrones provenientes del cátodo se encuentran con una barrera de potencial que los frena, de modo que al incidir sobre el eyelet ya no tienen energía para producir electrones secundarios. Para grabar un bit se altera temporalmente el potencial del eyelet, haciendo que se cargue cuando se disminuye su potencial, o se descargue por emisión secundaria cuando éste se aumenta. Durante el proceso de grabación solo inciden electrones sobre el eyelet que se está manipulando. 

La lectura se produce debido a que cuando el eyelet está cargado repele los electrones incidentes, mientras que si está descargado, algunos de ellos lo atraviesan. Midiendo esta corriente se sabe el estado del eyelet.


Memoria de tambor magnetico IBM 650

La memoria estaba en el tambor giratorio, que proporcionaba 2000 palabras, cada una con signo y de 10 dígitos (5 caracteres por palabra). Las direcciones de estos 2000 registros iban de 0000 a 1999 (en decimal). Una desventaja del tambor giratorio es que hacía muy lento el acceso a memoria (tiempo de acceso medio: 2,5 ms), ya que para leer o escribir una dirección de memoria, había que esperar a que el área mas apropiada del tambor pasara por debajo del cabezal de lectura/escritura. Para optimizar esto, el código de instrucciones se encontraba salteado por el tambor, a intervalos que dependían en cada momento del tiempo de ejecución de la instrucción anterior. Por eso, era necesario guardar junto con cada instrucción la dirección de la próxima instrucción a ejecutar. computadora.

El IBM 650 era un auténtico mastodonte tecnológico que casaba con la imagen de esas computadoras que ocupaban toda una habitación y eran extremadamente ruidosas. IBM pensó en la contabilidad con la principal aplicación del IBM 650 y se basó en las máquinas contables que existían en la época para el diseño de su computadora. Esta máquina estuvo en la industria hasta el año 1969, cuando IBM dejó de dar soporte.

El sistema estaba formado por tres subsistemas que tenían, cada uno, el tamaño de un armario y algunos periféricos: Una consola, que era el IBM 650 y pesaba la nada despreciable cifra de 900 Kg Un dispositivo de alimentación, el IBM 655 que pesaba 1350 Kg Un lector de tarjetas perforadas y un perforador de tarjetas (el IBM 533 o el IBM 537) Periféricos: terminal de consultas (IBM 838), Unidad de cinta magnética (IBM 727), etc 

La computadora costaba 500.000 dólares de la época, todo un capital que no podían gastar muchas empresas. Pensando en esto y, a la vez, en las ventajas que ofrecía esta máquina a la industria, IBM apostó por el alquiler de estos computadores, es decir, instauró un sistema de renting por el cual las empresas podrían acceder al sistema por 3.500 dólares mensuales (un método de ventas que les funcionó extraordinariamente bien).


Memoria de toros 

La memoria de toros o memoria de núcleos magnéticos, fue una forma de memoria principal de los computadores, hasta comienzos de 1970. Tras desplazar a otras tecnologías de almacenamiento, la memoria de toros dominó la industria informática durante los años 50 y 60. Fue usada de manera extensa en computadoras y otros dispositivos electrónicos como las calculadoras. Intel fue creada con la idea de convertir la memoria de estado sólido en la memoria dominante en la industria de los computadores. Para 1971, Intel logro posicionar una memoria tipo DRAM como un dispositivo de buenas prestaciones y relativo bajo precio copando los mercados de la memoria de núcleos y relegándola al pasado.

El mecanismo de memoria se basa en la histéresis de la ferrita. Los toros de ferrita se disponen en una matríz de modo que sean atravesadas por dos hilos, X e Y, que discurren según las filas y columnas. Para escribir un bit en la memoria se envía un pulso simultáneamente por las líneas Xi e Yj correspondientes. El toro situado en la posición (i, j) se magnetizará en el sentido dado por los pulsos. Los demás toros, tanto de la fila como de la columna, no varían su magnetización ya que sólo reciben un pulso (X o Y), cuyo campo magnético es insuficiente para vencer la histéresis del toro. Y por esto los toros se metían en corrales para soportar los hilos X e Y. El dato se lee mediante un nuevo hilo Z, que recorre todos los toros de la matriz. Escribimos un cero por el método descrito anteriormente, luego sólo el toro (i, j) puede cambiar de estado. Si contiene un cero, no cambia, luego en la línea Z no se tiene señal; pero si el toro tiene un uno, pasa a valer cero, su sentido de magnetización cambia e induce un pulso en la línea Z, que se leerá como "uno". Como se ve, el proceso descrito destruye el dato que se lee, luego en las memorias de toros es necesario reescribir el dato tras leerlo.

Una memoria con un tamaño de palabra de n bits, pongamos 16 bits, necesita 16 matrices como la descrita, con 16 líneas Z, una por bit.


Memoria de línea de Retardo

Una memoria de línea de retardo es un dispositivo capaz de almacenar datos aprovechando el tiempo que necesita una señal para propagarse por un medio físico. Un ejemplo típico son las memorias de línea de retardo de mercurio. Estas están constituidas por un tubo relleno de mercurio con un transductor, habitualmente piezoeléctrico, en cada extremo. 

El primer transductor convierte los datos, en forma eléctrica, a una onda acústica que se propaga por el mercurio líquido. Cuando dicha onda llega al otro extremo genera una señal eléctrica en el segundo transductor, la cual es amplificada y realimentada al primero. Se forma así un circuito cerrado en el que los datos circulan constantemente por el mercurio. Leyendo la señal de salida del segundo transductor es posible acceder a los datos almacenados, y alterando adecuadamente la señal inyectada en el primero se pueden modificar éstos. La capacidad de cada línea de retardo depende de la velocidad de propagación de una onda en el medio físico que constituye la memoria, del tamaño o duración de cada bit y de la longitud de la línea de retardo. Así, si la señal eléctrica de cada bit dura B segundos y la velocidad de propagación en el medio es V metros/segundo, tenemos que la perturbación de cada bit en el medio ocupa B*V metros; por tanto, una memoria con una longitud de L metros podrá almacenar L/(B*V) bits.