Archivo de la categoría: Teledetección

El Estado dispone de una amplia red de vigilancia radiológica ambiental

24 de marzo de 2011. El Estado español dispone de un amplio sistema de redes de vigilancia radiológica medioambiental, que se compone de la Red de Vigilancia de Ámbito Nacional del Consejo de Seguridad Nuclear (CSN) y de la Red de Alerta de la Radioactividad (RAR) dependiente de la Dirección General de Protección Civil.

Entre los dos operativos suman un total de unos mil puntos de medición radiológica ambiental, repartidos por todo el territorio nacional, que permiten medir los niveles de radiación en el aire, cuencas fluviales, puntos del litoral, suelos y productos alimentarios.

Red de Vigilancia de Ámbito Nacional del CSN

Se compone a su vez de dos redes de vigilancia: la Red de Estaciones Automáticas  (REA) y la Red de Estaciones de Muestreo (REM).

La red de estaciones automáticas (REA) está integrada por 25 estaciones de medición automática, que disponen de instrumentos capaces de medir continuamente variables radiológicas (tasa de dosis gamma, concentración de radón, radioyodos y emisores alfa y beta en aire), así como variables meteorológicas (temperatura, precipitaciones, humedad relativa, presión atmosférica, dirección y velocidad del viento).

La recepción, gestión y análisis de estos datos corresponde al CSN, donde también se reciben los datos procedentes de la red de Protección Civil.

En la red de estaciones de muestreo (REM), la vigilancia se realiza mediante la toma de muestras (terrestres y/o acuáticas) y su posterior análisis radiológico. Este proceso lo realiza el CSN en colaboración con una serie de laboratorios e instituciones de investigación españolas.

El REM se compone a su vez de dos redes de mediciones radiológicas complementarias, la denominada “red densa” y la “red espaciada”. La red densa esta compuesta por numerosos puntos de tomas de muestras repartidos por todo el territorio nacional, y la red espaciada consiste en la selección de un número limitado de puntos de muestreo, donde se realizan medidas de muy alta sensibilidad y especialización.

Con estas dos redes se elaboran estudios e informes para dos programas, el programa de vigilancia de la atmósfera y el medio terrestre, y el programa de vigilancia del medio acuático continental y costero.

El programa de vigilancia de la atmósfera y el medio terrestre tiene como objetivo medir la radiactividad en suelos, aire, agua potable, leche y dieta tipo (alimentos básicos). El CSN desarrolla este programa mediante acuerdos de colaboración suscritos con 20 universidades y organismos de investigación repartidos por toda España.

El programa de vigilancia del medio acuático continental y costero tiene como objetivo vigilar la calidad radiológica de las aguas fluviales de las distintas cuencas hidrográficas, así como del agua de mar en diferentes puntos del litoral. Este programa se lleva a cabo por el Centro de estudios y Experimentación de Obras Públicas (Cedex) en colaboración con el CSN.

Red de Alerta de Radioactividad de la Dirección General de Protección Civil

La red de alerta de radiactividad (RAR), dependiente de la Dirección General de Protección Civil, la forman 903 estaciones medidoras, repartidas por todo el territorio nacional y dotadas de tecnología capaz de detectar cualquier nivel de radioactividad ambiental superior a lo normal. Los datos recogidos en estas estaciones son enviados al Consejo de Seguridad Nuclear, que es el organismo encargado de evaluar y gestionar los datos.

Mediciones radiológicas dentro de lo habitual

De acuerdo con los datos procedentes de esta amplia red de vigilancia radiológica ambiental evaluados en el CSN, hasta el momento los valores medidos de radioactividad se mantienen dentro de la más estricta normalidad, y no representan, en ningún caso, riesgo para la salud ni para el medioambiente.

Por último, considerando la distancia existente desde la central nuclear de Fukushima, no se esperan alteraciones significativas en estas mediciones en el continente Europeo.

Fuente: Nota de prensa de la DGPCE (24/03/2011)

Share Button

Riesgos derivados del Clima Espacial

El clima espacial define la interacción del Sol, física y magnéticamente, con todos los objetos del Sistema Solar. Esta actividad presenta una pauta de repetición cíclica, con valores máximos y mínimos, de aproximadamente 11 años. En la época de máximos los efectos físicos y magnéticos sobre los dispositivos eléctricos y electrónicos pueden tener un impacto significativo, incluso provocar serios daños. Este tipo de eventos se clasifican según su ocurrencia e impacto como baja frecuencia / alto impacto (LF/HC, Low-Frequency/High-Consequence).

He publicado en la web el informe que presenté en noviembre de 2010 a la Dirección General de Protección Civil y Emergencias (DGPCE), con motivo de las Jornadas Técnicas sobre Clima Espacial.

Se presenta una breve caracterización del clima espacial y se analizan los riesgos para las personas y para diversos sistemas tecnológicos. Tambien se describen los sistemas de observación y alerta temprana disponibles actualmente en diversos países.

Enlace: Riesgos derivados del Clima Espacial (Ismael Pellejero).

Share Button

Escudo Solar: Protegiendo la red eléctrica de América del Norte

Cada 100 años más o menos, llega a la Tierra una tormenta solar tan potente que cubre el cielo con auroras teñidas de color rojo intenso, hace que las brújulas apunten en la dirección equivocada y produce corrientes eléctricas que atraviesan la capa superficial de nuestro planeta. La más famosa de dichas tormentas, llamada el Evento Carrington de 1859, en efecto electrocutó a operadores de telégrafo y causó que algunas oficinas se incendiaran. Un informe del año 2008, emitido por la Academia Nacional de Ciencias, advierte que si dicha tormenta ocurriera hoy en día podríamos experimentar apagones sobre grandes áreas, con diversos daños para los transformadores ubicados en puntos clave. ¿Qué es lo que tiene que hacer un operador de servicio público?

Un nuevo proyecto de la NASA, denominado “Escudo Solar”, podría ayudar a mantener las luces encendidas.

“Escudo Solar es un nuevo sistema de pronóstico en fase experimental para la red de energía eléctrica de América del Norte”, explica el líder del proyecto Antti Pulkkinen, quien es un investigador asociado en la Universidad Católica de América y se encuentra trabajando en el Centro Goddard para Vuelos Espaciales, de la NASA. “Creemos que podemos localizar transformadores específicos y predecir cuáles de ellos van a ser golpeados con mayor rigor por un evento ocasionado por el estado del tiempo en el espacio”.

La principal causa de problemas en las redes eléctricas es la “CGI” —abreviatura de “corriente geomagnética inducida” o “GIC”, por su sigla en idioma inglés. Cuando una eyección de masa coronal (una nube de tormenta solar de mil millones de toneladas) se topa con el campo magnético de la Tierra, el impacto provoca que dicho campo se sacuda y se estremezca. Estas vibraciones magnéticas inducen corrientes prácticamente en todas partes, desde la alta atmósfera terrestre hasta el suelo que yace debajo de nuestros pies. Las poderosas CGI pueden sobrecargar los circuitos, pueden dejar fuera de funcionamiento a los fusibles y, en los casos extremos, pueden derretir las bobinas de los transformadores de uso industrial.

Esto ocurrió en realidad en Quebec, el 13 de marzo de 1989, cuando una tormenta geomagnética, mucho menos severa que el Evento Carrington, dejó completamente sin electricidad a la provincia entera durante más de nueve horas. La tormenta dañó transformadores en Quebec, en Nueva Jersey y en Gran Bretaña, y causó más de 200 desperfectos eléctricos a lo ancho de Estados Unidos, desde la costa este hasta la costa noroeste del Pacífico. Una serie similar de “tormentas de Halloween“, las cuales tuvieron lugar en octubre de 2003, causó un apagón regional en el sur de Suecia y quizás pudo haber dañado algunos transformadores en Sudáfrica.

Mientras que varias empresas de servicio público han avanzado para fortalecer sus redes eléctricas, en general, la situación sólo se ha agravado. Un informe del año 2009, presentado por la Corporación de la Confiabilidad Eléctrica de América del Norte (North American Electric Reliability Corporation o NERC, por su sigla en idioma inglés) y por el Departamento de Energía de Estados Unidos, arribó a la conclusión de que los sistemas de energía modernos tienen una “creciente vulnerabilidad y exposición a los efectos de una tormenta geomagnética severa“. La razón de fondo se puede entender rápidamente observando el siguiente diagrama:

Desde el comienzo de la Era Espacial, la longitud total de las líneas eléctricas de alta tensión que atraviesan América del Norte se ha incrementado casi 10 veces. Esto ha convertido a las redes eléctricas en antenas gigantes para las corrientes inducidas geomagnéticamente. Con una demanda de energía que crece mucho más rápido que las redes mismas, las redes modernas proliferan de manera interconectada, y son llevadas al límite —lo cual resulta una receta ideal para tener problemas, de acuerdo con lo que expresa la Academia Nacional de Ciencias: “La escala y la velocidad de los problemas que podrían ocurrir [en estas redes modernas] tienen el potencial de impactar en los sistemas de energía de una manera que no se ha visto con anterioridad”.

Un apagón de gran escala podría prolongarse por un largo período, principalmente debido a los daños en los transformadores. Tal y como lo apunta el informe proporcionado por la Academia Nacional: “Estos aparatos de varias toneladas de peso no se pueden reparar in situ y, si se llegaran a dañar de esta forma, tendrían que ser reemplazados por unidades nuevas que podrían demorarse en llegar hasta 12 meses o más”.

Esa es la razón por la que un pronóstico nodo por nodo de las corrientes geomagnéticas resulta potencialmente valioso. Durante las tormentas intensas, los ingenieros podrían proteger los transformadores más vulnerables desconectándolos de la red. Eso sólo provocaría un apagón, pero que sería únicamente temporal. Los transformadores que se protejan de esta forma volverían a funcionar normalmente una vez que la tormenta llegue a su fin.

Lo novedoso del Escudo Solar es su capacidad para generar predicciones vinculadas con los transformadores individuales. Pulkkinen explica cómo funciona:

“El Escudo Solar se activa cuando una eyección de masa coronal (EMC) es arrojada desde el Sol. Las imágenes proporcionadas por el satélite SOHO y por las sondas gemelas STEREO, de la NASA, nos muestran la nube de plasma desde tres puntos de vista, permitiéndonos así crear un modelo en 3 dimensiones de la EMC y predecir cuándo llegará a la Tierra”.

Mientras la EMC cruza el espacio entre la Tierra y el Sol, un recorrido que dura típicamente entre 24 y 48 horas, el equipo del Escudo Solar se prepara para calcular las corrientes de retorno por tierra. “Trabajamos en el Centro de Creación de Modelos Coordinado por la Comunidad de Goddard (Goddard’s Community Coordinated Modeling Center o CCMC, por su sigla en idioma inglés)”, dice Pulkkinen. El CCMC es un lugar donde destacados investigadores de todo el mundo han reunido sus mejores programas de computadora, basados en la física, con el fin de crear modelos de los eventos que tienen lugar en relación con el estado del tiempo en el espacio. El momento crucial tiene lugar aproximadamente 30 minutos antes del impacto, cuando la nube de plasma pasa sobre ACE, un satélite localizado a 1,5 millones de kilómetros de la Tierra. Los sensores ubicados a bordo de ACE realizan mediciones in situ de la velocidad de la EMC, así como de su densidad y de su campo magnético. Estos datos son enviados a la Tierra, al equipo del Escudo Solar que los está esperando.

“Nosotros introducimos estos datos en las computadoras del CCMC rápidamente”, relata Pulkkinen. “Nuestros modelos predicen los campos y las corrientes en la atmósfera superior y extienden estas corrientes hasta la superficie de la Tierra”. Con menos de 30 minutos de anticipación, el Escudo Solar puede emitir una alerta a las empresas de servicio público con información detallada sobre las CGI.

Pulkkinen hace hincapié en que el Escudo Solar se encuentra en fase experimental y en que nunca ha sido puesto a prueba durante una tormenta geomagnética severa. Un pequeño grupo de empresas de servicio público han instalado monitores de corriente en puntos clave de la red de energía con el propósito de ayudar al equipo a revisar sus predicciones. Sin embargo, hasta el momento, el Sol se ha mantenido tranquilo, en general. Sólo se observaron algunas tormentas relativamente débiles durante el año pasado. El equipo necesita más datos.

“Nos gustaría que más compañías de electricidad se unieran a nuestro esfuerzo de investigación”, añade. “Cuanto más datos podamos acumular, más rápido podremos poner a prueba y mejorar el Escudo Solar”. Las compañías de electricidad trabajan con el equipo a través del Instituto de Investigaciones sobre Energía Eléctrica (Electric Power Research Institute o EPRI, por su sigla en idioma inglés). Claro que algunas tormentas también ayudarían a poner a prueba el sistema. Y están aproximándose. Se espera que el siguiente máximo solar se produzca alrededor del año 2013, de modo que es sólo cuestión de tiempo.

Fuente: Ciencia@NASA.

Share Button

Proyecto AWARE: Robots aéreos contra catástrofes

Pueden inspeccionar chimeneas de fábricas, filmar escenas difíciles de una película o llegar allí donde los servicios de emergencia están impedidos en una catástrofe. Investigadores de la Universidad de Sevilla han coordinado el proyecto del Programa Marco ‘Aware’, un sistema de robots aéreos que ya han sido probados para participar en tareas de protección civil y seguridad, ya que permiten operar en lugares de difícil acceso.

Así lo explica el director de las investigaciones del Grupo de Robótica, Visión y Control de la Universidad de Sevilla, Aníbal Ollero, que señaló ayer que el sistema ‘Aware’ se ha integrado en helicópteros no tripulados con redes de sensores en tierra, a fin de que estos robots aéreos puedan cooperar entre sí, portar cargas y desempeñar tareas tan diversas como las mencionadas.

Ollero añadió que, en el marco de esta iniciativa, se desarrolló la primera demostración en el mundo con el transporte de una carga mediante tres helicópteros acoplados, que lograron depositar estos objetos en la parte superior de una estructura que simulaba un edificio en llamas.

«Conseguimos así que varios helicópteros de bajo coste transportaran conjuntamente una misma carga, lo que puede aplicarse, por ejemplo, en situaciones de emergencia en las que fuese necesario suministrar equipos de primera necesidad a víctimas o desplegar dispositivos de comunicaciones», indicó el responsable.

El Proyecto AWARE (Platform for Autonomous self-deploying and operation of Wireless sensor-actuator networks cooperating with AeRial objEcts) es un proyecto del Grupo de Robótica, Visión y Control de la Escuela Superior de Ingenieros de la Universidad de Sevilla, tiene como objetivo general el diseño, desarrollo y experimentación de una plataforma que proporcione el middleware y las funcionalidades requeridas para la cooperación entre objetos en vuelo, como puede ser el caso de helicópteros autónomos no tripulados (UAV), y una red inalámbrica de sensores-actuadores, incluyendo nodos móviles transportados por personas o vehículos. La plataforma ha de posibilitar la operación en sitios de acceso difícil y sin ningún tipo de infraestructura de comunicaciones. De esta forma, el proyecto considera el despliegue autónomo de la red mediante helicópteros autónomos con la capacidad de transportar y desplegar cargas (equipos de comunicaciones y nodos de la red terrestre). Estas capacidades pueden ser muy relevantes en entornos naturales y urbanos sin infraestructura o en los que la infraestructura ha quedado añada o incluso completamente destruída.

Este proyecto obtuvo hace pocos meses uno de los premios Europ-Euron 2010, considerado el reconocimiento más prestigioso de Europa en el ámbito de la robótica.

Fuentes: Universidad de Sevilla – Proyecto AWARE, ideal.es

Share Button

La NASA prueba con éxito un sistema para predecir tsunamis mediante GPS diferencial

Un equipo de investigación liderado por la NASA ha demostrado con éxito por primera vez los fundamentos de un sistema prototipo de predicción de tsunamis, que clasifica de forma rápida y precisa los grandes terremotos y estima el tamaño de los tsunamis resultantes.

Tras el terremoto de M8.8 ocurrido en Chile el pasado 27/02/2010, un equipo dirigido por Y. Tony Song, del Laboratorio de Propulsión a Chorro (JPL) de la NASA en California, utilizó datos en tiempo real de la red de GPS diferencial (GDGPS) de la Agencia para predecir con éxito el tamaño del tsunami resultante. La red, gestionada por el JPL, combina datos en tiempo real de cientos de estaciones globales y regionales y estima sus posiciones cada segundo. Puede detectar movimientos del terreno del orden de pocos centímetros.

“Estas pruebas satisfactorias demuestran que los sistemas costeros de GPS pueden ser utilizados de forma efectiva para predecir el tamaño de los tsunamis”, declaró Song. “Esto puede facilitar a las agencias responsables la emisión de mejores alertas que pueden salvar vidas y reducir las falsas alarmas que pueden perturbar innecesariamente la vida de los residentes en zonas costeras”.

El equipo de Song concluyó que el terremoto de Chile, el quinto más grande registrado por instrumentos, generaría un tsunami local o moderado que no causaría demasiada destrucción en el Pacífico. Los efectos del tsunami fueron relativamente pequeños fuera de Chile.

Las predicciones de Song basadas en GPS se confirmaron posteriormente utilizando instrumentos de medición de la altura del mar a bordo de los satélites altimétricos conjuntos NASA/Agencia Espacial Francesa, denominados Jason-1 y Jason-2. Este trabajo contó con la contribución de investigadores de la Ohio State University (Columbus).

“Se ha demostrado el valor de las observaciones coordinadas en tiempo real entre los sistemas GPS de precisión,  la altimetría vía satélite y los modelos avanzados de la Tierra”, declaró John LaBrecque, gestor del programa de Tierra Sólida y Riesgos Naturales de la División de Ciencias de la Tierra, perteneciente a la Dirección de Misión de Ciencias de la NASA, en Washington.

El método de predicción de Song, publicado en 2007, estima la energía que un terremoto submarino transfiere al océano para generar un tsunami. Se basa en datos de estaciones costeras de GPS cercanas al epicentro, junto a información sobre el talud continental. El talud continental es el gradiente del suelo oceánico desde la plataforma continental hasta el fondo del océano.

Los sistemas de alerta de tsunami convencionales se basan en estimaciones de la ubicación del epicentro del terremoto, su profundidad y su magnitud para determinar si se puede generar un tsunami de grandes proporciones. Sin embargo, la historia ha demostrado que la magnitud de un terremoto no es un indicador fiable del tamaño de un tsunami.
Los modelos previos de tsunamis asumen que la potencia de un tsunami viene dada por la cantidad de desplazamiento vertical del fondo submarino. La teoría de Song muestra que los movimientos horizontales de un talud continental inestable también contribuyen a la potencia del tsunami, mediante la transferencia de energía cinética al océano.

La teoría se apoya además en una reciente publicación de Song, de la que es coautor Shin-Chan Han, del Centro de Vuelos Espaciales Goddard de la NASA, basada en datos recopilados por los satélites  germano-norteamericanos GRACE (Aerospace Center Gravity Recovery and Climate Experiment) tras el tsunami de 2004 en el Océano Índico.

Cuando se produjo el terremoto del 27 de febrero, los movimientos del terreno fueron captados por la estación de la red GDGPS de la NASA ubicada en Santiago de Chile, a unas 146 millas del epicentro del terremoto. Estos datos estuvieron disponibles para Song en muy pocos minutos, permitiéndole calcular los movimientos del fondo submarino.

Basándose en estos datos del GPS, Song calculó la energía de la fuente del tsunami, clasificándolo como moderado: 4.8 en una escala sobre 10, en la que los valores más altos son los más destructivos. Su conclusión se basó en el hecho de que los movimientos del terreno detectados por el GPS indicaron una escasa transferencia de energía cinética al océano.

“Fuimos afortunados de tener una estación suficientemente próxima al epicentro”, declaró Yoaz Bar-Sever, gestor de la red GDGPS. “Se precisa una extensa colaboración internacional para densificar la red de seguimiento por GPS, de forma que cubra adecuadamente todas las zonas de riesgo en las que puedan producirse grandes terremotos”.

Fuente: NASA.

Share Button

Científicos estadounidenses crean una red mundial de “cazaterremotos”

Los recientes terremotos de Haití, Chile y China han causado miles de víctimas e inmensos daños materiales pero estas tragedias podrán en breve por lo menos reducirse con algo tan simple como un ordenador portátil. Este es el objetivo de Elizabeth Cochran, investigadora de la Universidad de California en Riverside, que junto al profesor Jesse Fisher Lawrence de la Universidad de Stanford y otros sismólogos ha creado un original sistema para medir movimientos sísmicos utilizando ordenadores normales y corrientes.

Para detectar terremotos, los sismólogos entierran complejos equipos de medición en el suelo, un proceso muy caro y complicado.

Cochran y sus colegas han utilizado acelerómetros, unos pequeños dispositivos que se encuentran en numerosos aparatos electrónicos y que permiten, por ejemplo, que la imagen en la pantalla del iPhone gira cuando damos la vuelta al aparato o que el mando de la Wii nos permita simular una partida de bolos o un juego de tenis.

Los acelerómetros son también componentes frecuentes en muchos ordenadores portátiles y su función es, precisamente, detectar movimientos bruscos y reducir daños si el aparato cae por ejemplo al suelo.

Gracias a la ayuda de más de mil voluntarios de todo el mundo que han ofrecido su colaboración y sus computadoras, Cochran y sus colegas han creado lo que llaman “Quake-Catcher Network”, algo así como “red de cazaterremotos” y están recabando importante información sobre los movimientos sísmicos que cada día se producen en el planeta.

“La red está suministrando datos adicionales para las redes sísmicas”, dijo Cochran. “Además, nos permite almacenar información sobre terremotos a una escala que nunca se había producido antes debido al alto coste de los equipos”, añadió.

Mientras que los sensores sísmicos tradicionales cuestan entre 5.000 y 10.000 dólares cada uno, los sensores para portátiles son gratis y los usuarios de ordenadores de sobremesa pueden incluso incorporarse al programa comprando un acelerómetro para integrar vía puerto USB por sólo 50 dólares.

Después, los usuarios sólo tienen que descargar un programa de software y su ordenador transmitirá información automáticamente a los investigadores en caso que su produzca un temblor de tierra de más de 4.0 grados.

La existencia de miles de sensores evita además que se produzcan “falsos positivos”. Si un ordenador cae o es golpeado accidentalmente, la red recibirá la señal pero no lo interpretará como un temblor de tierra, pero si las señales vienen de varias computadoras en la misma zona, los científicos pueden saber que se trata de un terremoto real.

La red carece todavía de la dimensión suficiente como para permitir detectar temblores con antelación basándose en las ondas suaves que suelen preceder a un gran movimiento sísmico, pero sus responsables creen que esto será posible algún día, suministrando a residentes de las zonas afectadas al menos unos valiosos segundos para ponerse a salvo.

Jesse Fisher Lawrence, investigador de la Universidad de Standford, dijo a EFE que la red tiene ya sensores en 67 países, entre ellos España y varios países latinoamericanos como México, Colombia, Bolivia, Ecuador y Chile.

“Recientemente colocamos 100 nuevos acelerómetros en Chile entre las ciudades de Concepción y Santiago para medir réplicas tras el terremoto de 8,8 grados que asoló esta región en febrero”, dijo Lawrence. “Estamos interesados en tener sensores en todos los sitios donde suele haber temblores, incluyendo muchos países de Centro y Sudamérica”, añadió.

Lawrence reconoce que el programa aún no es perfecto y que sus sensores son menos sensibles que los tradicionales, pero la posibilidad de disponer de una extensa red hace que su potencial sea muy superior.

“Incrementamos la exactitud de la red teniendo más sensores de que es posible con la tecnología tradicional”, dijo. “La tecnología de sensores y ciberinfraestructura están avanzando rápidamente, haciendo esta red cada vez mejor”.

Fuentes: Quake-Catcher Network; University of California, Riverside; ABC/EFE.

Share Button

Investigadores de la UPV desarrollan un nuevo sistema para mejorar la estimación del riesgo de incendios

Un equipo de investigadores la ETS de Ingenieros de Telecomunicación de la Universidad Politécnica de Valencia y la empresa Balmart ha desarrollado un sistema inalámbrico de sensado y monitorización de parámetros medioambientales que pretende ser utilizado en la
restauración forestal y en el análisis del riesgo de incendios forestales, según informó la institución académica en un comunicado.

El sistema permite realizar una caracterización del terreno, describiendo la humedad y temperatura de los diversos tipos de suelos y formaciones vegetales del entorno. Se trata de la mayor red de sensorización piloto europea, según la misma fuente. Desarrollado con el apoyo de la Cátedra Telefónica UPV, actualmente se está validando en el Pico del Remedio (Chelva), donde ha sido implementado por la empresa Balmart, a partir de un contrato entre la propia compañía y la Conselleria de Medio Ambiente, Agua, Urbanismo y Vivienda.

El sistema se basa en una red de sensores de “ultra bajo” consumo interconectados entre sí y permite monitorizar la humedad y temperatura ambiente a dos alturas, es decir a 1,5 ó 2 metros de altura y a ras de suelo, así como la humedad en las capas superficiales del suelo, facilitando información sobre la humedad de los suelos y de los combustibles forestales muertos.


El proyecto de instalación de este sistema se ha llevado a cabo en dos fases. En la última de ellas, que concluyó la semana pasada, se han instalado nuevos nodos sensores autoalimentados con un panel solar integrado, que además se caracterizan por ser equipos de largo alcance de transmisión, con una cobertura de unos 500 metros. El sistema incluye también una estación meteorológica para medición de condiciones meteorológicas: anemómetro, pluviómetro, veleta.

Gestión de la información.


El investigador de la ETSIT y socio promotor de Balmart, Francisco Ballester, apuntó que en esta segunda fase, la Conselleria de Medio Ambiente, Agua, Urbanismo y Vivienda se hará cargo de la gestión de la información captada por la red de sensorización inalámbrica. “Es decir, incorporará la información telemedida en su aplicación o sistema centralizado de información y seguimiento del riego de incendios”, apuntó. Según explican desde la empresa BALMART, la red recibe datos cuatro veces al día de los nodos instalados en el monte. “Cada sensor muestrea la temperatura y humedad ambiental y un porcentaje del 90% de los nodos ofrece también temperatura y humedad enterradas”, apuntó.

La información es enviada a la aplicación de gestión Web del servidor central para su actualización cuatro veces al día. En concreto, el sistema envía alarmas inmediatas cuando detecta un exceso de temperatura y/o humedad. Estas alarmas se muestran en la aplicación de gestión Web y pueden ser enviadas con mensaje SMS o correo electrónico a las direcciones y teléfonos de emergencias pre-programados, como pueden ser patrullas forestales, Centros de control y vigilancia, entre otras.

“La aplicación remota en servidor se encarga de comparar las temperaturas recibidas por cada nodo y generar un mapa térmico del terreno, enviando alertas si superan los gradientes máximos establecidos”, señaló Ballester.

Entre sus posibles aplicaciones, el sistema puede emplearse también en la agricultura, ya que su uso permitiría un ahorro en la cantidad de agua utilizada para el riego de los campos. En este caso, la actualización de la información se realiza cada cinco minutos para controlar al máximo las necesidades de riego de los cultivos en tiempo real.

Fuente: UPV / 20 minutos.

Share Button

El SDO comienza a enviar imágenes

El Observatorio de la Dinámica Solar (SDO, Solar Dynamics Observatory) ha empezado a enviar imágenes del Sol, tras su lanzamiento el pasado 11 de febrero de 2010 con un cohete Atlas V.

El SDO lleva tres nuevos instrumentos para estudiar el Sol:

HMI (Helioseismic and Magnetic Imager), de la Universidad de Stanford. Su misión es estudiar los mecanismos del movimiento de la fotosfera solar, para determinar qué fenómenos que ocurren en las partes internas del Sol tienen efecto en la actividad magnética de la superficie y en la propia actividad del Sol que conocemos. Servirá para poder predecir tormentas solares con más antelación.

AIA (Atmospheric Imaging Assembly), del Lockheed Martin Solar Astrophysics Laboratory. Su misión es tomar imágenes de la corona solar con mucha más resolución que el SOHO, con una panorámica más amplia y con menor periodo entre imágenes. Permitirá analizar las eyecciones de masa coronal (CME) con mayor profundidad. Las CME tienen efectos importantes tanto en las comunicaciones vía satélite como en las comunicaciones en HF.

EVE (Extreme Ultraviolet Variablity Experiment), de la Universidad de Colorado. Es un instrumento preparado para medir la radiación del Sol en el rango del UV extremo. La radiación UV es una de las fuentes más importantes de ionización en la ionosfera, afectando a la MUF.

En la actualidad, el conocimiento del clima espacial resulta fundamental  para la predicción de fenómenos que puedan afectar a las comunicaciones vía satélite, a las comunicaciones en la banda de HF e incluso a los sistemas de distribución de energía eléctrica en la Tierra.

Share Button

Efectos de la nube de ceniza volcánica en los sistemas de radiocomunicaciones

El volcán islandés Eyjafjallajökull entró en erupción el pasado 14/10/2010, generando una nube de ceniza volcánica que se propagó por el norte y el centro de Europa los días siguientes, provocando el caos en el tráfico aéreo de la zona.

En este post se analiza el posible impacto de la nube de ceniza volcánica en los sistemas de comunicaciones por radio. Las partículas de la nube volcánica están cargadas eléctricamente y se ubican a una altitud aproximada de 3 km, luego afectarán en mayor o menor medida a dichos sistemas.

Dependiendo de la banda, el problema puede analizarse de una forma u otra.

Para la banda de HF, interesaría aproximar la nube de ceniza por un plasma, similar a la ionosfera. La concentración de partículas cargadas no es demasiado elevada, ya que la nube es cada vez menos densa conforme avanza y se dispersa por el viento. El resultado es que las comunicaciones en HF no parecen verse afectadas, como puede comprobarse en la siguiente gráfica obtenida de la ionosonda de Chilton, en Inglaterra (51.5 N, 0.6 W).

La gráfica muestra la frecuencia de corte de la capa F2 de la ionosfera para sondeo vertical, entre los días 12/04/2010 y 20/04/2010. El volcán entró en erupción el 14/04/2010 y la nube tardó unos días en propagarse por Europa. En las medidas no se aprecia ninguna variación.

Sí pueden afectar las descargas eléctricas en la nube, similares a los rayos de toda la vida, en forma de ruido puntual en la banda de HF.

Para las bandas de VHF y superiores, creo que la mejor aproximación es la teoría del radar. La nube de ceniza volcánica puede caracterizarse por su “sección recta radar” (RCS). Cuanto mayor sea su RCS, mayor reflexión de las ondas de radio. La RCS depende del área geométrica de la nube, del diámetro y forma de sus partículas y de su reflectividad.

Cuanto más dispersa esté la nube, menor será su reflectividad, luego conforme nos alejemos del volcán su efecto será menor.

Respecto a las frecuencias afectadas, las partículas de la nube parecen tener un tamaño del orden de los milímetros, luego afectarán en mayor medida a la banda de EHF (30-300 GHz). No obstante, en puntos donde la nube sea más densa y las partículas se agrupen con tamaños cercanos al centímetro, también se vería afectada la banda de SHF (3-30 GHz).

Los efectos serían principalmente un aumento de la absorción (fading) y de la dispersión (scattering) y podrían llegar a afectar a algunos sistemas de comunicaciones por satélite. No obstante, los sistemas normalmente utilizados en comunicaciones de emergencia, como INMARSAT, Iridium y Thuraya trabajan en bandas más bajas, por lo que no se prevé ningún tipo de afectación.

En mi opinión, las bandas de VHF y UHF solamente se verían afectadas en zonas muy próximas al volcán y aún así se trata de una cuestión difícil de predecir.
Referencias:

USGS – Volcanic Ash – Effects on Communication and Mitigation Strategies

USGS – Ash Fall – A “Hard rain” of Abrasive Particles

NASA – NASA Observes Ash Plume of Icelandic Volcano

Pulse en las imágenes para verlas a tamaño completo.

Share Button

Terremoto de M8.8 en Chile y alerta de tsunami

Al menos 147 personas han perdido la vida en el terremoto de más de 8 grados de magnitud en la escala Ritcher que ha sacudido esta madrugada el centro y sur de Chile, causando además una gran destrucción.

El seísmo se desató a las 03:36 AM hora local (06:36 GMT). El Instituto Geológico de EEUU informó que el terremoto alcanzó una magnitud de 8,8 grados Richter y situó su epicentro en la sureña región del Bío Bío, a 500 kilómetros de Santiago y a unos 90 kilómetros al sureste de Concepción, la capital regional.

Información de GDACS sobre el terremoto:

Coordenadas geográficas (latitud/longitud): -35.8464, -72.7189
Chile , provincia de Bio-Bio (población: 1789433).
Región sísmica: Maule.

El terremoto ha tenido lugar en Chile , provincia de Bio-Bio (población: 1789433), a 113km de la ciudad de Concepción. Los sitios poblados más cercanos son Pullay (19km), Quile (19km), Ramadillas (18km), Canelillos (15km), Trogualemo (12km), Molinos (11km), Las Quilas (16km), Chevelle (6km), Curanipe (8km), Las Lomas (14km), Infiernillo (17km).

Se trata de una región montañosa con una altitud máxima de 796 m.

Información de NOAA sobre el tsunami posterior al terremoto:

Se establece alerta de tsunami para las siguientes zonas:

CHILE / PERU / ECUADOR / COLOMBIA / ANTARCTICA / PANAMA /COSTA RICA / NICARAGUA / PITCAIRN / HONDURAS / EL SALVADOR /GUATEMALA / FR. POLYNESIA / MEXICO / COOK ISLANDS / KIRIBATI /KERMADEC IS / NIUE / NEW ZEALAND / TONGA / AMERICAN SAMOA /SAMOA / JARVIS IS. / WALLIS-FUTUNA / TOKELAU / FIJI /AUSTRALIA / HAWAII / PALMYRA IS. / TUVALU / VANUATU /HOWLAND-BAKER / NEW CALEDONIA / JOHNSTON IS. / SOLOMON IS. /NAURU / MARSHALL IS. / MIDWAY IS. / KOSRAE / PAPUA NEW GUINEA /POHNPEI / WAKE IS. / CHUUK / RUSSIA / MARCUS IS. / INDONESIA /N. MARIANAS / GUAM / YAP / BELAU / JAPAN / PHILIPPINES / CHINESE TAIPEI

Pulse en las imágenes para verlas a tamaño completo.

Fuentes: elmundo.es, GDACS, NOAA

Share Button