Archivo de la categoría: Radionavegación

Informe sobre el Clima Espacial de la Real Academia de Ingeniería del Reino Unido

La Real Academia de Ingeniería del Reino Unido acaba de publicar en febrero de 2013 un informe titulado “Clima Espacial Extremo: Impacto en Sistemas de Ingeniería e Infraestructura”, en el que se analizan desde el punto de vista de la ingeniería los posibles impactos de una supertormenta solar en la red eléctrica, los sistemas satélite, aeronaves, sistemas de radionavegación y sistemas de radiocomunicaciones, entre otros. El informe, que se centra sobre todo en las posibles repercusiones de un evento de este tipo en el Reino Unido, puede descargarse en su versión original en inglés aquí: “Extreme Space Weather: Impact on Engineered Systems and Infrastructure”.

A continuación se ofrece una traducción al español de los puntos clave y de las recomendaciones que se incluyen en el resumen ejecutivo del informe.

SW_Lanzerotti

PUNTOS CLAVE

Entorno de una supertormenta solar

Las estadísticas sobre la recurrencia de un evento de magnitud e impacto similares a un evento Carrington son escasas, aunque se están mejorando. Varios estudios consideran razonable un periodo de recurrencia de un evento de este tipo cada 100 ó 200 años y en este informe se realizan valoraciones del impacto de ingeniería basadas en un evento de esta magnitud con el citado periodo de retorno. Si estudios posteriores demuestran que pueden ocurrir eventos más severos -quizás en una escala de tiempo mayor- se debería realizar un cambio radical en las valoraciones del impacto de ingeniería. El citado periodo de 100 años no debe ser un motivo para ignorar tales riesgos.

Red eléctrica

El caso peor más razonable podría tener un impacto significativo en la red eléctrica nacional. Las simulaciones indican que alrededor de seis grandes transformadores de red en Inglaterra y Gales y otros siete transformadores en Escocia podrían quedar dañados por perturbaciones geomagnéticas y puestos fuera de servicio. El tiempo de reparación oscilaría entre semanas y meses. Adicionalmente, las estimaciones actuales indican la posibilidad de interrupciones de algunas horas en el suministro eléctrico local. Dado que la mayoría de los nodos disponen de más de un transformador, no todos estos fallos conducirían a un evento de desconexión. No obstante, el análisis de la red nacional indica que en torno a dos nodos en Gran Bretaña podrían quedar desconectados.

Satélites

Algunos satélites pueden quedar expuestos a entornos sobre los niveles de especificación típicos, incrementándose de este modo las tasas de fallos microelectrónicos y creándose riesgos de carga electroestática. Debido a la multiplicidad en el diseño de los satélites utilizados actualmente, existe bastante incertidumbre sobre el comportamiento general de la flota de satélites, aunque la experiencia adquirida durante tormentas más pequeñas indica que se puede anticipar un cierto grado de interrupción en los servicios por satélite. Afortunadamente, se espera que tanto la propia naturaleza conservadora del diseño de satélites como su diversidad limiten la escala del problema. Nuestro mejor juicio de ingeniería, basado en la tormenta de 2003, es que hasta un 10% de los satélites podrían experimentar fallos temporales con una duración comprendida entre horas y días como resultado de un evento extremo, pero es poco probable que estos fallos se extiendan uniformemente por toda la flota, dado que algunos diseños de satélites y constelaciones serán inevitablemente más vulnerables que otros. Adicionalmente, las dosis significativas de radiación acumulada podrían causar el envejecimiento rápido de muchos satélites. Los satélites muy antiguos podrían comenzar a fallar inmediatamente después de la tormenta, mientras que los más modernos sobrevivirían al evento pero con expectativas de mayores riesgos durante tormentas posteriores más moderadas. Consecuentemente, tras una tormenta extrema, todos los propietarios y operadores de satélites necesitatán evaluar cuidadosamente la necesidad de lanzar satélites de repuesto con anterioridad a sus planes iniciales, con el objetivo de mitigar el riesgo de fallos prematuros.

Seguridad de pasajeros y tripulaciones de aeronaves

Los pasajeros y las tripulaciones en vuelo durante un evento extremo podrían quedar expuestas a una dosis adicional de radiación estimada en hasta 20 mSv, valor que excede significativamente el límite anual de 1 mSv de exposiciones planificadas para el público general, siendo el triple de la dosis recibida por una persona en un escáner de pecho. Dichos niveles implican un incremento del 1 por 1000 en el riesgo de cáncer para cada persona expuesta, aunque este hecho ha de considerarse en el contexto del riesgo de cáncer durante toda su vida, que está en torno al 30%. No se espera disponer de métodos prácticos de predicción a corto plazo, dado que las partículas de alta energía más preocupantes llegan a velocidades próximas a la de la luz. Se precisan mejores métodos de monitorización a bordo de las aeronaves para mejorar tanto la mitigación como los análisis posteriores a los eventos. Se considera que un evento de este tipo generaría una preocupación considerable entre la opinión pública.

Sigue leyendo

Share Button

Radiogoniometría Adcock/Watson-Watt

Acabo de publicar en la web un artículo sobre sistemas de radiogoniometría Adcock/Watson-Watt. En este artículo se ofrece una descripción técnica del funcionamiento de los sistemas de radiogoniometría del tipo Adcock/Watson-Watt, basados en el empleo de cuatro monopolos con un sensor adicional para evitar ambigüedades y utilizados habitualmente en ámbitos militares (SIGINT), de radionavegación y de radiolocalización en emergencias, en las bandas de MF, HF, VHF y UHF.

El desarrollo teórico se apoya en simulaciones de los diagramas de radiación realizadas con 4Nec2 y de las señales demoduladas con un software de representación gráfica de funciones.

Durante la Segunda Guerra Mundial, una de las principales técnicas de radiogoniometría empleadas por las estaciones “Y” de inteligencia de señales (SIGINT) se basó en el empleo de arrays de 4 monopolos o dipolos dispuestos de forma ortogonal. Haciendo rotar las antenas y combinando adecuadamente las señales recibidas por las mismas, se conforma un diagrama de radiación bidireccional que permite determinar la dirección de llegada de una señal radio de interés, especialmente a través de los dos nulos del diagrama de radiación. Esta técnica fue patentada por el teniente ingeniero inglés Frank Adcock, del No.3 Army Wireless Observation Group, en el año 1919. Se trata, por tanto, de un método comparativo de amplitud para la determinación de la dirección de llegada (DF, Direction Finding).

En un array Adcock, las cuatro antenas se agrupan de dos en dos, disponiéndose cada pareja siguiendo un eje de referencia.

En 1925-26, el inglés Robert Watson-Watt (uno de los pioneros de la implementación del radar como sistema de alerta temprana en la WWII) introdujo dos mejoras importantes al sistema propuesto por Adcock: la utilización de una quinta antena para evitar ambigüedades y el empleo de un osciloscopio de rayos catódicos para la representación visual del ángulo de llegada, permitiendo que no fuera necesario rotar el array para determinarlo.

Enlace: Radiogoniometría Adcock/Watson-Watt


Share Button

Los primeros satélites de Galileo ya están en órbita

Tras el frustrante aplazamiento de ayer debido a un problema técnico, hoy sí se han podido lanzar con éxito desde el Centro Espacial Europeo de la Guayana francesa los dos primeros satélites que conformarán el sofisticado sistema de navegación europeo Galileo y ya se encuentran en órbita, a 23.000 kilómetros de la Tierra.

El despegue se ha producido a las 7.30 (12.30, hora peninsular española) y ha sido celebrado con una explosión de alegría por parte de los ingenieros que participan en el proyecto. En la sala de control se han vivido momentos de gran emoción.

A pesar de que el lanzamiento del cohete Soyuz se ha desarrollado según lo previsto, aún quedabaan varias fases de separación hasta la puesta en órbita de los dos satélites, que ha tenido lugar, minutos antes de las 16.30 horas (en la Península).

“Es un día fantástico para Europa”, ha señalado el vicepresidente de la Comisión Europea, Antonio Tajani: “Si los europeos podemos lanzar un proyecto tan importante como Galileo, demostramos que también seremos capaces de superar la crisis económica”.

Además de Tajani, al lanzamiento de Galileo han asistido, entre otros, el director general de la ESA, Jean-Jacques Dordain, y el vicepresidente ruso, Sergéi Borísovich Ivánov, además de decenas de eurodiputados, periodistas y numerosos invitados que se han desplazado a Kurú para presenciar el histórico lanzamiento.

Puesta en órbita

Transcurridos diez minutos desde el despegue, el cohete Soyuz entró en la fase de encendido de la cápsula Fregat, un instante clave que los técnicos vivieron con tensión en el centro de control en tierra.

La cápsula Fregat, con los dos satélites de 700 kilos cada uno a bordo, entró en una fase balística de unas tres horas que llevó los satélites hasta la órbita adecuada, a 23.000 kilómetros de altitud sobre la Tierra.

Ha sido entonces cuando la cápsula ha vuelto a encender sus motores hasta estabilizarse y colocar los satélites en el punto deseado tres horas, 49 minutos y 27 segundos después del lanzamiento desde la base de Guayana Francesa.

Hasta entonces, los responsables de Arianespace -el consorcio espacial europeo encargado del lanzamiento-, no han podido dar por completada la misión, que alumbra al sistema de navegación Galileo, uno de los proyectos más ambiciosos de la historia aeroespacial europea.

Avería resuelta

El fallo que impidió el despegue el jueves fue detectado al llenar el depósito de combustible de la tercera fase del Soyuz, cuando una válvula sufrió un escape que abortó automáticamente este proceso. Esta fase se completó con éxito esta mañana, por lo que sólo hubo que posponer el lanzamiento durante 24 horas.

Esta misión de la Agencia Espacial Europea (ESA) ha sido doblemente histórica para el proyecto espacial europeo, ya que primera vez un cohete ruso Soyuz ha despegado desde la base europea de Kurú.

El proyecto Galileo, que ha sufrido años de retrasos y múltiples problemas de financiación, aspira a ofrecer servicios de posicionamiento al menos tan precisos, y en algunos aspectos incluso superiores, al GPS estadounidense. Habrá que esperar, no obstante, hasta 2020 para que el sistema esté totalmente operativo.

Fuente: elmundo.es

Share Button

Nuevos mapas de NOAA sobre predicción de absorción por frecuencia en HF con el modelo DRAP-2

El Centro de Predicción del Clima Espacial (Space Weather Prediction Center) de la agencia norteamericana NOAA ha elaborado un nuevo producto orientado a usuarios de la banda de HF, a partir de su modelo DRAP-2 (D-Region Absorption Prediction). El modelo DRAP-2 proporciona una estimación de los niveles de absorción en la región D de la ionosfera cuando se producen determinados eventos relacionados con el clima espacial, como es el caso de emisiones de rayos X procedentes de erupciones y llamaradas solares, o el de las tormentas de radiación solar que se producen tras los eventos de protones solares (SPE, Solar Proton Events), normalmente a continuación de una eyección de masa coronal (CME, Coronal Mass Ejection).

En todos esos casos, la ionización de la región D de la ionosfera aumenta significativamente y como resultado las ondas de radio de HF que la atraviesan sufren niveles altos e inesperados de absorción, sobre todo en las frecuencias más bajas de la banda, que pueden dificultar o incluso impedir las comunicaciones.

El producto inicial ofrecido por NOAA consiste en tres mapas que muestran la máxima frecuencia afectada (HAF, Highest Affected Frequency) por absorción de 1 dB (mapamundi) ó 10 dB (mapas de las dos zonas polares), para trayectos de propagación completamente verticales y ante un evento relacionado con el clima espacial. Estos mapas tienen una aplicación directa al trabajar con el modo de propagación NVIS (Near Vertical Incident Skywave) en las zonas geográficas y frecuencias afectadas que se muestran en los mapas, aunque con una sencilla formulación los datos pueden extrapolarse a cualquier frecuencia de trabajo, ubicación geográfica y para trayectos de propagación oblicuos.

Los nuevos mapas ofrecidos por NOAA muestran directamente los niveles de absorción globales registrados en diferentes frecuencias de interés dentro de la banda de HF, entre 5 MHz y 30 MHz a intervalos de 5 MHz y siempre considerando trayectos de propagación completamente verticales. De esta forma y para estas frecuencias particulares, se simplifican notablemente los cálculos requeridos con el anterior mapa de máxima frecuencia afectada (HAF), con la ventaja de que con un simple vistazo podemos además hacernos una idea global de los niveles de absorción existentes en toda la banda de HF. No obstante, hay que recordar que para extrapolar los niveles de absorción a trayectos radioeléctricos oblicuos será necesario seguir realizando los cálculos basados en la ley de la secante

He incorporado los nuevos mapas en el apartado de Radiocomunicaciones del Panel de HF y Clima Espacial, junto a la información necesaria para realizar conversiones entre trayectos radioeléctricos verticales y oblicuos.

Share Button

El lanzamiento de los dos primeros satélites del sistema Galileo está previsto para el 20 de octubre

El lanzamiento de los dos primeros satélites operativos del sistema de navegación global de la UE Galileo se llevará a cabo el 20 de octubre, según ha anunciado la Comisión Europea. Esto es sólo el primero de una serie de dos lanzamientos del puerto espacial europeo de Kourou, en la Guayana Francesa.

El lanzamiento de la satélites de Galileo a una altitud de 23.600 kilometros dará lugar a la prestación de una primera fase de servicios de navegación por satélite en 2014. Con los lanzamientos posteriores se completará la constelación en 2019.

El vicepresidente de la Comisión Europea y comisario responsable de Industria y Espíritu Emprendedor, Antonio Tajani, ha declarado: “Este lanzamiento es de importancia histórica. Europa está demostrando que tiene la capacidad de estar a la vanguardia de la innovación tecnológica. Miles de pequeñas y medianas empresas innovadoras en Europa serán capaces de detectar las oportunidades de negocio para crear y desarrollar sus productos basados en la futura infraestructura del Galileo. Los ciudadanos se beneficiarán de sus servicios. Galileo tiene un valor económico y yo cuento con la cooperación de los Estados Miembros para encontrar una solución a su financiación”.

El programa Galileo es una iniciativa de la UE para un sistema de navegación por satélite global, proporcionando una gran precisión, garantizando un servicio global bajo control civil. La decisión de fijar la fecha de los primeros lanzamientos sigue las directrices de la presidencia de la Agencia Espacial Europea.

Hoja de ruta

Galileo sustentará a muchos de los sectores de la economía europea a través de sus servicios: las redes de electricidad, empresas de gestión de flotas, transacciones financieras, la industria naval, operaciones de rescate, misiones de mantenimiento de la paz, ya que todos ellos dependen en gran medida de la tecnología de navegación por satélite.

Además, Galileo hará que Europa sea independiente en una tecnología que está resultando ser crítica, incluso para áreas estratégicas como la distribución de energía eléctrica y redes de telecomunicaciones. A través de Galileo se espera obtener 60.000 millones de euros para la economía europea durante un período de 20 años, en términos de nuevos ingresos para la industria y en términos de beneficios públicos y sociales, sin contabilizar los beneficios independientes.

Fuente: Nexotrans.com

Share Button

Riesgos derivados del Clima Espacial

El clima espacial define la interacción del Sol, física y magnéticamente, con todos los objetos del Sistema Solar. Esta actividad presenta una pauta de repetición cíclica, con valores máximos y mínimos, de aproximadamente 11 años. En la época de máximos los efectos físicos y magnéticos sobre los dispositivos eléctricos y electrónicos pueden tener un impacto significativo, incluso provocar serios daños. Este tipo de eventos se clasifican según su ocurrencia e impacto como baja frecuencia / alto impacto (LF/HC, Low-Frequency/High-Consequence).

He publicado en la web el informe que presenté en noviembre de 2010 a la Dirección General de Protección Civil y Emergencias (DGPCE), con motivo de las Jornadas Técnicas sobre Clima Espacial.

Se presenta una breve caracterización del clima espacial y se analizan los riesgos para las personas y para diversos sistemas tecnológicos. Tambien se describen los sistemas de observación y alerta temprana disponibles actualmente en diversos países.

Enlace: Riesgos derivados del Clima Espacial (Ismael Pellejero).

Share Button

Rusia pone en órbita tres satélites del sistema de posicionamiento GLONASS

Rusia puso ayer en órbita, con ayuda de un cohete “Protón-M”, tres satélites que se incorporarán a su sistema de posicionamiento global GLONASS, informaron las agencias rusas.

El cohete fue lanzado a las 00.54 GMT desde el cosmódromo de Baikonur (Kazajistán) y diez minutos después el bloque acelerador DM-2Q, con los tres aparatos, se separó de la tercera etapa del portador y comenzó su vuelo autónomo.

Un portavoz de las Fuerzas Espaciales de Rusia, responsables del lanzamiento, indicó a la agencia Interfax que los satélites quedarán bajo el control del Centro de Pruebas y Mando Titov

GLONASS cuenta actualmente con 21 satélites que mantienen la operación nominal del sistema. Los tres satélites lanzados ayer entrarán en servicio el próximo 17 de octubre. Dos satélites adicionales proporcionarán redundancia orbital.

El Primer Ministro ruso declaró que en un futuro cercano se lanzarán tres satélites y uno más en diciembre, de forma que se alcancen 30 satélites en la constelación, con dos redundantes, para asegurar la cobertura global.

Fuentes: Agencia Espacial Federal Rusa, EFE.

Share Button

Misión THEMIS: Detección de subtormentas solares

Un temblor espacial es una violenta sacudida que se produce en el campo magnético terrestre. Sus efectos se sienten con más fuerza en órbita, pero también sobre la superficie de nuestro planeta. Cuando se producen, los terremotos espaciales sacuden los campos magnéticos que rodean la Tierra de la misma forma en que un terremoto sacude el suelo que pisamos. Sus efectos pueden ser medidos desde el suelo, y llegar a colapsar redes eléctricas y de telecomunicaciones.

“Reverberaciones magnéticas ya han sido detectadas en muchas ocasiones por estaciones con base en tierra alrededor de todo el globo terráqueo, de la misma forma en que los detectores sísmicos miden la intensidad de los terremotos”, explica Vassilis Angelopoulos, investigador principal de la constelación de satélites Themis, que desde febrero de 2007 estudia la magnetosfera terrestre.

La analogía, según Eugeny Panov, del Instituto de Investigación Espacial de Austria y autor principal de un estudio recién publicado en Geophysical Research Letters, es muy adecuada, ya que “la energía total de un temblor espacial es comparable a la de un terremoto de magnitud 5 ó 6”. Ya en el año 2007, la red Themis (que consta de cinco satélites) descubrió la existencia de fenómenos que hoy se consideran como precursores de un temblor espacial.

La acción empieza en la cola del campo magnético de la Tierra (ver vídeo), que se estira como una manga de viento bajo la acción de los continuos vientos solares. En ocasiones, la cola se estira tanto que rebota violentamente, tal y como lo haría una goma que estiráramos y después soltáramos de repente. Cuando eso sucede, el plasma solar atrapado en la cola es lanzado hacia la Tierra. Y en más de una ocasión los cinco satélites Themis estaban “en la línea de fuego” justo en el momento de producirse estos súbitos bombardeos de plasma.

De forma incuestionable, los chorros de plasma se dirigen directamente hacia la Tierra pero ¿qué es lo que ocurre exactamente a partir de ese momento? “Ahora lo sabemos” afirma David Sibeck, investigador del proyecto Themis en el centro espacial Goddard, de la NASA. “Los chorros de plasma provocan temblores espaciales”.

Según los datos recogidos por los cinco satélites, los chorros de plasma provocados por estos violentos “latigazos” se estrellan contra el campo magnético terrestre a unos 30.000 km de altura sobre el Ecuador. El impacto genera una serie de “rebotes”, durante los cuales el plasma salta arriba y abajo en el interior del oscilante campo magnético. Se trata de algo parecido a lo que hace una pelota de tenis botando en el suelo. El primer rebote es el mayor, seguido de botes cada vez menores hasta que toda la energía se disipa.

“Sospechábamos desde hace mucho que sucedía algo parecido -afirma Sibeck-. Pero observando todo el proceso in situ, Themis ha descubierto algo totalmente nuevo y sorprendente”.

Ese “algo” son los “vórtices de plasma“, enormes remolinos de gas magnetizado, tan grandes como la propia Tierra y girando al borde mismo del “tembloroso” campo magnético. “Cuando los chorros de plasma golpean la magnetosfera desde el interior -explica Rumi Nakamura, uno de los coautores del estudio- se generan vórtices que giran en el sentido contrario, apareciendo y desapareciendo al otro lado del chorro de plasma. Y creemos que estos vórtices pueden generar importantes corrientes eléctricas en el entorno cercano de la Tierra“.

Así, actuando juntos, los vórtices y los temblores espaciales consiguen producir efectos medibles en nuestro planeta. Las colas de los vórtices pueden hacer de “túneles” que inyectan partículas de plasma en la atmósfera, dando lugar a auroras polares y generando ondas de ionización que interfieren las comunicaciones por radio y los sistemas GPS.

Tirando de la superficie de los campos magnéticos, los temblores espaciales generan, por su parte, corrientes eléctricas que llegan hasta el mismísimo suelo sobre el que caminamos. Estas corrientes pueden tener graves consecuencias, llegando en casos extremos a afectar a las redes eléctricas de amplias zonas del planeta. El vídeo sobre estas líneas es una simulación informática (realizada por Joachim Birn, del Laboratorio Nacional de Los Alamos, en Nuevo México) a partir de las mediciones de los satélites Themis.

El trabajo, sin embargo, dista mucho de estar terminado. “¿Cómo de fuerte puede ser un temblor espacial? -se pregunta Sibeck- ¿Cuántos vórtices pueden estar girando a la vez alrededor de la Tierra y cómo interactúan entre ellos?”. Para conocer las respuestas, habrá que estar muy pendientes de los próximos datos que aporte Themis.

Fuentes: abc.es, NASA.

Share Button

Nuevo Sistema de Gestión de Flotas Integrado para los Bomberos de la Comunidad de Madrid

Los bomberos de la Comunidad de Madrid están incorporando el denominado Sistema de Gestión de Flotas Integrado, que incluye un GPS que selecciona el mejor recorrido para llegar al lugar del siniestro y localizadores de las dotaciones para saber dónde se encuentran exactamente. Según ha informado hoy la Comunidad en un comunicado, la Consejería de Presidencia, Justicia e Interior ha invertido 300.000 euros en este proyecto, que permitirá que el jefe de operaciones tenga un mapa exacto de las distribución de los medios, tanto vehículos como personal, lo que facilita la toma de decisiones.

El sistema es seguido habitualmente por el centro de operaciones (CECOP), pero puede ser aplicado desde cualquier otro ordenador cuando sea necesario desplazar el puesto de mando.

El Sistema de Gestión de Flotas Integrado incluye GPS en los camiones que están conectados por el CECOP y permiten tener seleccionado automáticamente el mejor recorrido ante una intervención, con los accesos a la zona claramente delimitados.

Estos GPS tienen la ventaja de que no hay que manipularlos, en situaciones donde lo prioritario es la rapidez, ya que la información se suministra desde el CECOP.

Este sistema es especialmente útil en incendios forestales, en grandes intervenciones y en aquellos casos en que la unidad de bomberos ha sufrido un accidente.

Ya se han instalado 83 de estos GPS en autobombas, bombas forestales nodrizas y coches de jefatura.

Asimismo, los bomberos de la Comunidad contarán con 150 localizadores, de un tamaño similar al de un llavero y que llevará normalmente el mando de la dotación, que al ser pulsados permiten conocer la posición exacta de los profesionales y por tanto dónde debe enviar ayuda con precisión.

Fuente: EFE/abc.es

Share Button

La NASA prueba con éxito un sistema para predecir tsunamis mediante GPS diferencial

Un equipo de investigación liderado por la NASA ha demostrado con éxito por primera vez los fundamentos de un sistema prototipo de predicción de tsunamis, que clasifica de forma rápida y precisa los grandes terremotos y estima el tamaño de los tsunamis resultantes.

Tras el terremoto de M8.8 ocurrido en Chile el pasado 27/02/2010, un equipo dirigido por Y. Tony Song, del Laboratorio de Propulsión a Chorro (JPL) de la NASA en California, utilizó datos en tiempo real de la red de GPS diferencial (GDGPS) de la Agencia para predecir con éxito el tamaño del tsunami resultante. La red, gestionada por el JPL, combina datos en tiempo real de cientos de estaciones globales y regionales y estima sus posiciones cada segundo. Puede detectar movimientos del terreno del orden de pocos centímetros.

“Estas pruebas satisfactorias demuestran que los sistemas costeros de GPS pueden ser utilizados de forma efectiva para predecir el tamaño de los tsunamis”, declaró Song. “Esto puede facilitar a las agencias responsables la emisión de mejores alertas que pueden salvar vidas y reducir las falsas alarmas que pueden perturbar innecesariamente la vida de los residentes en zonas costeras”.

El equipo de Song concluyó que el terremoto de Chile, el quinto más grande registrado por instrumentos, generaría un tsunami local o moderado que no causaría demasiada destrucción en el Pacífico. Los efectos del tsunami fueron relativamente pequeños fuera de Chile.

Las predicciones de Song basadas en GPS se confirmaron posteriormente utilizando instrumentos de medición de la altura del mar a bordo de los satélites altimétricos conjuntos NASA/Agencia Espacial Francesa, denominados Jason-1 y Jason-2. Este trabajo contó con la contribución de investigadores de la Ohio State University (Columbus).

“Se ha demostrado el valor de las observaciones coordinadas en tiempo real entre los sistemas GPS de precisión,  la altimetría vía satélite y los modelos avanzados de la Tierra”, declaró John LaBrecque, gestor del programa de Tierra Sólida y Riesgos Naturales de la División de Ciencias de la Tierra, perteneciente a la Dirección de Misión de Ciencias de la NASA, en Washington.

El método de predicción de Song, publicado en 2007, estima la energía que un terremoto submarino transfiere al océano para generar un tsunami. Se basa en datos de estaciones costeras de GPS cercanas al epicentro, junto a información sobre el talud continental. El talud continental es el gradiente del suelo oceánico desde la plataforma continental hasta el fondo del océano.

Los sistemas de alerta de tsunami convencionales se basan en estimaciones de la ubicación del epicentro del terremoto, su profundidad y su magnitud para determinar si se puede generar un tsunami de grandes proporciones. Sin embargo, la historia ha demostrado que la magnitud de un terremoto no es un indicador fiable del tamaño de un tsunami.
Los modelos previos de tsunamis asumen que la potencia de un tsunami viene dada por la cantidad de desplazamiento vertical del fondo submarino. La teoría de Song muestra que los movimientos horizontales de un talud continental inestable también contribuyen a la potencia del tsunami, mediante la transferencia de energía cinética al océano.

La teoría se apoya además en una reciente publicación de Song, de la que es coautor Shin-Chan Han, del Centro de Vuelos Espaciales Goddard de la NASA, basada en datos recopilados por los satélites  germano-norteamericanos GRACE (Aerospace Center Gravity Recovery and Climate Experiment) tras el tsunami de 2004 en el Océano Índico.

Cuando se produjo el terremoto del 27 de febrero, los movimientos del terreno fueron captados por la estación de la red GDGPS de la NASA ubicada en Santiago de Chile, a unas 146 millas del epicentro del terremoto. Estos datos estuvieron disponibles para Song en muy pocos minutos, permitiéndole calcular los movimientos del fondo submarino.

Basándose en estos datos del GPS, Song calculó la energía de la fuente del tsunami, clasificándolo como moderado: 4.8 en una escala sobre 10, en la que los valores más altos son los más destructivos. Su conclusión se basó en el hecho de que los movimientos del terreno detectados por el GPS indicaron una escasa transferencia de energía cinética al océano.

“Fuimos afortunados de tener una estación suficientemente próxima al epicentro”, declaró Yoaz Bar-Sever, gestor de la red GDGPS. “Se precisa una extensa colaboración internacional para densificar la red de seguimiento por GPS, de forma que cubra adecuadamente todas las zonas de riesgo en las que puedan producirse grandes terremotos”.

Fuente: NASA.

Share Button