Archivo de la categoría: Satélite

Telecomunicaciones vía satélite

El Hierro será escenario esta semana de un simulacro de accidente aéreo que movilizará a más de 300 personas

El Hierro acogerá esta semana un simulacro de accidente aéreo a cargo del Servicio de Búsqueda y Salvamento (SAR) en Canarias. Los 300 profesionales y voluntarios que intervendrán en esta importante operación desconocen el día y hora en la que ocurrirá el siniestro.
Seis aeronaves de salvamento marítimo, del Servicio de Rescate Aéreo, Gobierno de Canarias y de la Guardia Civil actuarán en este ejercicio.
El Cabildo de El Hierro ha promovido junto al SAR que esta operación de salvamento se produzca en la más occidental del Archipiélago para evaluar y mejorar la eficacia y eficiencia del dispositivo de emergencias con el que se cuenta en la isla, sobre todo el nivel de coordinación interinstitucional y con los colectivos de voluntarios que actúan en estos supuestos y cómo enfrentar una situación, como es el caso de un accidente aéreo, que sólo se ha producido hasta el momento en 1977 cuando 13 personas fallecieron al estrellarse un avión militar americano en una curva de la carretera de la cumbre en el Valle del Golfo.
El supuesto contará con la presencia de observadores internacionales procedentes de Senegal, Marruecos, Cabo Verde, Túnez y Argelia.
Los alumnos de la Escuela Taller de Seguridad y Emergencias de Granadilla de Abona (Tenerife) serán los 36 figurantes que harán de pasajeros afectados por el sinistro y que deberán de ser evacuados hasta los centros hospitalarios de la isla de El Hierro.
El presidente del Cabildo, Tomás Padrón, ha pedido hoy martes, 24 de mayo, que se divulgue entre la población de la isla la realización durante esta semana de este simulacro para evitar alarmas innecesarias entre la población local, no acostumbrada a un dispositivo de esta envergadura.
El ejercicio se plantea en base a un supuesto accidente de un avión comercial de la compañía ficticia “Phoenix Airways” en un vuelo desde El Hierro a Tenerife. El Centro de Control de Tránsito Aéreo de Canarias (ACC Canarias) recibirá por radio una llamada de emergencia (MAYDAY) desde la aeronave. Ante la posibilidad de que se haya producido un accidente, se activa la llamada “fase de desastre” (DETRESFA); el ACC Canarias comunicará inmediatamente al RCC Canarias (Centro Coordinador del SAR) la última posición conocida de la aeronave. Después se recibirá en el RCC aviso de activación de baliza (señal de emergencia) enviada por el satélite SARSAT-COSPAS a través del Centro Espacial de Canarias, situado en Maspalomas, confirmando la alarma y señalando el lugar en el que se ha producido el accidente.
Paralelamente, el CECOES 112 habrá activado al Centro Coordinador de Emergencias de El Hierro que, a su vez, activará el Plan Insular de Emergencias que deberá enfrentarse al rescate y salvamento de los heridos hasta los centros hospitalarios de la isla, la extinción de un incendio y un posible derrame de material contaminante en el mar.
Bajo la organización y dirección del SAR, participan en este simulacro el Cabildo de El Hierro, la Dirección General de Seguridad y Emergencias de la Comunidad Autónoma de Canarias (con el CECOES 112, CECOI y Grupo de Emergencias y Seguridad GES), Cruz Roja, Servicio de Urgencias Canario (SUC), Salvamento Marítimo, Aeropuerto de El Hierro, Centro de Control de Tránsito Aéreo de Canarias (ACC Canarias), los ayuntamientos de Valverde, La Frontera y El Pinar (con su policía local, protección civil y bomberos), Guardia Civil, Protección Civil de la Subdelegación de Gobierno en Tenerife (con su Red de Voluntarios Radioaficionados REMER), Hospital Insular Nuestra Señora de Los Reyes, Centro Espacial de Canarias (SARSAT COSPAS), la Comisión de Accidentes de Aviación Civil (CIAIAC), Taller de Empleo Protección y Emergencias del Ayuntamiento de Granadilla de Abona en Tenerife, la Federación de Actividades Subacuáticas, Cofradía de Pescadores Nuestra Señora de Los Reyes y personal de las agrupaciones de protección civil de los ayuntamientos de Candelaria y Granadilla del Abona (asociación Tigaya).

Fuente: Canarias actual.

Share Button

Paz, el satélite murciélago

España, a través de un lanzador ruso, va a poner en órbita en 2012 el satélite Paz, un vehículo espacial que cada hora y media dará una vuelta a la Tierra y que los expertos lo comparan con un “murciélago”, ya que será capaz de sacar al día cien imágenes, a cualquier hora y en cualquier condición meteorológica.

Equipado con tecnología radar, este satélite de casi 1.400 kilos de peso, constará de dos módulos principales: una plataforma o módulo de servicio y la carga útil o los instrumentos. La plataforma, una especie de camión de carga de uso recurrente en otros satélites en Alemania y que sirve para colocar los tanques de combustible y paneles solares, se ha construido en ese país y llegará a Madrid por carretera el próximo 4 de mayo, en donde estará hasta final de año para integrar en él los distintos instrumentos.

Es precisamente toda esta parte instrumental la que es tecnología cien por cien española, ha detallado Alfonso Martínez, de EADS-Casa Espacio y responsable del programa. El satélite Paz (junto al satélite óptico de uso civil Ingenio) está incluido en el Programa Nacional de Observación de la Tierra del Ministerio de Defensa y del de Industria, Turismo y Comercio.

Su propietaria es la empresa de servicios gubernamentales Hisdesat y el contratista principal EADS-Casa Espacio. El contrato para su construcción fue firmado en noviembre de 2008 y Paz costará 160 millones de euros (incluido el lanzamiento y la estación terrena).

Con este satélite, de una vida útil de cinco años y medio, España se convertirá en el primer país europeo con ambos sistemas de observación de la Tierra (óptico y radar) válidos para usos civiles y militares, aunque Paz tendrá como usuario principal a Defensa. Paz, en el que además de EADS-Casa Espacio participan otras once empresas españolas, estará formado por doce paneles, compuestos éstos a su vez por 32 antenas elementales, lo que hace un total de 384 antenas, cada una de las cuales se puede programar independientemente dependiendo de los objetivos susceptibles de fotografiar.

Cuando esté en órbita, a unos 514 kilómetros de la Tierra, el satélite volará a siete kilómetros por segundo. Según Alfonso Martínez, Paz estará preparado para dar quince vueltas al día a la Tierra, obtener unas cien imágenes cada jornada o 300.000 kilómetros cuadrados, lo que sería como cartografiar una superficie del tamaño de España cada día y medio.

Paz tiene además, ha continuado Martínez, una ventaja, que estará equipado con tecnología radar, lo que permitirá la obtención de imágenes de calidad de día y de noche y con cualquier clima. “Es como un murciélago”, ha subrayado este ingeniero, quien ha explicado que el satélite emitirá energía y el eco de esa energía es lo que posibilitará sacar imágenes, que Paz descargará varias veces al día, cuando pase por las dos estaciones de control, que estarán ubicadas en Maspalomas (Gran Canaria) y Torrejón de Ardoz (Madrid).

Los datos llegarán “en bruto” a tierra, donde se procesarán y podrán cruzar con otros datos, por ejemplo de cartografía. El responsable del programa ha detallado que este satélite gubernamental, además de para inteligencia y cartografía, servirá para control fronterizo o evaluación de catástrofes naturales. Durante su vida útil realizará periódicamente maniobras de corrección de altura para mantener la órbita seleccionada.

Además de EADS Casa Espacio, participan en Paz: Indra Sistemas (construcción de los módulos que mandan energía y reciben su eco); Crisa (unidades electrónicas); Rymsa (antenas de la plataforma); Universidad Politécnica de Cataluña (desarrollo de los modelos matemáticos del radar) y NTE-Sener (equipos de potencia). Asimismo, están involucradas Acorde, HV Sistemas, Iberespacio, Inventia Kinetics, Erzia y Caxhinero, todas ellas encargadas de los equipos de integración en tierra y Elatesa (fabrica elementos de la antena radar).

Paz será lanzando al espacio con un cohete Dnepr, desde el cosmódromo de Baikonur, en septiembre de 2012.

Fuente: 20minutos.es

Share Button

Riesgos derivados del Clima Espacial

El clima espacial define la interacción del Sol, física y magnéticamente, con todos los objetos del Sistema Solar. Esta actividad presenta una pauta de repetición cíclica, con valores máximos y mínimos, de aproximadamente 11 años. En la época de máximos los efectos físicos y magnéticos sobre los dispositivos eléctricos y electrónicos pueden tener un impacto significativo, incluso provocar serios daños. Este tipo de eventos se clasifican según su ocurrencia e impacto como baja frecuencia / alto impacto (LF/HC, Low-Frequency/High-Consequence).

He publicado en la web el informe que presenté en noviembre de 2010 a la Dirección General de Protección Civil y Emergencias (DGPCE), con motivo de las Jornadas Técnicas sobre Clima Espacial.

Se presenta una breve caracterización del clima espacial y se analizan los riesgos para las personas y para diversos sistemas tecnológicos. Tambien se describen los sistemas de observación y alerta temprana disponibles actualmente en diversos países.

Enlace: Riesgos derivados del Clima Espacial (Ismael Pellejero).

Share Button

¿Podemos prevenir la gran tormenta solar de 2012?

Un conjunto de luces brillantes iluminan inesperadamente en el cielo. Las bombillas empiezan a parpadear y, después de unos segundos, se apagan indefinidamente. Todo el país se queda a oscuras. No es el único. La situación se repite en todo el mundo. Un año después, nada ha cambiado. Se registran millones de muertos y nuestra civilización parece abocada a su fin. ¿La causa? Una potentísima tormenta solar.

El escenario podría ser cualquier gran ciudad de Estados Unidos, China o Europa. La hora, por ejemplo, poco después del anochecer de cualquier día entre mayo y septiembre de 2012. El cielo, de repente, aparece adornado con un gran manto de luces brillantes que oscilan como banderas al viento. Da igual que no estemos cerca del Polo Norte, donde las auroras suelen ser comunes. Podría tratarse perfectamente de Nueva York, Madrid o Pekín. Pasados unos segundos, las bombillas empiezan a parpadear, como si estuvieran a punto de fallar. Después, por un breve instante, brillan con una intensidad inusitada… y se apagan para siempre. En menos de un minuto y medio, toda la ciudad, todo el país, todo el continente, está completamente a oscuras y sin energía eléctrica. Un año después, la situación no ha cambiado. Sigue sin haber suministro y los muertos en las grandes ciudades se cuentan por millones. En todo el planeta está sucediendo lo mismo. ¿El causante del desastre? Una única y gran tormenta espacial, generada a más de 150 millones de kilómetros de distancia, en la superficie del Sol.

Y no es que de repente hayamos decidido alinearnos entre las filas de los catastrofistas que predican el fin del mundo precisamente para 2012. Pero lo descrito arriba es exactamente lo que pasaría si el actual ciclo solar (que acaba de empezar después de más de un año de completa inactividad) fuera sólo la mitad de violento de lo que se espera. Así lo dice, sin tapujos, un informe extraordinario financiado por la NASA y publicado hace menos de un año por la Academia Nacional de Ciencias de los Estados Unidos (NAS). Y resulta que, según el citado informe, son precisamente las sociedades occidentales las que, durante las últimas décadas, han sembrado sin quererlo la semilla de su propia destrucción.

Esta descripción parece sacada de una de esas películas de catástrofes con las que de vez en cuando Hollywood sacude las taquillas de los cines, pero, por desgracia, puede lejos de la ficción. Forma parte del informe publicado por la Academia Nacional de Ciencias de los Estados Unidos (NAS) y financiado por la NASA. El estudio advierte de que enormes chorros de plasma procedentes del Sol pueden alcanzar nuestro planeta en 2012 ó 2013, cuando la actividad del astro rey alcance su máximo pico como parte del ciclo solar de once años. No es fácil que esto ocurra, pero es una posibilidad real.

La actual dependencia de la electrónica y de las comunicaciones por satélite supone que una fuerte tormenta espacial podría causar veinte veces más daño económico que el huracán Katrina. Si algo semejante llega a producirse, ¿tenemos alguna opción? ¿hay una oportunidad de salvarnos? Investigadores de la Universidad de Bardford (Reino Unido) creen que sí, siempre que la amenaza no nos pille desprevenidos y dispongamos de una alerta temprana que nos permita tomar medidas. Con este objetivo, trabajan en el desarrollo de un nuevo método para predecir los grandes movimientos del Sol.

Las tormentas solares implican la liberación de enormes cantidades de gas caliente y fuerzas magnéticas hacia el espacio en torno a 1.600.000 kilómetros por hora. Aunque las grandes erupciones solares normalmente tardan varios días en llegar a la Tierra, la catástrofe puede precipitarse, ya que la más grande conocida, registrada en 1859, nos alcanzó en tan sólo dieciocho horas (Bautizada como «El evento Carrington», por el astrónomo británico que lo midió, causó el colapso de las mayores redes mundiales de telégrafos). Las llamaradas solares, que también pueden causar daños, tardan sólo unos pocos minutos.

Hasta ahora, la predicción meteorológica solar se ha hecho de forma manual. Expertos buscan en imágenes de satélite en dos dimensiones del Sol y evalúan la probabilidad de una actividad futura. Pero el equipo Centro de Computación Visual de la Universidad de Bradford ha creado el primer sistema accesible de predicción automatizada, utilizando imágenes en 3D generadas por el satélite de la NASA y la Agencia Espacial Europea (ESA) Observatorio Solar y Heliosférico (SOHO).

 «Con seis horas de antelación»

El sistema Bradford de Predicción Automatizada de Actividad Solar, denominado ASAP por las siglas en inglés de “As soon as posible” (Tan pronto como sea posible) y ya utilizado por la NASA y la ESA, identifica y clasifica las manchas solares. El sistema es capaz de predecir con precisión una llamarada solar con seis horas de antelación y el equipo está trabajando para lograr una precisión similar en la predicción de las grandes erupciones solares en un futuro próximo.

“La predicción meteorológica solar está todavía en su infancia, probablemente alrededor del punto en el que la previsión del tiempo meteorológico se encontraba hace 50 años. Sin embargo, nuestro sistema es un gran paso adelante”, explica el profesor adjunto en el Centro de Computación Visual, el Dr. Rami Qahwaji, responsable de la investigación. “Mediante la creación de un sistema automatizado que puede trabajar en tiempo real, abrimos la posibilidad de una predicción mucho más rápida”. Además, los científicos creen que el nuevo satélite de la NASA, el Observatorio Dinámico Solar (SDO), que entró en funcionamiento en mayo, les dará la oportunidad de ver la actividad solar con mucho más detalle, lo que mejorará aún más su capacidad de predicción.

«Un posible desastre»

Se trata de nuestra actual forma de vida, dependiente en todo y para todo de una tecnología cada vez más sofisticada. Una tecnología que, irónicamente, resulta muy vulnerable a un peligro extraordinario: los enormes chorros de plasma procedentes del Sol. Un plasma capaz de freir en segundos toda nuestra red eléctrica (de la que la tecnología depende), con consecuencias realmente catastróficas. «Nos estamos acercando cada vez más hasta el borde de un posible desastre», asegura Daniel Baker, un experto en clima espacial de la Universidad de Colorado en Boulder y jefe del comité de la NAS que ha elaborado el informe.

Según Baker, es difícil concebir que el Sol pueda enviar hasta la Tierra la energía necesaria para provocar este desastre. Difícil, pero no imposible. La superficie misma de nuestra estrella es una gran masa de plasma en movimiento, cargada con partículas de alta energía. Algunas de estas partículas escapan de la ardiente superficie para viajar a través del espacio en forma de viento solar. Y de vez en cuando ese mismo viento se encarga de impulsar enormes globos de miles de millones de toneladas de plasma ardiente, enormes bolas de fuego que conocemos por el nombre de eyecciones de masa coronal. Si una de ellas alcanzara el campo magnético de la Tierra, las consecuencias serían catastróficas.

Nuestras redes eléctricas no están diseñadas para resistir esta clase de súbitas embestidas energéticas. Y que a nadie le quepa duda de que esas embestidas se producen con cierta regularidad. Desde que somos capaces de realizar medidas, la peor tormenta solar de todos los tiempos se produjo el 2 de septiembre de 1859. Conocida como «El evento Carrington», por el astrónomo británico que lo midió, causó el colapso de las mayores redes mundiales de telégrafos. En aquella época, la energía eléctrica apenas si empezaba a utilizarse, por lo que los efectos de la tormenta casi no afectaron a la vida de los ciudadanos. Pero resultan inimaginables los daños que podrían producirse en nuestra forma de vida si un hecho así sucediera en la actualidad. De hecho, y según el análisis de la NAS, millones de personas en todo el mundo no lograrían sobrevivir.

 El informe subraya la existencia de dos grandes problemas de fondo: El primero es que las modernas redes eléctricas, diseñadas para operar a voltajes muy altos sobre áreas geográficas muy extensas, resultan especialmente vulnerables a esta clase de tormentas procedentes del Sol. El segundo problema es la interdependencia de estas centrales con los sistemas básicos que garantizan nuestras vidas, como suministro de agua, tratamiento de aguas residuales, transporte de alimentos y mercancías, mercados financieros, red de telecomunicaciones… Muchos aspectos cruciales de nuestra existencia dependen de que no falle el suministro de energía eléctrica.

«Ni agua ni transporte»

Irónicamente, y justo al revés de lo que sucede con la mayor parte de los desastres naturales, éste afectaría mucho más a las sociedades más ricas y tecnológicas, y mucho menos a las que se encuentran en vías de desarrollo. Según el informe de la Academia Nacional de Ciencias norteamericana, una tormenta solar parecida a la de 1859 dejaría fuera de combate, sólo en Estados Unidos, a cerca de 300 de los mayores transformadores eléctricos del país en un periodo de tiempo de apenas 90 segundos. Lo cual supondría dejar de golpe sin energía a más de 130 millones de ciudadanos norteamericanos.

Lo primero que escasearía sería el agua potable. Las personas que vivieran en un apartamento alto serían las primeras en quedarse sin agua, ya que no funcionarían las bombas encargadas de impulsarla a los pisos superiores de los edificios. Todos los demás tardarían un día en quedarse sin agua, ya que sin electricidad, una vez se consumiera la de las tuberías, sería imposible bombearla desde pantanos y depósitos. También dejaría de haber transporte eléctrico. Ni trenes, ni metro, lo que dejaría inmovilizadas a millones de personas, y estrangularía una de las principales vías de suministro de alimentos y mercancías a las grandes ciudades.

Los grandes hospitales, con sus generadores, podrían seguir dando servicio durante cerca de 72 horas. Después de eso, adiós a la medicina moderna. Y la situación, además, no mejoraría durante meses, quizás años enteros, ya que los transformadores quemados no pueden ser reparados, sólo sustituidos por otros nuevos. Y el número de transformadores de reserva es muy limitado, así como los equipos especializados que se encargan de instalarlos, una tarea que lleva cerca de una semana de trabajo intensivo. Una vez agotados, habría que fabricar todos los demás, y el actual proceso de fabricación de un transformador eléctrico dura casi un año completo…

El informe calcula que lo mismo sucedería con los oleoductos de gas natural y combustible, que necesitan energía eléctrica para funcionar. Y en cuanto a las centrales de carbón, quemarían sus reservas de combustible en menos de treinta días. Unas reservas que, al estar paralizado el transporte por la falta de combustible, no podrían ser sustituidas. Y tampoco las centrales nucleares serían una solución, ya que están programadas para desconectarse automáticamente en cuanto se produzca una avería importante el las redes eléctricas y no volver a funcionar hasta que la electricidad se restablezca.

Sin calefacción ni refrigeración, la gente empezaría a morir en cuestión de días. Entre las primeras víctimas, todas aquellas personas cuya vida dependa de un tratamiento médico o del suministro regular de sustancias como la insulina. «Si un evento Carrington sucediera ahora mismo -asegura Paul Kintner, un físico del plasma de la Universidad de Cornell, de Nueva York- sus efectos serían diez veces peores que los del huracán Katrina». En realidad, sin embargo, la estimación de este físico se queda muy corta. El informe de la NAS cifra los costes de un evento Carrington en dos billones de dólares sólo durante el primer año (el impacto del Katrina se estimó entre 81 y 125 mil millones de dólares), y considera que el periodo de recuperación oscilaría entre los cuatro y los diez años.

Por supuesto, el informe no se limita a describir escenarios de pesadilla sólo en los Estados Unidos. Tampoco Europa, o China, se librarían de las desastrosas consecuencias de una tormenta geomagnética de gran intensidad.

 «Tomar precauciones»

La buena noticia, reza el informe, es que si se dispusiera del tiempo suficiente, las compañías eléctricas podrían tomar precauciones, como ajustar voltajes y cargas en las redes, o restringir las transferencias de energía para evitar fallos en cascada. Pero, ¿Tenemos un sistema de alertas que nos avise a tiempo? Los expertos de la NAS opinan que no.

Actualmente, las mejores indicaciones de una tormenta solar en camino proceden del satélite ACE (Advanced Composition Explorer). La nave, lanzada en 1997, sigue una órbita solar que la mantiene siempre entre el Sol y la Tierra. Lo que significa que puede enviar (y envía) continuamente datos sobre la dirección y la velocidad de los vientos solares y otras emisiones de partículas cargadas que tengan como objetivo nuestro planeta.

ACE, pues, podría avisarnos de la inminente llegada de un chorro de plasma como el de 1859 con un adelanto de entre 15 y 45 minutos. Y en teoría, 15 minutos es el tiempo que necesita una compañía eléctrica para prepararse ante una situación de emergencia. Sin embargo, el estudio de los datos obtenidos durante el evento Carrington muetran que la eyección de masa coronal de 1859 tardó bastante menos de 15 minutos en recorrer la distancia que hay desde el ACE hasta la Tierra. Por no contar, además, que ACE tiene ya once años y que sigue trabajando a pesar de haber superado el periodo de actividad para el que había sido diseñado. Algo que se nota en el funcionamiento, a veces defectuoso, de algunos de sus sensores, que se saturarían sin remedio ante un evento de esas proporciones. Y lo peor es que no existen planes para reemplazarlo.

Para Daniel Baker, que formó parte de una comisión que hace ya tres años alertó de los problemas de este satélite, «no tener una estrategia para sustituirlo cuando deje de funcionar es una completa locura». De hecho, otros satélites de observación solar, como SOHO, no pueden proporcionarnos alertas tan inmediatas ni tan fiables como las de ACE. Para Baker y los demás investigadores que han elaborado el informe, el mundo probablemente no hará nada para prevenirnos de los efectos de una tormenta solar devastadora hasta que ésta, efectivamente, suceda.

Algo que, según el informe, podría ocurrir mucho antes de lo que nadie imagina. La «tormenta solar perfecta», de hecho, podría tener lugar durante la primavera o el otoño de un año con alta actividad solar (como lo será 2012). Y es precisamente en esos periodos, cerca de los equinoccios, cuando serían más dañinas para nosotros, ya que es entonces cuando la orientación del campo magnético terrestre (el escudo que nos proteje de los vientos solares), es más vulnerable a los bombardeos de plasma solar.

Fuentes: ¿Podemos prevenir la gran tormenta solar de 2012? (abc.es, 09/09/2010), La tormenta solar del fin del mundo (abc.es, 24/02/2010).

Share Button

Misión THEMIS: Detección de subtormentas solares

Un temblor espacial es una violenta sacudida que se produce en el campo magnético terrestre. Sus efectos se sienten con más fuerza en órbita, pero también sobre la superficie de nuestro planeta. Cuando se producen, los terremotos espaciales sacuden los campos magnéticos que rodean la Tierra de la misma forma en que un terremoto sacude el suelo que pisamos. Sus efectos pueden ser medidos desde el suelo, y llegar a colapsar redes eléctricas y de telecomunicaciones.

“Reverberaciones magnéticas ya han sido detectadas en muchas ocasiones por estaciones con base en tierra alrededor de todo el globo terráqueo, de la misma forma en que los detectores sísmicos miden la intensidad de los terremotos”, explica Vassilis Angelopoulos, investigador principal de la constelación de satélites Themis, que desde febrero de 2007 estudia la magnetosfera terrestre.

La analogía, según Eugeny Panov, del Instituto de Investigación Espacial de Austria y autor principal de un estudio recién publicado en Geophysical Research Letters, es muy adecuada, ya que “la energía total de un temblor espacial es comparable a la de un terremoto de magnitud 5 ó 6”. Ya en el año 2007, la red Themis (que consta de cinco satélites) descubrió la existencia de fenómenos que hoy se consideran como precursores de un temblor espacial.

La acción empieza en la cola del campo magnético de la Tierra (ver vídeo), que se estira como una manga de viento bajo la acción de los continuos vientos solares. En ocasiones, la cola se estira tanto que rebota violentamente, tal y como lo haría una goma que estiráramos y después soltáramos de repente. Cuando eso sucede, el plasma solar atrapado en la cola es lanzado hacia la Tierra. Y en más de una ocasión los cinco satélites Themis estaban “en la línea de fuego” justo en el momento de producirse estos súbitos bombardeos de plasma.

De forma incuestionable, los chorros de plasma se dirigen directamente hacia la Tierra pero ¿qué es lo que ocurre exactamente a partir de ese momento? “Ahora lo sabemos” afirma David Sibeck, investigador del proyecto Themis en el centro espacial Goddard, de la NASA. “Los chorros de plasma provocan temblores espaciales”.

Según los datos recogidos por los cinco satélites, los chorros de plasma provocados por estos violentos “latigazos” se estrellan contra el campo magnético terrestre a unos 30.000 km de altura sobre el Ecuador. El impacto genera una serie de “rebotes”, durante los cuales el plasma salta arriba y abajo en el interior del oscilante campo magnético. Se trata de algo parecido a lo que hace una pelota de tenis botando en el suelo. El primer rebote es el mayor, seguido de botes cada vez menores hasta que toda la energía se disipa.

“Sospechábamos desde hace mucho que sucedía algo parecido -afirma Sibeck-. Pero observando todo el proceso in situ, Themis ha descubierto algo totalmente nuevo y sorprendente”.

Ese “algo” son los “vórtices de plasma“, enormes remolinos de gas magnetizado, tan grandes como la propia Tierra y girando al borde mismo del “tembloroso” campo magnético. “Cuando los chorros de plasma golpean la magnetosfera desde el interior -explica Rumi Nakamura, uno de los coautores del estudio- se generan vórtices que giran en el sentido contrario, apareciendo y desapareciendo al otro lado del chorro de plasma. Y creemos que estos vórtices pueden generar importantes corrientes eléctricas en el entorno cercano de la Tierra“.

Así, actuando juntos, los vórtices y los temblores espaciales consiguen producir efectos medibles en nuestro planeta. Las colas de los vórtices pueden hacer de “túneles” que inyectan partículas de plasma en la atmósfera, dando lugar a auroras polares y generando ondas de ionización que interfieren las comunicaciones por radio y los sistemas GPS.

Tirando de la superficie de los campos magnéticos, los temblores espaciales generan, por su parte, corrientes eléctricas que llegan hasta el mismísimo suelo sobre el que caminamos. Estas corrientes pueden tener graves consecuencias, llegando en casos extremos a afectar a las redes eléctricas de amplias zonas del planeta. El vídeo sobre estas líneas es una simulación informática (realizada por Joachim Birn, del Laboratorio Nacional de Los Alamos, en Nuevo México) a partir de las mediciones de los satélites Themis.

El trabajo, sin embargo, dista mucho de estar terminado. “¿Cómo de fuerte puede ser un temblor espacial? -se pregunta Sibeck- ¿Cuántos vórtices pueden estar girando a la vez alrededor de la Tierra y cómo interactúan entre ellos?”. Para conocer las respuestas, habrá que estar muy pendientes de los próximos datos que aporte Themis.

Fuentes: abc.es, NASA.

Share Button

La lluvia de meteoritos Dracónidas 2011 y los sistemas satelitales

La NASA está analizando los posibles riesgos para los satélites artificiales derivados de la lluvia de meteoritos conocida con el nombre de Dracónidas, que se espera que sea de especial intensidad en octubre de 2011.

El riesgo no se produce tanto por la probabilidad de daños físicos por impactos directos como por el intenso campo eléctrico generado por los meteoros, que puede provocar anomalías en la electrónica a bordo de los satélites. En este caso, los sistemas de telecomunicación terrestres seguirían funcionando sin problemas (fibras ópticas, radio, etc), aunque es necesario prever las posibles consecuencias de la degradación de los sistemas basados en satélite.

A continuación transcribo parte del artículo “The 2011 Draconid shower risk to Earth-orbiting satellites“, escrito por William J. Cooke (Meteoroid Environment Office, Marshall Space Flight Center, Huntsville, AL) y Danielle E. Moser (Stanley, Inc., Huntsville, AL), en el que se analiza este riesgo a partir de modelos estadísticos. Se prevé que la NASA emita informes más precisos a principios del año 2011.

El riesgo de la lluvia Dracónidas 2011 para los satélites artificiales.

Los modelos actuales de predicción de lluvias de meteoritos pronostican una fuerte intensidad para las Dracónidas, posiblemente con nivel de tormenta, para el 8 de Octubre de 2011, con una duración de aproximadamente 7 horas y picos entre las 19 y las 21 horas UTC. Las predicciones se expanden un orden de magnitud, con tasas horarias cenitales (ZHR) máximas desde unas pocas decenas hasta varias centenas.

La calibración del Modelo de Flujo de Meteoritos (MSFC) de la NASA, a partir de observaciones ópticas y de radar de eventos pasados, particularmente de la lluvia de Dracónidas de 2005, sugiere que la tasa máxima será de varios cientos a la hora. Considerando la elevada densidad espacial del flujo de las Dracónidas, esto implica un flujo máximo de 5-10 Dracónidas por kilómetro cuadrado y hora (para un diámetro limitado a 1 mm), es decir, entre 25 y 50 veces mayor que el flujo normal esporádico de 0,2 meteoros por kilómetro cuadrado y hora para partículas de este tamaño.

Asumiendo una tasa ZHR de 750, esto supondría 15,5 Dracónidas por kilómetro cuadrado, lo que implica multiplicar por 10 el riesgo para las superficies de las astronaves vulnerables a impactos de hipervelocidad por partículas de 1 mm.

Actualmente es conocido el hecho de que una fracción significativa de las anomalías producidas por las lluvias de meteoritos en las astronaves (p.ej. OLYMPUS y LandSat 5), es causada por las descargas electrostáticas generadas por los impactos de los meteoritos. En estos casos, la carga generada es más o menos proporcional a v^3,5, considerando el movimiento de las Dracónidas a 20 km/s, es decir, con un potencial para causar daños eléctricos 80 veces inferior al de una lluvia de Leónidas de la misma masa. En otras palabras, una lluvia de Dracónidas con una tasa ZHR máxima de 800 presenta el mismo riesgo eléctrico que una lluvia de Leónidas con una tasa ZHR de 15, asumiendo que los índices de masa y la duración de las lluvias son idénticos. Esta conclusión se basa en el hecho de que no se registraron anomalías eléctricas en astronaves durante las intensas lluvias de Dracónidas de 1985 y 1998.

Sin embargo, la ausencia de anomalías en el pasado no ha de tomarse como una carta blanca para los operadores de los sistemas vía satélite en lo referente a ignorar las Dracónidas del 2011, ya que dicha lluvia sigue suponiendo un incremento en el riesgo para las astronaves ubicadas en el espacio cercano. Cada astronave es única y sus componentes tienen distintos umbrales de tolerancia a los daños, por lo que se sugiere a dichos programas que realicen análisis para determinar si se precisan o no estrategias de mitigación para sus astronaves.

Fuentes: NASA, space.com, astronomia.org

Share Button

El equipo FITTEST del Programa Mundial de Alimentos de Naciones Unidas

El Equipo Rápido de Emergencias y Apoyo en Tecnologías de la Información y las Telecomunicaciones (Fast IT and Telecommunications Emergency and Support Team, FITTEST), es un grupo de especialistas técnicos pertenecientes a la División de Tecnologías de la Información del Programa Mundial de Alimentos de Naciones Unidas. FITTEST proporciona infraestructuras de TIC y suministro eléctrico como apoyo a operaciones de ayuda humanitaria en cualquier parte del mundo.

Las emergencias humanitarias exigen intervenciones rápidas, eficientes, coordinadas y efectivas.  El equipo FITTEST es capaz de responder a llamadas de emergencia y asegurar su despliegue operativo sobre el terreno en un plazo de 48 horas.

El equipo FITTEST tiene sus base en Dubai (Emiratos Árabes Unidos), cuya ubicación geográfica facilita su despliegue de emergencia en cualquier parte del mundo.

FITTEST es una célula única dentro del sistema de Naciones Unidas, ya que opera según el concepto de recuperación de costes. No recibe ningún tipo de contribución directa de Gobiernos u otros donantes de ayuda humanitaria, consiguiendo su sostenibilidad gracias a que opera de forma similar a las compañías privadas. El equipo opera con un margen limitado (7,5 %), empleado para cubrir costes y para el entrenamiento inicial de sus miembros. Este método de operación asegura la aplicación de los mejores estándares de servicio, ya que FITTEST solamente puede sobrevivir si sus “clientes” continúan utilizando sus servicios.

Historia

FITTEST se desplegó en la emergencia humanitaria de los Grandes Lagos Africanos en 1995, cuando el Programa Mundial de Alimentos se vio en la necesidad de atender a aproximadamente 3,3 millones de desplazados en Ruanda, Burundi, Zaire (hoy República Democrática del Congo), Uganda, Kenia y Tanzania. El desafío para el Programa Mundial de Alimentos en ese momento fue coordinar la distribución de alimentos para millones de personas en estos seis países, teniendo como medios de telecomunicación disponibles solamente el teléfono y el fax.

En 1998, FITTEST se convirtió en una herramienta oficial del Programa Mundial de Alimentos para responder ante las emergencias. Con el establecimiento del Cluster de Naciones Unidas por el Comité Permanente Inter-Agencias, FITTEST también se convirtió en una herramienta crítica para permitir que el Programa Mundial de Alimentos cumpliese el mandato de proporcionar servicios de TIC a toda la comunidad humanitaria de emergencias.

Desde su creación, FITTEST ha completado misiones en 130 países, incluyendo Afganistán, Argelia, Bangladesh, Burundi, República Centroafricana, Chad, República Democrática del Congo, Haití, Indonesia, Kosovo, Líbano, Myanmar, Nepal, Niger, los Territorios Palestinos Ocupados, Pakistán, Filipinas, Ruanda, Somalia, Sri Lanka, Sudán, Tajikistán, Timor-Leste, Uganda, Yemen, Zambia y Zimbabwe.

El equipo

El equipo FITTEST está formado por expertos en tecnologías de la información, suministro eléctrico y radiocomunicaciones de todo el mundo, especialmente entrenados para operar en las condiciones más hostiles y exigentes. Algunas de las situaciones más difíciles en las que ha intervenido el equipo son:

  • Operaciones humanitarias en Afganistán e Irak.
  • Operaciones de mitigación de desastres tras el tsunami de Banda Aceh, Indonesia.
  • Atentados contra instalaciones de Naciones Unidad en Argelia, Somalia y Pakistán.

Aunque FITTEST es, principalmente, un equipo de respuesta ante emergencias, también se implica regularmente en actividades de capacitación (como entrenamiento en telecomunicaciones de emergencia), proyectos de investigación y desarrollo (como el cambio a nuevas tecnologías de radio para operaciones humanitarias) y proyectos corporativos.

El terremoto de Haití de 2010

El equipo FITTEST se desplegó en Haití 48 horas después del terremoto. Un equipo de expertos voló a la capital, Puerto Príncipe, con dos kits aerotransportables. Cada kit contenía el equipamiento necesario para establecer comunicaciones básicas de voz y datos, hasta que pudieran desplegarse equipos más sofisticados.

Trabajando conjuntamente con el Cluster de Telecomunicaciones de Emergencia (ETC, Emergency Telecommunications Cluster), incluyendo a Télécoms sans Frontières, Irish Aid y Ericsson Response, FITTEST contribuyó a restablecer la conectividad en Haití.

Servicios

FITTEST suministra servicios en el campo de las Telecomunicaciones (radio, telefonía y satélite), Sistemas de Información (hardware, software, redes, Lotus Notes, WINGS, Internet y email) y Electricidad (cableado, rectificadores, energía solar y grupos electrógenos). Los servicios se adecuan para proporcionar las soluciones más efectivas y eficientes para las operaciones de emergencia.

Los servicios más comunes proporcionados por FITTEST son:

  • Gestión de proyectos: FITTEST puede proporcionar soporte rápido de TIC para cualquier tipo de operación humanitaria, por muy extensa o compleja que sea. Las opciones cubren desde la prestación de servicios específicos para complementar el trabajo de proyectos ya existentes, hasta soluciones ad-hoc, incluyendo la evaluación de necesidades de TIC, el despliegue de equipos y personal, la implementación de soluciones, soporte técnico, documentación de proyectos y control de gastos.
  • Servicios de consultoría: FITTEST ofrece gran variedad de servicios de consultoría, que pueden ayudar a identificar puntos para fortalecer a los sistemas TIC sobre el terreno y a establecer planes y proyectos. Estos servicios incluyen la evaluación de necesidades de seguridad para telecomunicaciones, la preparación de recomendaciones y propuestas, gestión de presupuestos, instalaciones de infraestructura TIC, instalación de redes de suministro eléctrico, despliegue de redes radio y satelitales y enlace con autoridades gubernamentales para la gestión de asignaciones de frecuencias y equipamiento.
  • Entrenamiento: a través de cursos para la comunidad humanitaria, FITTEST trabaja para mejorar las capacidades de respuesta rápida para facilitar la profesionalización en estándares TIC globales. Los técnicos de FITTEST también proporcionan entrenamiento sobre el terreno a técnicos TIC locales durante cada misión, para asegurar el sostenimiento de las intervenciones y maximizar las capacidades del personal sobre el terreno.
  • Equipamiento: FITTEST almacena grandes cantidades de equipos TIC y de suministro eléctrico, esenciales para la provisión de soluciones. El suministro directo de estos equipos almacenados evita los posibles tiempos de espera asociados a los procedimientos de suministro de los proveedores, acelerando el proceso de despliegue de los equipos en las operaciones de emergencia con requerimientos urgentes.

Equipos en dotación

  • Radios de HF: Barrett 2050, Barrett/Q-MAC HF-90, Codan 8528.
  • Radios de VHF/UHF: Motorola GM140, Motorola GM360.

Fuente: Programa Mundial de Alimentos de Naciones Unidas

Share Button

Proyecto de red satelital para casos de catástrofe en Chile

Alrededor de 13,5 millones de dólares sería el costo de implementar en Chile una red satelital de comunicaciones para el Estado, con la finalidad de enfrentar situaciones de catástrofe o emergencia, como el reciente terremoto que afectó la zona centro sur del país.

De acuerdo a un análisis realizado por Tesacom– compañía líder en comunicación satelital de América del Sur- la mencionada red podría habilitarse en cuatro meses e involucraría a diversos estamentos como la Presidencia de la República, Senado, Cámara de Diputados, Ministerios, Subsecretarías, ONEMI, Intendencias, Gobernaciones, Municipalidades y Bomberos, entre otros.

Christian Gerhard, gerente de Tesacom, sostuvo que este estudio fue realizado teniendo en cuenta todas aquellas instancias y reparticiones públicas que, de acuerdo a lo aparecido en los medios de comunicación, jugaron un rol importante apenas se produjo el mega sismo, “más aquellas unidades que, a nuestro juicio, debieran incluirse en este tipo de situaciones”. Asimismo, aclaró que las FF.AA se excluyeron de este análisis debido a que cuentan desde hace tiempo con este tipo de tecnología.

“Hasta el momento se ha afirmado, desde distintos sectores, que la tecnología satelital es demasiado cara para ser considerada como una alternativa real de comunicación en casos de emergencia. Sin embargo, este estudio demuestra que técnica y económicamente es muy factible implementar una red de este tipo en Chile”.
El ejecutivo de Tesacom manifestó que, si bien en periodos de normalidad los servicios tradicionales de telefonía fija y celular operan sin inconvenientes, en momentos adversos como un terremoto resulta clave contar con un sistema de comunicaciones de voz y datos más robusto y seguro, que no descanse en las redes terrestres y que funcione en todo momento y lugar.

“En este sentido, la telefonía satelital es la única en el mundo que puede seguir operando sin problemas en casos de una catástrofe, pues sus antenas están en el cielo y no arriba de los edificios”, afirmó.

Equipamiento de punta.

Christian Gerhard explicó que tres son los componentes tecnológicos que operarían esta red de comunicaciones.

Por una parte, está el teléfono satelital portátil Iridium 9555, considerado como el más moderno que hay en el mercado. “Este equipo incluye una serie de innovaciones como la función speaker, headset, manos libres, mejoras en el sistema SMS y mail, y conectividad USB, junto con un software más amigable e intuitivo. Además, permite una rápida conexión al servicio Iridium de casilla de voz, dos vías para la función SMS y dispone de capacidad para realizar transmisiones de datos, como email o Internet”.

En segundo lugar está el modelo Iridium SC 4000, que es un teléfono satelital fijo, ideal para embarcaciones, pero que puede ser instalado y funcionar con normalidad en edificios u oficinas. Como está fabricado para ambientes marítimos, es resistente a todo tipo de climas y posee una gran robustez. Junto con permitir comunicaciones de voz, también posibilita transmisión de datos a velocidades que van desde los 2,4 kbps hacia arriba.

“Finalmente, están los cargadores solares que se basan en la tecnología fotovoltaica. Disponen de un pequeño panel que transforma la radiación solar en corriente eléctrica que sirve para cargar la batería del dispositivo electrónico. Estos dispositivos son capaces de funcionar con casi cualquier tipo de luz, generando corriente eléctrica aún en días nublados o incluso en interiores de casas”.
Fuente: Terra.

Share Button

CANASAR 2010: Simulacro de accidente aéreo en la isla de Fuerteventura

El Servicio de Búsqueda y Salvamento (SAR) en Canarias, compuesto por el 802 Escuadrón de Fuerzas Aéreas y el Centro Coordinador de Salvamento de Canarias, realizó el pasado 21 de junio de 2010 un simulacro de accidente aéreo en la isla de Fuerteventura.

La emergencia se planteó en base a un supuesto accidente de un avión comercial que volaba desde Gran Canaria a Fuerteventura y se desarrolló en la playa de Tarajalejo.

Se activaron los medios de salvamento que el Ejército del Aire dispone en las islas y se alertó a los diferentes organismos de seguridad y emergencias ubicados en Canarias. Contó con la participación de unas 400 personas y un importantísimo despliegue de aviones, helicópteros, embarcaciones y medios terrestres pertenecientes a la totalidad de organismos dedicados a labores de seguridad y emergencias en el archipiélago canario.

Activada la fase de DETRESFA (posibilidad alta de accidente), el ACC Canarias comunicó inmediatamente al RCC Canarias (Centro Coordinador del SAR) la última posición conocida de la aeronave. Poco después, y enviada por el satélite SARSAT-COSPAS a través de la Estación Espacial de Maspalomas, se recibió en el RCC el aviso de activación de baliza (señal de emergencia), confirmando la alarma y señalando con exactitud el lugar donde se ha producido el accidente.

A partir de este momento, el escenario ya queda establecido  y los hechos se suceden de forma aleatoria, como si de un hecho real se tratase. Paralelamente al escenario del siniestro y como novedad en este tipo de simulacros, el Aeropuerto de Fuerteventura puso a prueba su capacidad de reacción y atención ante la llegada de familiares de las supuestas víctimas.

Los organismos e instituciones que han participado en el simulacro son los siguientes: Cruz Roja, Dirección General de Seguridad y Emergencias de la CC.AA. de Canarias, con el CECOES 112 y Grupo de Emergencias y Seguridad (GES), Servicio de Urgencias Canario (SUC), Salvamento Marítimo, AENA, Aeropuerto de Fuerteventura, Centro de Control de Tránsito Aéreo de Canarias (ACC Canarias), Cabildo Insular de Fuerteventura, todos los Ayuntamientos de la Isla (con su Policia Local, Protección Civil y Bomberos), Policía Nacional, Guardia Civil, Protección Civil de la Delegación del Gobierno en Canarias con su Red Radio de Emergencia “REMER”, Hospital General de Fuerteventura y Centro de Salud de Gran Tarajal, la Estación Espacial de Maspalomas (SARSAT-COSPAS), la Comisión de accidentes de Aviación Civil (CIAIAC) y la Escuela Taller de Seguridad y Emergencias “Henry Dunant”

El simulacro permitió evaluar la capacidad de reacción de los medios SAR y el grado de coordinación entre instituciones en el desarrollo de las operaciones de salvamento dirigidas por el RCC Canarias.

Fuentes: Ejército del AireAviación Digital.

Share Button

La NASA prueba con éxito un sistema para predecir tsunamis mediante GPS diferencial

Un equipo de investigación liderado por la NASA ha demostrado con éxito por primera vez los fundamentos de un sistema prototipo de predicción de tsunamis, que clasifica de forma rápida y precisa los grandes terremotos y estima el tamaño de los tsunamis resultantes.

Tras el terremoto de M8.8 ocurrido en Chile el pasado 27/02/2010, un equipo dirigido por Y. Tony Song, del Laboratorio de Propulsión a Chorro (JPL) de la NASA en California, utilizó datos en tiempo real de la red de GPS diferencial (GDGPS) de la Agencia para predecir con éxito el tamaño del tsunami resultante. La red, gestionada por el JPL, combina datos en tiempo real de cientos de estaciones globales y regionales y estima sus posiciones cada segundo. Puede detectar movimientos del terreno del orden de pocos centímetros.

“Estas pruebas satisfactorias demuestran que los sistemas costeros de GPS pueden ser utilizados de forma efectiva para predecir el tamaño de los tsunamis”, declaró Song. “Esto puede facilitar a las agencias responsables la emisión de mejores alertas que pueden salvar vidas y reducir las falsas alarmas que pueden perturbar innecesariamente la vida de los residentes en zonas costeras”.

El equipo de Song concluyó que el terremoto de Chile, el quinto más grande registrado por instrumentos, generaría un tsunami local o moderado que no causaría demasiada destrucción en el Pacífico. Los efectos del tsunami fueron relativamente pequeños fuera de Chile.

Las predicciones de Song basadas en GPS se confirmaron posteriormente utilizando instrumentos de medición de la altura del mar a bordo de los satélites altimétricos conjuntos NASA/Agencia Espacial Francesa, denominados Jason-1 y Jason-2. Este trabajo contó con la contribución de investigadores de la Ohio State University (Columbus).

“Se ha demostrado el valor de las observaciones coordinadas en tiempo real entre los sistemas GPS de precisión,  la altimetría vía satélite y los modelos avanzados de la Tierra”, declaró John LaBrecque, gestor del programa de Tierra Sólida y Riesgos Naturales de la División de Ciencias de la Tierra, perteneciente a la Dirección de Misión de Ciencias de la NASA, en Washington.

El método de predicción de Song, publicado en 2007, estima la energía que un terremoto submarino transfiere al océano para generar un tsunami. Se basa en datos de estaciones costeras de GPS cercanas al epicentro, junto a información sobre el talud continental. El talud continental es el gradiente del suelo oceánico desde la plataforma continental hasta el fondo del océano.

Los sistemas de alerta de tsunami convencionales se basan en estimaciones de la ubicación del epicentro del terremoto, su profundidad y su magnitud para determinar si se puede generar un tsunami de grandes proporciones. Sin embargo, la historia ha demostrado que la magnitud de un terremoto no es un indicador fiable del tamaño de un tsunami.
Los modelos previos de tsunamis asumen que la potencia de un tsunami viene dada por la cantidad de desplazamiento vertical del fondo submarino. La teoría de Song muestra que los movimientos horizontales de un talud continental inestable también contribuyen a la potencia del tsunami, mediante la transferencia de energía cinética al océano.

La teoría se apoya además en una reciente publicación de Song, de la que es coautor Shin-Chan Han, del Centro de Vuelos Espaciales Goddard de la NASA, basada en datos recopilados por los satélites  germano-norteamericanos GRACE (Aerospace Center Gravity Recovery and Climate Experiment) tras el tsunami de 2004 en el Océano Índico.

Cuando se produjo el terremoto del 27 de febrero, los movimientos del terreno fueron captados por la estación de la red GDGPS de la NASA ubicada en Santiago de Chile, a unas 146 millas del epicentro del terremoto. Estos datos estuvieron disponibles para Song en muy pocos minutos, permitiéndole calcular los movimientos del fondo submarino.

Basándose en estos datos del GPS, Song calculó la energía de la fuente del tsunami, clasificándolo como moderado: 4.8 en una escala sobre 10, en la que los valores más altos son los más destructivos. Su conclusión se basó en el hecho de que los movimientos del terreno detectados por el GPS indicaron una escasa transferencia de energía cinética al océano.

“Fuimos afortunados de tener una estación suficientemente próxima al epicentro”, declaró Yoaz Bar-Sever, gestor de la red GDGPS. “Se precisa una extensa colaboración internacional para densificar la red de seguimiento por GPS, de forma que cubra adecuadamente todas las zonas de riesgo en las que puedan producirse grandes terremotos”.

Fuente: NASA.

Share Button