Martes, 21 Agosto 2018 07:14

La frontera espacial se acerca

La frontera espacial se acerca

Un novedoso estudio basado en 50 años de datos de satélites artificiales refleja que el límite de la atmósfera deja obsoleta la cifra de los 100 kilómetros, acercándose ahora a los 80.

La altura a la que comienza el espacio exterior y termina la atmósfera no está marcada en ningún lado, aunque sí tiene nombre. Se llama la línea de Kármán y su situación no es fácil de definir, aunque sea importante a efectos legales y políticos, además de los científicos. Mientras Estados Unidos anuncia la creación de una división espacial en sus fuerzas armadas, un nuevo estudio da munición a los que creen que el espacio está más cerca de lo que se supone normalmente.

En las últimas décadas la cifra mágica era 100 kilómetros de altura. Es la que se maneja habitualmente y la que se ha fijado, incluso, en las bases de concursos para premiar a los primeros en desarrollar vehículos comerciales que lo alcancen. El nuevo estudio se inclina por “bajar” el espacio exterior hasta los 80 kilómetros y se basa en un completo análisis de los datos disponibles sobre la línea de Kármán, según su definición. Su autor, Jonathan McDowell, es astrofísico en la Universidad de Harvard.


La ONU ha intentado fijar el borde del espacio a efectos legales pero Estados Unidos, por ejemplo, siempre se ha negado. Otros países y expertos han señalado que no tiene sentido establecerlo porque cambia continuamente con las condiciones meteorológicas espaciales. Ahora, McDowell señala que la línea de Kármán vale como límite mínimo y que no se ve muy afectada por las variaciones atmosféricas.


Theodore von Kármán, un científico húngaro exiliado en Estados Unidos, no fijó exactamente la altura a la que empieza el espacio, sino que la definió como aquella en la que la velocidad necesaria para que un avión se pueda sustentar en una atmósfera ya muy tenue iguala la horizontal necesaria para orbitar el planeta.


Volviendo a McDowell, en su trabajo publicado en Acta Astronautica, se basa en la altura a la que se desplazan o se desplazaron los satélites con órbitas más bajas, sin caer a la Tierra. Un exhaustivo análisis de la reentrada de vehículos espaciales en órbita baja en los últimos 50 años le hace argumentar que la altura más baja en la que un satélite puede estar en órbita son los citados 80 kilómetros (con una horquilla de error de 10 kilómetros), más que los 100 kilómetros. “Los datos orbitales históricos de satélites artificiales confirman que los objetos en órbita pueden sobrevivir múltiples perigeos a una altura entre los 80 y los 90 kilómetros. Este rango de altura casa con el límite físico más alto de la atmósfera, la mesopausa”. De hecho, recuerda, las fuerzas armadas de Estados Unidos reconocían a principios de la era espacial a los pilotos que alcanzaban los 80 kilómetros en aviones la condición de astronautas.


Diferentes definiciones de "espacio"


El astrofísico no quiere entrar mucho en temas legales espaciales (sobre los que hay una amplia literatura) y explica que su interés radica en que es necesario tener una definición del espacio. “No digo que deba existir una única definición del espacio que se aplique en todos los contextos. Los físicos, los abogados y los historiadores pueden necesitar una frontera del espacio para objetivos diferentes y responder a cuestiones diferentes; el borde del espacio se puede definir de forma diferente en diversos foros internacionales. Sin embargo, es útil que estas definiciones se basen en una comprensión común y exacta de las condiciones físicas de la frontera aire-espacio”, concluye.


Después de 60 años de actividades espaciales, los satélites (y los misiles) pasan por encima de nuestras cabezas (y pueden caer sobre ellas) sin que existan acuerdos internacionales sobre a qué altura termina el espacio aéreo de cada país ni sobre lo que es un objeto espacial o una actividad espacial. El problema legal más importante de la era espacial sigue sin solucionarse, pero los intereses comerciales son ya muy importantes y es posible que aceleren un proceso en el que ha primado hasta ahora la falta de un marco legal, mitigada por una cooperación informal internacional bastante eficaz.

Secuencia de la explosión del transbordador Challenger, a 75 segundos de su lanzamiento, el 28 de enero de 1986; Alexei Leonov (izquierda), comandante de la tripulación de la Soyuz, y Thomas Stafford, de Apolo, el 17 de julio de 1975, durante el encuentro de las naves, y Michael Fossum, experto en misiones del Discovery, es retratado por Ronald Garan, otro especialista en viajes al espacio, quien se refleja en el casco del primero, el 3 de junio de 2008, fuera de la EEI.

La falta de recursos, gran problema para volver a la Luna y viajar a Marte

 Hace 60 años, motivado por la competencia con la Unión Soviética, Estados Unidos (EU) creó la Nasa (Administración Nacional de la Aeronáutica y del Espacio), punto de partida de una aventura que los llevaría a la Luna.

En la actualidad, la agencia lucha por reinventarse en un sector en el que se mezclan cada vez más compañías espaciales internacionales e intereses comerciales.


Desde su creación, la Nasa ha desafiado los límites de la exploración del espacio, pero también ha sufrido estrepitosos fracasos, como la explosión de dos transbordadores, uno en 1986 y otro en 2003, con saldo de 14 muertos.


Su ambición de regresar al espacio profundo tendrá que enfrentar un problema de financiación, que le impediría volver a la Luna en la próxima década y a Marte para 2030.


La Nasa se ha vuelto dependiente del sector privado; tiene contratos con SpaceX y Boeing para enviar astronautas al espacio a partir de 2019, tan pronto como sus naves tripuladas estén listas.
No puede enviar astronautas por su cuenta desde 2011, cuando cerró su programa de transbordadores después de 30 años. Ahora debe pagar 80 millones de dólares por asiento a Rusia para enviar estadunidenses a la Estación Espacial Internacional (EEI) en una Soyuz.


En 1957 la Unión Soviética envió su primer satélite al espacio con Sputnik 1, mientras los intentos estadunidenses, principalmente bajo los auspicios del ejército, fracasaron estrepitosamente.


El presidente para la época, Dwight D. Eisenhower, pidió al Congreso que creara una agencia espacial civil separada. El 29 de julio de 1958 firmó la ley que instituyó la Administración Nacional de la Aeronáutica y del Espacio.


Los soviéticos ganaron otra ronda en abril de 1961, cuando Yuri Gagarin se convirtió en el primer hombre en el espacio. Un mes después, el presidente de EU, John F. Kennedy, anunció planes para enviar a un hombre a la Luna a finales de los años 60. Así surgió el programa Apolo.


En 1962 el astronauta John Glenn se convirtió en el primer estadunidense en colocarse en la órbita de la Tierra, y en 1969 Neil Armstrong entró en la historia como el primer hombre en caminar sobre la Luna.
“Apolo fue una demostración unilateral del poder de una nación”, recordó John Logsdon, del Instituto de Política Espacial de la Universidad George Washington.


“Que Kennedy decidiera usar el programa espacial como un instrumento declarado de competencia geopolítica fue lo que volvió a la Nasa en un medio de política nacional, con una asignación presupuestaria muy importante”, precisó.


En la era Apolo, no menos de 5 por ciento del presupuesto nacional fue para la Nasa. En la actualidad es de 0.5 por ciento del presupuesto federal (unos 18 mil millones de dólares al año), y ya no tiene el mismo peso en la política nacional, dijo.


Momentos de gloria


La agencia vivió otros momentos de gloria en los años 80, como el surgimiento del programa de transbordadores, y luego en 1998, con el inicio de las operaciones de la EEI.


Ahora, el presidente Donald Trump ha defendido el regreso a la Luna, mencionando una pasarela que permita un flujo continuo de naves y personas que visiten el satélite, y que será el punto de partida para un viaje a Marte.


También pidió la creación de una fuerza espacial, rama de las fuerzas armadas que se orientaría a defender los intereses de EU.


La Nasa fue considerada mucho tiempo líder en innovación espacial, pero enfrenta una seria competencia: “unos 70 países de una manera u otra están involucrados en la actividad espacial”, señaló Logsdon.


En lugar de competir, “el énfasis se ha puesto en la cooperación” como forma de reducir costos y avanzar en innovación, afirmó Teasel Muir-Harmony, curadora del Museo Nacional del Aire y el Espacio.


La máxima autoridad de la Nasa, Jim Bridenstine, reiteró hace unos días que quiere trabajar con otros países. Señaló la posibilidad de fortalecer la cooperación con China, e informó que en Israel se reunió con grupos que desarrollan un módulo de aterrizaje lunar.


Con el objetivo de una misión tripulada a la Luna en apenas cinco años, la Nasa planea dedicar unos 10 mil millones de dólares a la exploración lunar de un presupuesto de casi 20 mil millones para 2019.

Lunes, 05 Junio 2017 06:42

Un mundo de información creciente

Un mundo de información creciente

Cuanto más sorpresivo es un acontecimiento, mayor información contiene. La cantidad de la información del mundo es directamente proporcional a la sorpresa, la aleatoriedad, en fin, la baja probabilidad del evento.

Vivimos un mundo crecientemente informado, un mundo en el que la información crece a ritmos descomunales. Sin embargo, contra todas las apariencias, la razones no son culturales, científicas o tecnológicas, por ejemplo. Las razones hay que buscarlas en la física.

En efecto, la base para comprender el tema se encuentra en dos planos distintos, pero paralelos. De un lado, en la termodinámica, y de otra parte en la teoría de la información de C. Shannon.

El contenido de información de un evento depende de cuán sorprendidos estamos por la probabilidad del evento que ocurre. Más exactamente, cuanto más sorprendidos nos encontramos, mayor información contiene el evento. Así, por ejemplo, los eventos predecibles, normales, anticipables; digamos incluso, los eventos aburridos —todos ellos— contienen poca información. Por el contrario, cuanto más sorpresivo es un acontecimiento, mayor información contiene. La cantidad de la información del mundo es directamente proporcional a la sorpresa, la aleatoriedad, en fin, la baja probabilidad del evento.

Pues bien, en un mundo crecientemente interrelacionado, un mundo que, literalmente, se ha vuelto pequeño en virtud de la información cruzada e interdependiente; en otro plano, en un mundo en el que los saberes se implican recíprocamente unos a otros y en el que los planos y los contextos son cada vez menos disyuntos —en un mundo semejante, eventos cada vez más improbables emergen. Y con ello, ganamos en información.

En verdad, cuando el mundo era de suma cero, una cantidad de información no tenía alcances globales y de largo alcance. Por el contrario, una vez que vivimos un mundo diferente de suma cero —ahora que nos encontramos en la cuarta revolución industrial—, eventos cada vez menos probables emergen y contienen información creciente, previamente inesperada e inaudita.

Los sistemas vivos procesan información análogamente a como el universo mismo es un sistema de permanente procesamiento de información. Pues bien, la segunda ley de la termodinámica —el principio de entropía de Boltzmann— sostiene que un sistema evoluciona al estado de máxima información en el que ya no es posible ganar más información, ni más información puede ser ya contenida (almacenada).

Pues bien, la entropía es la medida de aleatoriedad de un sistema. En otras palabras, cuando mayor es la entropía de un sistema, mayor información tiene o lleva el sistema en consideración.

De manera puntual, la segunda ley de la termodinámica afirma que un sistema físico alcanza la muerte cuando alcanza el máximo desorden. Esto es, cuando alcanza tal grado de saturación de información que ya no puede con ella; ya no puede procesarla. Dicho franca y literalmente: el sistema ya es incapaz de aprender más. Entonces llega la muerte.

Un investigador importante sostiene que la vida no termina cuando existe poca o baja energía libre disponible. Por el contrario, más exactamente, la vida termina cuando existe una sobredosis de información que ya no se puede procesar. La información creciente es una sola y misma cosa con la generación de entropía, que implica pérdida, agotamiento, incapacidad de procesamiento de información.

Pues bien, el procesamiento de información es computar. Sólo que en medicina, en biología y en ciencias de la vida, la forma como se entiende la computación es como metabolización. Hay organismos que metabolizan muy lentamente y otros que metabolizan más rápidamente. Hay organismos que necesitan ayudas para metabolizar y hay otros que metabolizan sin dificultades, aprenden, se adaptan, son triunfantes en el entorno.

El universo se encuentra constantemente sometido a cambios bruscos, imprevistos, irreversibles. Y cuanto más improbable es un acontecimiento, mayor información hay. Inversamente, cuando menos improbable es un suceso, menor información existe. Pues bien, las dinámicas del universo, la naturaleza y la realidad se ven muchas veces sometidas a cambios bruscos, que es cuando aparece información creciente. Entonces la naturaleza debe tener la capacidad de procesar dicha información inesperada. En esto consiste la aleatoriedad, la contingencia, el azar.

El motor de la historia como el motor del universo no es la existencia de fenómenos de alta probabilidad. Por el contrario, el motor de la vida y la realidad es la aleatoriedad, no el determinismo, que es cuando existen fenómenos, sistemas y comportamientos de muy baja probabilidad, pero que tiene o llegan a tener lugar.

La ciencia en general se alimenta de sorpresas, y el asombro fue ya reconocido por los griegos antiguos como la madre del conocimiento. Cuando somos capaces de asombrarnos, cuando emerge la exigencia de procesamiento de información nueva. Y en consecuencia, la exigencia de un mejor procesamiento de la información.

Un científico importante sugirió la siguiente fórmula: “It comes from bit comes from qubit”, que significa que las cosas son, en realidad, unidades de información (no entes físicos por sí mismos), y que, a su vez, las unidades de información se fundan en información cuántica (qubit).

La información cuántica no es información de “o una cosa o la otra”, sino “las dos cosas a la vez, así sean diferentes”. Pues bien, a la fecha, el mejor modo de explicar el procesamiento de información es mediante la computación cuántica. Que es, según todo parece indicarlo, la forma como el universo y los sistemas vivos procesan información: desde las células hasta los órganos, desde las interacciones de unos organismos con otros hasta las dinámicas de biomas, nichos ecológicos y ecosistemas. Que son los lugares y formas como la información aumenta, crece, evoluciona.

Y entonces nos enfrentamos al más fabuloso de todos los dilemas: cómo procesar información creciente. En esto consiste exactamente la complejidad del mundo, la naturaleza, la sociedad y la realidad.

Publicado enCultura
Luego de media hora de ascenso, a 27 mil kilómetros por hora, la ISRO declaró éxito en la misión.

 

El proyecto costó 73 millones de dólares menos que la producción de la película Gravity.

Rusia poseía, en 2014, el récord anterior de lanzamientos simultáneos, con 103 viajes.

 

 

India entró el miércoles en los anales del competitivo mercado de lanzamientos espaciales, con la puesta en órbita de 104 satélites con un solo cohete, un nuevo récord mundial.

A las 9:28 (3:58 GMT) horas, un lanzador orbital PSLV (Polar Satellite Launch Vehicle) se elevó de la plataforma de tiro de Sriharikota transportando un satélite indio de observación de la Tierra, de 714 kilos y 103 nanosatélites, en su mayoría de países extranjeros, con un peso total de 664 kilos.

Tras media hora de ascenso a 27 mil kilómetros por hora, la Organización de Investigación Espacial india (ISRO) anunció: La misión PSLV-C37/Cartosat-2 Series lanzó con éxito los 104 satélites, tuiteó.

Mis más sinceras felicitaciones a los equipos de la ISRO, declaró el director de la agencia espacial india, Kiran Kumar.

El récord anterior de lanzamientos simultáneos estaba en manos de Rusia, que en junio de 2014 había puesto en órbita 39 satélites.

 

Habitantes de Sriharikota observan el despegueFoto Afp

Habitantes de Sriharikota observan el despegue / Foto Afp

 

 

Excepcional

 

Es un éxito excepcional, declaró por su parte el primer ministro indio Narendra Modi, que aspira a que el país se convierta en una verdadera potencia espacial.

Este lanzamiento es un nuevo momento de orgullo para nuestra comunidad científica espacial y para la nación, tuitéo el primer ministro nacionalista. Administrar simultáneamente una cantidad tan importante de satélites –por más livianos que sean– exige una precisión extrema, señalan los especialistas.

Lanzar tantos satélites al espacio de una sola vez es un desafío técnico porque no tienen la misma trayectoria, indicó Mathieu J. Weiss, representante del Centro Nacional de Estudios Espaciales francés en India.

Además, hay que evitar que se toquen en el momento del lanzamiento, agregó Weiss.

El mercado del lanzamiento de satélites comerciales no deja de crecer en un contexto en el que la telefonía, la Internet y las empresas necesitan cada vez más medios de comunicación. India, cuyo programa espacial es conocido por la optimización de los gastos, compite directamente en este sector con otros actores internacionales.

En particular se enfrenta a la emergencia de sociedades privadas especializadas, el llamado movimiento de emprendedores del new space (nuevo espacio), como SpaceX o Blue Origin. Desde el inicio del programa de lanzamiento de satélites comerciales en 1999, la ISRO había colocado en órbita hasta el día de hoy 79 satélites extranjeros.

India supo combinar fiabilidad y reducción de costos para hacerse un lugar en el mercado espacial mundial, opinó Ajay Lele, del Instituto de Estudios y Análisis de Defensa de Nueva Delhi.

 

Sólo un accidente

 

En 39 misiones, el lanzador PSLV sufrió sólo un accidente, en el primer evento, en 1993. El programa espacial indio, inaugurado en los años 60, llamó la atención del mundo en 2014, cuando logró colocar una sonda en órbita en torno a Marte.

El proyecto costó apenas 73 millones de dólares, menos que la película Gravity y 10 por ciento de lo que pagó la Nasa por una misión similar.

Símbolo de la conquista india del espacio, Mangalyaan, como allá se denomina popularmente a la sonda cuyo nombre oficial es Mars Orbiter Mission, aparece en los nuevos billetes de 2 mil rupias puestos en circulación.

India está desarrollando además un transbordador espacial reutilizable que podría permitir enviar satélites a un costo menor del actual. Al mismo tiempo, la ISRO estudia la posibilidad de lanzar misiones hacia Júpiter y Venus.

“India, con sus métodos inspirados a la vez de la simplificación de la tecnología y del new space, porque India es el segundo centro de new space después de California, tiene una carta que jugar”, analiza Weiss.

 

 

Así es como planea China utilizar el espacio para afrontar a EE.UU.

El avance sin precedentes en las tecnologías cósmicas de China deberá satisfacer las necesidades militares del país asiático.

 

Para muchos expertos que siguen con atención el desarrollo de la situación en la región de Asia Pacífico el sistema antiacceso y de negación de área de China (A2/AD, por sus siglas en inglés) es el desafío más serio que afronta EE.UU. En su intento de aumentar su presencia militar en la zona, según 'The National Interest'.


El sistema incluye el misil DF-16 (con un alcance de 1.000 kilómetros), el bombardero nuclear H-6K, el misil tierra-aire HQ-12 y el misil chino DF-21D, apodado el 'asesino de portaviones'. La función del A2/AD es restringir el acceso al enemigo a una determinada ubicación estratégica.


Al mismo tiempo, la aplicación de este sistema es inmensamente complicada. Si China logra ponerlo en práctica será gracias al rápido avance de su capacidad espacial y su infraestructura de satélites.


Para impedir el acceso de los enemigos a sus objetivos estratégicos, China debe ser capaz de aplicar el concepto de organización de ataques 'kill-chain', consistente en identificar un objetivo, evaluar la fuerza a aplicar para destruirlo y garantizar el éxito del ataque. En otras palabras, se necesita poder detectar objetivos, lanzar municiones y evaluar los daños potenciales del oponente a largas distancias. Todo eso muestra a su vez una gran dependencia del sistema computerizado C4ISR y de la capacidad de seguimiento que funcionan a base de tecnologías espaciales.


China ha experimentado una expansión sustancial de su programa de satélites. En 2000 poseía solo 10, en comparación con los 181 que dispone actualmente. En comparación, Estados Unidos y Rusia tienen 576 y 140 satélites, respectivamente.


China también ha diseñado satélites con una serie de capacidades especiales, como el radar de apertura sintética (SAR) y la inteligencia electrónica (ELINT).


La estrategia A2/AD requiere también una capacidad espacial de guía de misiles. Con este fin, China ha pasado años desarrollando su propia versión del Sistema de Posicionamiento Global (GPS), llamado 'Beidou'. En la actualidad, Beidou tiene 19 satélites operacionales y se implementa a nivel regional con planes de expansión en todo el mundo para el año 2020.

 

Publicado: 20 ago 2016 01:30 GMT | Última actualización: 20 ago 2016 01:34 GMT

Publicado enInternacional
Internet directo desde el cielo  para todo el mundo

La empresa europea Airbus se lanza a construir centenares de satélites en Estados Unidos para uno de los proyectos globales que compiten por la banda ancha espacial.


Hasta hace unos meses era sólo un proyecto poco claro para establecer una constelación de pequeños satélites que proporcionen acceso directo a Internet a usuarios en cualquier lugar del mundo con un precio asequible. Ahora se ha concretado en lo que será la primera cadena de montaje de satélites de la historia, situada en Florida (EE UU), donde el gigante europeo aeroespacial Airbus producirá en serie centenares de ellos idénticos.

La organización industrial parte del consorcio creado recientemente por la división de defensa y espacio de Airbus y la empresa OneWeb, impulsora de esta constelación de satélites para Internet. Airbus fue elegido en junio pasado por OneWeb para fabricar los satélites. Está previsto que la fábrica, situada cerca del Centro Espacial Kennedy, produzca 900 satélites para OneWeb, así como para otros clientes en el futuro.


La generación de jóvenes millonarios de Silicon Valley es la que tiene más claro que el acceso directo a Internet es la próxima oportunidad de negocio global en el área de las telecomunicaciones y ya se habla de una carrera por ver quién se lleva el mercado de los 4.400 millones de personas que nunca han tenido acceso a Internet por falta de infraestructura o tienen un servicio de muy baja calidad.

El contendiente más avanzado parece ser OneWeb, cuyo presidente es Greg Wyler, un estadounidense de 45 años que trabajó para Google, ganó mucho dinero y luego se ha dedicado a implantar servicios de Internet por satélite a pequeña escala, especialmente en África y el Pacífico para llegar a lo que él llama "la mitad del mundo sin Internet". Su proyecto implica transmitir banda ancha a pequeñas antenas, en los tejados y alimentadas por energía solar, o en cualquier vehículo.

El otro proyecto lo lidera Elon Musk, de 44 años, el millonario hiperactivo sudafricano que fue cofundador de Paypal, ahora dirige la empresa de automóviles Tesla y ya tiene gran experiencia espacial a través de su empresa Space X. “La velocidad de la luz es un 40% mayor en el vacío del espacio que cuando circula por una fibra óptica”, ha señalado Musk, quien ve en los satélites en órbita baja un medio accesible para aumentar la velocidad del servicio en general y para llegar a lugares poco poblados. Sin embargo, por ahora son ha concretado sus planes.


Diferentes estrategias


Curiosamente, Wyler y Musk son amigos, pero no se ponen de acuerdo, al parecer, sobre la estrategia a seguir para el acceso a Internet por satélite. Wyler confirmó en junio su asociación con pesos pesados como Virgin, Coca-Cola, Qualcomm e Intelsat. Esta última empresa opera en la misma banda de frecuencia que utilizaría OneWeb, con grandes satélites en órbita geoestacionaria (a 36.000 kilómetros de altura), por lo que la asociación empresarial limará posibles interferencias entre los dos sistemas.

Miércoles, 17 Febrero 2016 06:07

Llega la ‘fibra óptica’ del espacio

Llega la ‘fibra óptica’ del espacio

La autopista de la información en el espacio está a punto de empezar a funcionar en Europa con la transmisión de datos a alta velocidad entre satélites, lo que algunos expertos consideran el equivalente en órbita de la fibra óptica en tierra. Es el sistema EDRS (Europen Data Relay System) y “es capaz de transmitir datos prácticamente en tiempo real a una velocidad sin precedentes de 1,8 Gbit por segundo”, informa la Agencia Europea de Espacio (ESA). El primer terminal láser del conjunto está ya en órbita geoestacionaria (a casi 36.000 kilómetros de altura sobre la superficie terrestre) tras su lanzamiento integrado en el satélite de comunicaciones Eutelsat-9B, el pasado 30 de enero, con un cohete ruso Protón. Ahora se realizarán las pruebas en órbita y el EDRS estará operativo el próximo verano, si todo marcha según lo previsto, para transmitir la información de satélites de observación de la Tierra con los que estará en conexión por láser.


La transmisión de datos en el espacio, por radio, es desesperadamente lenta y cada vez más ineficaz a medida que las capacidades de los equipos en órbita aumentan y pueden registrar enormes cantidades de información. “Si queremos hacer un Google Maps de toda la superficie de Marte, se tardarían nueve años en traer a la Tierra todos los datos con el sistema actual de radiofrecuencia, cuando Marte está en el punto más cercano”, ha comentado a Space.com Don Cornwell, director de Comunicaciones Avanzadas y Tecnologías de Navegación, de la NASA. Y no se refiere al retraso de la señal (entre cuatro minutos, como mínimo, y 24 minutos cuando los dos planetas están más lejos uno de otro), insuperable debido al límite insuperable de la velocidad de la luz, sino a la capacidad de transmisión de información, un auténtico cuello de botella con el volumen creciente de datos transmitidos en el espacio. “El sistema de comunicación por láser tiene un ancho de banda 40 veces mayor [que el que se utiliza actualmente], lo que significa que pueden traerte ese mapa Google de toda la superficie marciana en nueve semanas en lugar de nueve años”, continúa Cornwell.


El EDRS europeo no está diseñado para enviar información desde Marte, sino para agilizar enormemente la recuperación de datos de observación de la Tierra, un sector en pleno apogeo con instrumentos en órbita que captan cada vez más información, incluidas imágenes de alta resolución, imprescindible para meteorólogos, oceanógrafos y estudiosos del clima, para labores de vigilancia del uso del suelo, e incluso para comunicaciones ágiles en casos de emergencias. Los primeros datos transmitidos por láser con este sistema serán los generados por los satélites Sentinel-1 y Sentinel -2, del programa europeo Copernico.


Hasta 50 terabytes de datos al día se podrán enviar de forma segura a los centros de recepción en Tierra “y casi en tiempo real, no con varias horas de demora como ocurre actualmente”, informa Airbus Defense and Space, el socio de la ESA en este programa, cuyo coste de desarrollo asciende a unos 500 millones de euros. El sistema europeo, además de capacidad de comunicación por láser infrarrojo (a una distancia de hasta 45.000 kilómetros), puede transmitir datos entre satélites por radiofrecuencia (en banda Ka) a 300 Mbit por segundo.


Al módulo EDRS-A, el que ya se ha lanzado y que está situado sobre Europa (en órbita geoestacionaria, un satélite gira alrededor del planeta , de manera que siempre esta sobre la misma zona de la superficie), se añadirá una segunda unidad en 2017, que servirá para ampliar la obertura (continente europeo, África, Oriente Medio y la costa oriental de América) y actuar de reserva del primero. La idea es lanzar un tercer elemento, en 2020, para cubrir el área Asía-Pacifico. Los centros de recepción de datos del sistema están en Alemania, Bélgica y Reino Unido.


“El Space Data Highway ya no es ciencia ficción”, declaró Evert Dudock, responsable en Airbus Defense and Space. “Revolucionará las comunicaciones de satélites y vehículos aéreos no tripulados, y contribuirá a que la industria espacial europea se mantenga en la vanguardia de los servicios tecnológicos e industriales”. Efectivamente, el sistema no solo es apto para transferir grandes volúmenes de información entre satélites, sino que también sirve para la comunicación con vehículos aéreos no tripulados, aviones de vigilancia o bases orbitales. De hecho, está previsto utilizar el EDRS con la Estación Espacial Internacional (ISS) en 2018. La NASA ya ensayó la comunicación con la estación por láser en junio del año pasado, con el experimento OPAL, que permitió enviar desde la ISS a la estación receptora, en California, un vídeo de alta definición en tres segundos y medio, en lugar de los 10 minutos que se tarda con el sistema tradicional.


Europa, por su parte, ensayó en 2014 este tipo de conexión óptica entre el satélite de observación de la Tierra Sentinel-1A, en órbita a 700 kilómetros de altura, y el Alphasat, en órbita geoestacionaria.


El reto tecnológico para establecer y mantener el enlace con un finísimo haz láser entre artefactos a mucha distancia y desplazándose a gran velocidad es enorme. Dudok pone un ejemplo: “Sería como ir conduciendo un deportivo en Europa y apuntar el haz láser a una moneda de dos euros en Nueva York; y no solo hay que apuntar con gran precisión sino también seguir el satélite o no se podrá mantener la comunicación”.


Pero, ¿qué pasa si una densa capa de nubes cubre la región en la superficie terrestre donde está el centro de recepción de los datos enviados mediante láser desde un satélite? En realidad, no todo el sistema EDRS es láser, sino exclusivamente la conexión entre satélites, luego, la transmisión de la información desde el que está en órbita geoestacionaria y ha recibido los datos, los reenvía a la Tierra por radiofrecuencia.


¿Dónde está la ventaja entonces? Pues precisamente en el hecho de que el repetidor en geoestacionaria tiene contacto con permanente, 24 horas, por radio, con la estación de recepción, mientras que los satélites de órbita baja, como los de observación de la Tierra, tienen una ventana de sobrevuelo reducida. Por ello envían una cierta cantidad de datos en una órbita, durante unos cuantos minutos, luego se interrumpe la transmisión y continúa el volcado de datos en la siguiente órbita, lo que demora mucho su recepción y,por tanto, condiciona a la baja la cantidad de información que puede captar con utilidad (si es necesario tenerla rápido).


Con la nueva autopista de la información en el espacio, el satélite en órbita baja envía mediante conexión óptica gran cantidad de información al satélite en órbita geoestacionaria y luego sigue su órbita fuera de la visibilidad de la estación de recepción, mientras que el satélite repetidor, que está a la vista y en contacto permanente con los centros de recepción en tierra, sigue mandando por radio la información que ha recibido por láser.


Airbus Defense and Space afirma que la tecnología de apuntadores láser que ha desarrollado su filial Tesat Spacecom “permite interconectar con una elevada precisión dos terminales láser ubicados a 75.000 kilómetros de distancia el uno del otro”. La compañía destaca también la participación española en el programa, que ha aportado el reflector desplegable de banda Ka de 2,2 metros de diámetro instalado en el satélite que lleva el módulo EDRS-A, así como una estructura de montaje.


Ensayo desde la Luna


Mientras la comunicación espacial por láser se hace operativa en órbita terrestre, los expertos están ya trabajando en el sistema para cubrir distancias muchos mayores. Por ahora se ha llegado a la Luna, pero Marte, también en esto, es el próximo objetivo.


Fue en septiembre de 2013 cuando la NASA logró el récord de distancia de comunicación por láser en un ensayo realizado con su sonda espacial automática LADEE, en órbita lunar, a 384.000 kilómetros de distancia, y transmitiendo 20 megabits por segundo.


Marte está mucho más lejos. Don Cornwell, director de Comunicaciones Avanzadas y Tecnologías de Navegación de la NASA, afirma que un sistema láser como el actual que pudiera comunicarse con un satélite en órbita del planeta rojo precisaría una señal aproximadamente un millón de veces más potente que la de LADEE, informa Space.com. Y cuanto más lejos, más difícil es apuntar el láser y descifrar el contenido de datos. Cualquier vibración, aunque fuera minúscula, del satélite emisor en Marte podría hacer que el haz láser no atinase a la Tierra.


De cualquier forma haría falta un buen telescopio en la Tierra para captar el haz láser emitido en Marte, y se está ya estudiando incluso cómo la técnica de óptica adaptativa de los observatorios astronómicos modernos podría ayudar a eliminar la distorsión que la atmósfera terrestre provoca en el haz luminoso.


Con una autopista de la información entre Marte y la Tierra se multiplicaría la información procedente del planeta vecino.

Primero revolucionó el conocimiento sobre los agujeros negros, después y presentó un modelo del universo, y de lo finito lo infinito, antes de que los satélites comprobaran que existía. Pero Jean Pierre Luminet, que esta semana expondrá sus ideas en Buenos Aires, también avanza en el terreno de las artes y presenta una visión del mundo y de la ciencia que entrecruza lo científico con el imaginario.

Desde París


Definir una teoría sobre la topología del universo, sobre lo infinito del cosmos, sobre los agujeros negros y sobre lo visible y lo invisible no sofoca la humanidad del instante. La garúa cae con persistencia en el parque del Observatorio de París Meudon. Imposible encontrar la puerta de entrada en este vasto recinto. Corre la hora de la cita con el astrofísico francés Jean Pierre Luminet y ningún camino visible conduce a la puerta del Laboratorio Universo y Teorías, LUTH, donde trabaja. Jean Pierre Luminet toma su auto y acude en ayuda del visitante perdido en un ángulo lejano de parque. Astrofísico fuera de lo común, especialista en la gravitación relativista, pionero de las investigaciones sobre los agujeros negros, divulgador científico ejemplar, especialista en cosmología y en la topología del universo, poeta y novelista, Luminet concentra una alucinante convergencia de disciplinas. En 1979, Luminet fue el primero en simular las distorsiones ópticas provocadas por el campo gravitacional de un agujero negro; en 1982, innovó con el estudio de los efectos del paso de una estrella en las inmediaciones de un agujero negro súper masivo. A partir de 2003, Luminet concibió un modelo sobre la forma del espacio corroborado luego por las observaciones satelitales. Este modelo fue expuesto por el astrofísico francés en un libro que lleva el nombre de su esquema topológico: L’Univers Chiffonné, el Universo arrugado o “en bollo”. Esta patrón sobre la topología plantea que el universo podría estar cerrado sobre sí mismo, un poco como una pelota de fútbol pero con una forma dodecaédrica.

Calificado como un “descubrimiento mayor”, este modelo no cierra el debate ancestral sobre la infinitud o la finitud del universo. Sin embargo, agrega una contribución al conocimiento de nuestro vasto mundo. En paralelo a sus brillantes investigaciones científicas, Luminet escribió varios libros de poemas y novelas de divulgación científica sobre esos genios de la historia que son Newton, Galileo y Kepler.

La forma del universo


–Hemos tenido varios modelos del universo. En breve, el de Ptolomeo, el de Copérnico y el de Galileo. En la ciencia contemporánea, también hubo varios modelos sobre la infinitud o la no infinitud de nuestro universo. Usted ha propuesto un esquema fuera de lo común.

–La talla del universo, es decir, es finito o infinito, es una cuestión que se remonta a los pensadores de la antigüedad. En el curso de los siglos hubo un ir y venir entre la idea de un universo finito y un universo infinito. La situación moderna permite que esas cuestiones sean abordadas no ya desde las teorías de Galileo, Copérnico, Kepler o Newton sino con la ley de la Relatividad General de Einstein. A ella hay que agregarle preceptos matemáticos nuevos como los de la topología. Eso permite poner sobre el papel infinitos tipos de espacios posibles. Con la topología se descubrió que existe un número infinito de espacios posibles. Hay espacios finitos sin bordes, y modelos de espacios infinitos. Esas dos opciones son posibles en el marco de los modelos cosmológicos actuales, que se llaman modelos relativistas porque están basados en la teoría de Einstein. Son los famosos modelos en expansión derivados del Big Bang. Hay dos, sea que se trate de una expansión por contracción, sea de una expansión perpetua, acelerada. Con ello tenemos una respuesta sobre la dinámica, es decir, sobre la historia en el curso del tiempo, pero aún no tenemos una respuesta sobre la extensión del espacio: no sabemos si el espacio es finito o infinito.

–Es allí donde se sitúa su descubrimiento: el universo arrugado.

–Sí, lo llamé así de forma metafórica. Se trata de una modelización matemática con una forma del espacio fascinante que trasladé a la cosmología. Un universo arrugado es un modelo de espacio finito, que no tiene bordes. ¡Claro, no es simple concebir la idea de un espacio finito sin bordes! Para explicarlo de alguna manera diría que si viajamos en un cohete en línea recta sin dar la vuelta, un espacio finito sin bordes nos traerá a nuestro punto de partida. Hay en esto una analogía con la superficie de una esfera, que es en dos dimensiones. Una línea recta es como un gran círculo que da la vuelta completa. Se regresa al punto de partida sin chocar con ningún borde ni ir al infinito. Se puede imaginar esto, pero en tres dimensiones. Se pueden imaginar espacios normales, en tres dimensiones, en los que se viaja derecho y se vuelve al punto de partida. Ahora bien, este tipo de espacio es clásico y se conoce desde hace mucho. Pero hay variantes topológicas, como la que yo llamé el universo arrugado, en donde los espacios están reconectados. Si tomamos una hoja de papel y pegamos los bordes para hacer un cilindro y luego cortamos los extremos y los volvemos a pegar, tenemos entonces una superficie finita pero sin bordes. Así se pueden construir miles de espacios tridimensionales, finitos, sin bordes y reconectados. Es un poco como la pantalla de un videojuego: el cohete va hacia delante y en cuanto llega al borde de la pantalla el cohete reaparece del otro lado. Los bordes están así reconectados. Entonces, un modelo de espacio arrugado es un modelo de espacio tridimensional que carece de bordes. En realidad, hay bordes, pero como están pegados, reconectados, eso los suprime. Aclaro que este esquema no es un juego o una fantasía matemática sino una propuesta de espacio físico real.

Lo finito y lo infinito


–Con este modelo se crea una suerte de ilusión óptica que desemboca en réplicas del universo o de los objetos observados.

–Efectivamente. La reconexión de los espacios multiplica los caminos de los rayos luminosos entre dos puntos. Ello crea imágenes múltiples de un mismo objeto celeste: una galaxia lejana podría ser vista en varios ejemplares, en diferentes lugares del espacio, y sin reconocer que se trata del mismo objeto porque la estamos viendo en diferentes momentos de su historia. ¡La luz recorre muchos caminos distintos hasta llegar a nosotros! También se pueden fabricar modelos del espacio arrugado cuyo tamaño físico es más pequeño que el espacio que se observa. En general, se piensa que observamos un subconjunto de una realidad que es extraordinariamente grande, tal vez infinita. Aquí, al contrario, asistimos a una redundancia: observamos una duplicación del universo físico entero más allá del cual solo veríamos una réplica, una repetición. En el año 2003, las observaciones astronómicas realizadas por un satélite de la NASA que cartografió la luz fósil encontraron indicios capaces de sustentar este tipo de modelo, en lo concreto a uno de los modelos de espacio que propuse. Se trata de una forma del universo que se asemeja a un dodecaedro cuyos lados pegados, reconectados, hacen que viajemos de una cara a la otra sin salir nunca de la caja. Esta modelización topográfica del espacio del universo no pone en tela de juicio los modelos existentes, el Big Bang, por ejemplo. En cambio, sí pone en tela de juicio nuestra relación con lo real entre el espacio percibido, el verdadero espacio, y las ilusiones ópticas.

–De alguna manera usted encontró una de las formas de lo infinito.

–Me gusta mucho la paradoja que hay en todo esto. Siempre existió el debate entre espacio infinito y finito. Con el modelo del universo arrugado tenemos un modelo de universo finito pero capaz de dar la ilusión de lo infinito. En cierta forma volvemos a la pregunta fundamental planteada por Aristóteles: ¿el infinito actual o el infinito potencial? Con este modelo del universo arrugado tenemos un infinito que no está reactualizado porque el espacio sería así realmente finito, pero con la ilusión y la apariencia de ser infinito. Es un juego de espejos. Aclaro que no es el universo el que se repite en un juego de espejos sino la percepción que nosotros tenemos de él. Imaginemos una pieza tapizada de espejos en la cual encendemos velas. La habitación no se repite, es la ilusión de la visión la que crea la sensación de infinito. La pieza es única.

–Usted fija un límite, si se puede decir, a lo que la teoría de la Relatividad General puede explicar. Usted dice que se llega a un momento en que la teoría de Einstein no sirve para explicar la cuestión del infinito. Ello implica un afirmación objetiva: no existe teoría absoluta para explicar la vida, el universo.

–Por supuesto que no. Como toda teoría científica, por más bella y elegante que sea, la Relatividad General acabó por encontrar sus límites. Lo mismo ocurrió con algunas teorías de Newton, que funcionaron durante 150 años. A finales del siglo XIX la física era completamente newtoniana. Todo iba muy bien hasta que un físico inglés de la época recordó que existían solo dos nubes para poder explicarlo todo con Newton: esas dos nubes van a desembocar en la teoría de la relatividad y el la física cuántica. En el siglo XX se dijo lo mismo, que la Teoría de la Relatividad explicaba todos los fenómenos a gran escala mientras que la física cuántica explica todo lo que es infinitamente pequeño. Se dijo: casi no queda nada por hacer, a no ser unir las dos teorías para elaborar una teoría definitiva, final y única. Pensar así es inocente. La teoría de Einstein tiene dos límites: el primero a escala de lo infinitamente pequeño, el segundo, la Teoría de la Relatividad igualmente incompleta a escala de lo infinitamente grande. La Teoría General de la Relatividad no dice si el espacio es finito o infinito. Para completarla hace falta agregar las hipótesis de la topología, que es lo que yo hice.

–Usted aborda también esta pregunta en su libro El Universo arrugado. La idea del infinito, ¿acaso nos expone o nos protege?

–Depende del sentimiento cósmico que hay en cada individuo, de su cultura, de sus opciones filosóficas. Puede que sintamos terror frente a la idea del infinito porque como no tiene fin nos sentimos perdidos. No hay ni centro ni borde y así carecemos de referencias. Cuando en los siglos XVI y XVII, con la gran revolución astronómica que va de Copérnico a Newton, se plasma la concepción cosmológica de un universo, que era pequeño, finito y cerrado en la antigüedad, al universo inmenso, tal vez infinito, de Newton, se produce una pérdida de referencias. Para otras personas, al contrario, la idea de lo infinito no es perturbadora. Giordano Bruno decía “un espacio infinito multiplica al infinito las posibilidades”. Ello implica la idea de la pluralidad de los mundos, etc. Hoy, cuatro siglos más tarde, siguen existiendo las dos modelizaciones posibles, ambas compatibles con la relatividad y el modelo del Big Bang. Incluso en el seno de la comunidad científica hay quienes prefieren un espacio infinito y otros no. Puede que un científico racionalmente esté con la idea de un espacio finito y que, al mismo tiempo, filosóficamente prefiera el otro espacio.

La racionalidad científica y el imaginario


–¿Ambas opciones son posibles en la racionalidad científica?

–Desde luego que sí. Los científicos no se han sacado de encima la subjetividad. Desde el vamos, todo modelo científico parte de nuestro imaginario, igual que toda creación. Ese imaginario será luego reelaborado en un modelo que obedece a reglas, a obligaciones, a la coherencia matemática, a la comparación con las observaciones, a la experiencia. Insisto igualmente en que las preferencias de los científicos tienen una relación con la estética. Desde el nacimiento de la ciencia hay como una apuesta filosófica de que existe una forma estética en la organización del cosmos. La física es eso, una apuesta a favor de que existan leyes físicas en lugar de un caos sobre el que nunca entenderemos nada. Esa apuesta sobre la existencia de una forma de orden en el universo se asemeja a una forma de la estética. Para un matemático o un físico, la estética va a pasar por una formulación matemática o geométrica elegante en la descripción del universo.

–Hay en el espíritu humano una dualidad esencial: razón y providencia. Nada ilustra mejor esa dualidad como el baúl de Newton. El hombre que creó la ciencia moderna tenía un baúl lleno de escritos esotéricos que se descubrió muchos siglos después de su muerte. Como si el infinito sólo pudiese alcanzarse mediante el arte, la religión o la filosofía.

–Los escritos encontrados en al baúl de Newton no están en contradicción con sus escritos racionales. Pero creo que todos sus escritos escondidos en el baúl, es decir, sus investigaciones en torno de la alquimia, sus investigaciones sobre los escritos bíblicos, sus cálculos sobre el Apocalipsis, su fascinación por el esoterismo y el hermetismo, esto forma un todo. Newton es un personaje extremadamente complejo. Sin embargo, esa tendencia a mezclar investigaciones racionales e irracionales se explica porque nuestro imaginario no es racional. Sacamos nuestras teorías racionales de nuestro imaginario, que no lo es. En mi serie sobre los constructores del cielo mostré cómo Kepler, que es un personaje genial, no dudó en mezclar en todos sus tratados científicos, astronómicos y matemáticos las consideraciones místico-religiosas. Ahí vemos el funcionamiento de un espíritu extraordinariamente creativo, sin separación. El sabio más racional siempre funciona con su imaginario.

–Esa dualidad ciencia/imaginario, razón e irracionalidad, usted la expuso mediante un trabajo creativo muy fructífero: novelas históricas sobre los genios de la ciencia, música, poesía.

–Cuando yo era adolescente mi verdadera pasión era la literatura, la poseía. La poseía es una forma de expresión particular que se asemeja un poco a la ecuación matemática. En la poesía se intenta unir en una frase un núcleo, el núcleo duro del sentido, lo mismo que en una ecuación se concentra el núcleo duro de una teoría. La literatura, la poesía, la música, terminó por alimentar mi imaginario. No se si todo eso influyó en las ideas que luego tuve en la ciencia, tal vez sí. Pero son caminos subterráneos, con muchas ramificaciones. Antes de que me consagrara a los trapazos sobre el universo arrugado yo me dediqué a la investigación sobre lo invisible, es decir, a los agujeros negros. Me sentí atraído por lo invisible, por la idea de visualizar lo que no se ve. Y esto no es ajeno a mi fascinación por una forma de literatura como la de Borges o Cortázar. En esos juegos de espejos, la biblioteca de Babel, hay en todo esto muchas correlaciones. Sigo fascinado por las relaciones entre lo visible y lo invisible, lo percibido y lo no percibido, las ilusiones ópticas, los espejos. A su vez, la ciencia influyó en mi obra poética. Por ejemplo, mis poemas fueron adquiriendo con el tiempo una forma cada vez más topológica, una suerte de polisemia que proviene de un enfoque topológico, con una relación de conexiones entre frases y palabras que se pueden cambiar. Cada vez que cambiamos las conexiones se cambia el sentido del poema, y eso me gusta mucho. Esa es una clara influencia de mis investigaciones científicas en la poesía. Y como tengo la pasión de la escritura escribí libros de vulgarización científica sobre los agujeros negros, unos 15 en total, y luego novelas. En los años ’90 me interesé en la historia de las ciencias, en las ideas, y volví a la escritura con obras sobre los grandes creadores de ideas del pasado: Copérnico, Kepler, Newton. Los tres propusieron mucho más que el sol en el centro del universo, las elipsis y Newton la ley sobre la atracción universal. A través de las novelas sobre ellos quise contar la gran historia, el inmenso debate de ideas que hubo en el curso del tiempo. En total escribí seis novelas sobre estos genios y las ideas que se discutieron durante siglos y siglos. Quise contar la historia de la ciencia pero no mediante una biografía lisa en la que sólo se muestran los éxitos de los científicos y las cosas brillantes. No. Son gente de carne y hueso y yo elegí contar también las cosas escondidas. Fíjese en Kepler: con todos los problemas derivados de su enfermedad física, de sus problemas económicos y familiares fue capaz de llegar, en contados momentos, a desbloquear su espíritu, a evadirse.

La ciencia y el arte


–En realidad, esos científicos –como los de ahora–, al construir el cielo construyeron la Tierra.

–Desde luego. A menudo la gente cree ocuparse de la organización celeste es estar desconectado de los asuntos terrestres. ¡Para nada! Cuando miramos la historia vemos que sin esos cambios globales de la visión del mundo, la sociedad actual no sería lo que es. Las grandes preguntas humanas tampoco están ausentes en esas temáticas: el lugar del ser humano en el universo, el sentido de la existencia, etc., etc. Se puede pensar que la astrofísica evacua un poco al hombre del universo porque nos damos cuenta de que somos un puñado de polvo ínfimo. Pero, por otro lado, otros enfoques ofrecen lazos más interesantes y nos muestran que estamos inscriptos en una historia cósmica hecha de materia y de átomos fabricados por las estrellas durante miles de millones de años. Toda la historia del universo está en nosotros. Es maravilloso reencontrar mediante la ciencia moderna, que trata de desprenderse de las viejas ideas, toda la historia del universo en nosotros. Y no sólo a través de nosotros, sino también del conejo, la lombriz. En suma, la vida en sí, la comple-jidad acunada en la historia del universo. Esto cambia la perspectiva del sentimiento cósmico y las interrogaciones sobre lo que hacemos en el universo. Por cierto, estamos hechos de polvo, pero somos polvo pensante.

–A sus maneras distintas, ¿acaso la ciencia y el arte no son dos formas de creación de la verdad?

–No sé si se puede decir que toda creación desemboca en una forma de verdad. Seré prudente en este enunciado. No pienso en términos de una verdad absoluta con una gran “V”. Diría que hay verdades provisorias. La ciencia es una creación intelectual que puede confrontarse con las observaciones y la experiencia. No pretendo que eso sea la verdad del universo. El universo es como es y es indiferente a nuestras teorías. Además, no existe ningún modelo científico eterno. La teoría del universo arrugado subsiste desde hace 7 años, y no está mal. Si dura 20 años más es aún mejor. Ello querrá decir que abrió pistas nuevas sobre nuestras concepciones sobre el espacio. Ciencia, arte, todo esto es creación pura. No me animo a decir que es creación de la verdad. Tal vez sea una creación para nuestra verdad interior, que no es universal.
Publicado enInternacional

El medio subglacial de la Antártida es más dinámico de lo que parece. Bajo las extensas y gruesas capas de hielo hay lagos de todos los tamaños y muchos de ellos se llenan y vacían, pasando el agua de uno a otro, líquido que facilita el desplazamiento de los glaciares. Una investigación realizada con un altímetro láser desde un satélite de la NASA ha identificado ahora 124 lagos activos subglaciales en el continente blanco. Además, la investigación, que ha durado más de cuatro años, ha permitido presenciar procesos de llenado y vaciado de lagos, por lo que estos depósitos subglaciales, funcionan como una red de fontanería a escala continental, dicen los científicos.

"El descubrimiento reciente de lagos subglaciales en la Antártida ha cambiado nuestro mismo concepto del sistema hidrológico subglacial de la capa helada", afirma Benjamin Smith, científico de la Universidad de Washington en Seattle (EE UU), líder de la investigación. "Hemos hecho la estimación de los cambios de volumen de cada lago", añaden en su artículo, publicado en la revista Journal of Glaciology.

No es ésta la primera exploración de los lagos subglaciales del continente blanco. De hecho, las estimaciones hasta ahora indicaban que habría unos 280. Pero los registros anteriores puntuales no permitían determinar si se trataba de bolsas de agua estáticas o dinámicas. Gracias al Geoscience Laser Altimeter System (GLAS), a bordo del satélite Icesat, han podido detectar y medir durante cuatro años y medio (desde octubre de 2003 a marzo de 2008), cambios de elevación en el hielo, deformaciones superficiales, en casi todo el territorio antártico asociadas a la dinámica de los lagos ocultos. Una clave de su trabajo consiste en comparar los registros tomados en varios sobrevuelos -dos o tres cada año- del satélite sobre cada sección del territorio.

"La hidrología subglacial supone todo un nuevo campo que se abre con el descubrimiento de los lagos llenándose y vaciándose en relativamente poco tiempo con grandes volúmenes de agua", adelantaba el glaciólogo Robert Bindschaller ya en 2007. Ahora, los nuevos datos muestran que en algunos casos, parece que el agua se transfiere de unas lagunas a otras, pero también se producen transferencias con fuentes que el satélite no ha sido capaz de detectar, advierten los investigadores.

Hace dos años, con los datos que estaba tomando el Icesat combinados con otros de radar, los científicos anticiparon que la conexión de los lagos subglaciales con el movimiento de los hielos sería una clave para aclarar el rompecabezas de la estabilidad de la capa de hielo del continente. Se descubrió entonces, por ejemplo, que una de estas bolsas de agua internas, de unos 30 kilómetros de largo y 10 de ancho había provocado una notable deformación del hielo por encima de ella (de unos nueve metros) y se calculó que el lago habría perdido en el proceso unos dos kilómetros cúbicos de agua.

El inventario que ahora hacen Smith y sus colegas, en el territorio delimitado por el paralelo 86 sur, muestra que hay lagos repartidos por diferentes zonas del continente blanco. Incluso han detectado uno pequeño en las proximidades del célebre Vostok (que no es activo). Pero la mayoría de los 124 identificados por ellos están en zonas costeras, en las cabeceras de grandes cuencas geológicas, donde más se mueven los hielos, por lo que la dinámica de estas lagunas influye en la descarga de agua dulce en el océano. Aún así, en una zona de la Antártida oriental donde hay bastantes lagos, el altímetro láser indica que pocos de ellos son activos y apenas contribuyen al desplazamiento de los glaciares.

En cuanto al tiempo que tardan en llenarse y vaciarse estos lagos, Smith y sus colegas afirman que en algunos casos el proceso es relativamente lento y tarda tres o cuatro años, aunque en otros casos bastan unos meses, y hay flujos que pueden ser tan rápidos como los ríos.


El Vostok, en peligro


Bajo una capa de hielo de casi cuatro kilómetros de grosor está el lago antártico más famoso: el Vostok. Mide unos 250 kilómetros de largo y 50 de ancho. Hace tres décadas, los soviéticos empezaron a perforar el hielo y a sacar muestras, deteniéndose, en 1998, a un centenar de metros de la bolsa de agua líquida. Los científicos de todo el mundo alertaron acerca del alto riesgo si se llegaba hasta el lago, que podrían albergar formas de vida de hace millones de años.

Rusia decidió hace unos meses reemprender el trabajo, pese a la advertencia de la comunidad científica internacional acerca de la muy probable contaminación del lago con el combustible de la maquinaria, el anticongelante y los lubricantes. Además, se podría provocar un gran géiser al liberar el agua sometida ahora a altas presiones. Los rusos no han debatido abiertamente sus planes pero no se descarta que retomen la perforación en la temporada 2009-2010.

ALICIA RIVERA - Madrid - 09/09/2009
 

Publicado enInternacional