Lunes, 09 Febrero 2015 05:59

El proyecto que cambiará la medicina

El proyecto que cambiará la medicina

Los datos servirán para descifrar el enigma de las mutaciones que causan males como el cáncer. Y permitirá ajustar los tratamientos a cada paciente o actuar de manera preventiva. Es la "medicina de precisión", que promete revolucionar la lucha contra las enfermedades.

 

El genoma de un millón de voluntarios en Estados Unidos será una mina de datos para descifrar el enigma de las mutaciones que causan enfermedades como el cáncer, y ajustar los tratamientos a cada paciente o actuar de forma preventiva. La secuenciación del genoma de esos voluntarios forma parte de la iniciativa del presidente de Estados Unidos, Barack Obama, para impulsar la denominada medicina de precisión, con la que se pretende dar el tratamiento más adecuado en el momento correcto, a la que destinó 215 millones de dólares en presupuesto.


Tras los logros obtenidos con el Proyecto Genoma Humano (PGH) desarrollado en los años '90 para determinar la secuencia de pares de bases químicas que componen el ADN e identificar los genes que componen el genoma humano, la comunidad científica está preparada para dar un paso más.


Para el profesor Adolfo Ferrando, del Instituto de Patología Pediátrica y Genética del Cáncer de la Universidad de Columbia, esta iniciativa es "el último capítulo" de la transformación de la medicina en los últimos años, con la incorporación de la información detallada y específica de cómo funcionan las enfermedades.


En el campo del cáncer, Ferrando explicó que la información de marcadores genéticos de mutaciones específicas tiene un impacto sobre las decisiones de cómo se trata a los pacientes, si necesitan mayor o menor intensidad de tratamiento y, en algunos casos, incluso sobre medicamentos específicos que les pueden beneficiar.


La novedad de esta iniciativa –explicó– es que analizará el genoma global –no únicamente de alteraciones específicas de los genes– y recogerá gran cantidad de datos de individuos sanos, "no sólo sobre las enfermedades que puedan padecer, sino también de las actividades que modulan las actividades de los genes, el comportamiento, la dieta, el estilo de vida". La base de datos, que mantendrá la privacidad de los pacientes pero estará a disposición de la comunidad científica internacional, permitirá a los investigadores "tener una visión más integral sobre cuál es el peso de las variantes genéticas en el desarrollo de la enfermedad", agregó Ferrando.


Sobre qué esperan encontrar, el investigador cree que habrá algunos hallazgos puntuales de "alto impacto" inmediato, pero sobre todo "va a ser un instrumento esencial para la investigación durante mucho tiempo", con el que esperan desentrañar enfermedades cardiovasculares y neurodegenerativas, entre otras.


Todavía no hay una fecha sobre cuándo se completará la base de datos, pero según su colega Raúl Rabadán, físico teórico que trabaja en genómica en el Centro de Biología Computacional de la Universidad de Columbia, "los planes son realizables". Según Rabadán, con la tecnología actual aproximadamente se tarda unas tres semanas en secuenciar y analizar el genoma de una persona. El físico recordó que si costó 100 millones de dólares secuenciar el primer genoma humano, ahora ronda los 3000 dólares.


El reto para la comunidad científica, coincidieron en señalar ambos expertos, va a ser desarrollar métodos específicos para navegar en este "océano de datos" a fin de trasladar sus hallazgos a la clínica, en forma de "marcadores predictivos" de la enfermedad o terapias que sean capaces de actuar sobre estos mecanismos genéticos.


Los Institutos Nacionales de Salud (NIH) de Estados Unidos reunirán a un grupo de expertos multidisciplinar para sentar las bases de la iniciativa y convocará a un taller en marzo próximo para analizar si se pueden aprovechar los datos de las investigaciones ya realizadas en el país sobre medicina de precisión.


Los científicos consideraron que ésta puede ser una oportunidad de atraer el foco a la investigación y al desarrollo tecnológico, que puede contribuir a revolucionar la medicina y acelerar el desarrollo industrial asociado a la investigación biomédica.


La medicina de precisión "es una realidad que ya está pasando en muchas instituciones", enfatizó Rabadán. Con más de 13 años en la investigación, el físico cree que la cura del cáncer, "por ahora, no parece un problema fácil de resolver", pero destaca los "grandes avances" que hubo, por ejemplo, en la leucemia pediátrica que, "hace 40 años, era una sentencia de muerte y ahora más del 90 por ciento de los niños sobrevive". "No se puede prever el futuro, pero lo que sí se puede es trabajar todo lo posible para mejorar las cosas", aseguró Rabadán.

Viernes, 06 Febrero 2015 16:41

Suéltame pasado

Suéltame pasado

Google dejó de mirar al pasado y ha puesto su mira en el futuro, orientándose hacia campos como la robótica y la biotecnología. Ya no quiere organizar la información del mundo ni volverla accesible; el conocimiento, según la empresa, pasó a ser cosa del pasado.

 

Misión, visión y valores de la empresa: es lo primero que aconsejan tener claro a cualquiera que quiera lanzarse al mundo de los negocios. Suena tan tonto como un programa de 12 pasos. Pero funciona igual de bien.
 Hace 14 años Google definió su misión: "Organizar la información del mundo y volverla universalmente útil y accesible", que, conjugada con el lema informal de la compañía –"No seas malvado"–, era una dupla insuperable.
Google es una de las compañías más ricas y poderosas del mundo, pero quizás como ninguna otra su grado de maldad o bondad está en perpetua discusión. Hay una legión de entusiastas a quienes decididamente les importa un rábano si Google es buena, mala o neutra, si respeta o no la privacidad de sus usuarios, cómo maneja la publicidad en su página o los criterios de ranqueo de los resultados de su buscador. Simplemente entonan el coro pospolítico "Si no te gusta, no lo uses", "Google es una empresa" (el énfasis es de ellos), o el conmovedor "¿Pero quién me va a querer espiar a mí?".

 

Otro grupo, decididamente menor, se preocupa por lo que hace Google con sus datos, por el poder que acumula la empresa y por el efecto que tiene en la sociedad toda. Google, mientras tanto, se mueve frecuentemente en una zona gris, en la que los buenos anuncios (la encriptación de las búsquedas) son inmediatamente ensombrecidos por otros que revelan intenciones menos loables (mayor accesibilidad a los términos de búsqueda que llevan a una página si se pone publicidad que si no), por sólo nombrar dos de los muchos ejemplos de avances y retrocesos en temas de seguridad y transparencia. Lo que es indudable es que lo que Google hace de bueno, por pequeño que sea, tiene una difusión y repercusión inmensas (el anuncio en agosto del año pasado, de que las páginas encriptadas ranquearían más alto en el buscador, por ejemplo), mientras que lo menos bueno, incluso aunque implique el silencioso abandono de aquella "misión" de hace 14 años, pasa desapercibido.


Sobre finales de 2014, Larry Page había admitido que la misión de Google estaba desactualizada y que probablemente necesitaran cambiarla. Entrevistado por el Financial Times, Page dijo: "Estamos un poco en territorio desconocido y tratando de darnos cuenta de cómo usar todos estos recursos y tener un impacto mucho más positivo en el mundo". Lo que resulta claro es que Google, definitivamente, dejó de mirar al pasado y ha puesto su mira en el futuro, orientándose hacia campos como la robótica y la biotecnología. Ya no quiere organizar la información del mundo ni volverla accesible; el conocimiento, según la empresa, pasó a ser cosa del pasado. Y sin importar cuán espectacular haya sido el fracaso de proyectos como el Google Glass y otros por el estilo, parece bastante claro que la idea de mejora de la humanidad que tiene Google es el camino del cyborg.


Sin embargo, ese abandono de la misión original dista de ser evidente para el usuario común, que se va dando cuenta poco a poco de los cambios. Por ejemplo, en 2011, de pronto desapareció la aplicación Timeline, que permitía filtrar los resultados del motor de búsqueda por fecha de publicación. En 2013, Hummingbird, el nuevo algoritmo de Google, apuntaba a mejorar los resultados de las búsquedas ya no por palabra clave, sino mediante preguntas, privilegiando las páginas con información nueva o reciente y orientadas más a la conversación que a la escritura.


Ahora, Andrew Baio y Jessamyn West han hecho un buen resumen de ese silencioso abandono del pasado por parte de Google en sendos artículos para Medium.com. En "Never Trust a Corporation to do a Library's Job" ("Nunca le confíes a una corporación el trabajo de una biblioteca"), Baio detalla el fin o la decadencia de proyectos como Google Groups, Google Books y Google News Archive (destacando, de paso, el trabajo de Internet Archive, esa página gloriosa que a menudo viene a salvarnos con su Wayback Machine), mientras que Jessamyn West escribe la –a menudo hilarante– historia de cómo Google dejó de amar a los bibliotecólogos y archivistas.


Y es que Google abandonó hace rato al ratón de biblioteca por el ratón de laboratorio, al mismo ritmo que la información iba quedando cada vez más y más enterrada.

Con motivo del Año de la Luz, promueven mayor estudio del Sol

Este 2015 fue decretado por la Asamblea General de la Organización de Naciones Unidas (ONU) el Año Internacional de la Luz. En este contexto, Luis Felipe Rodríguez Jorge, investigador del Centro de Radioastronomía y Astrofísica de la Universidad Nacional Autónoma de México (UNAM) y miembro de la Academia Mexicana de Ciencias (AMC), destacó la importancia del Sol, principal fuente de energía que sustenta la vida en la Tierra.


El astro mantiene al planeta a una temperatura que lo hace habitable. En el espacio las temperaturas son extremadamente bajas lejos de las estrellas y las moléculas, por ejemplo de agua, existen sólo en forma de hielo. Sin embargo, en la cercanía de de esos cuerpos celestes se alcanzan temperaturas lo suficientemente elevadas para que el recurso exista en forma líquida, clave para la vida, tal como se conoce.


A diferencia de las estrellas, que producen energía termonuclear en su interior, los planetas y sus satélites naturales son cuerpos inertes, que de no ser por la cercanía con una estrella estarían extremadamente fríos. La Luna absorbe 93 por ciento de la luz que emite el Sol, de la cual refleja 7 por ciento, suficiente para que desde la Tierra se le pueda ver iluminada en las noches, explicó el especialista universitario.


En información difundida por la AMC se dio a conocer que en el espacio existen grandes regiones o nubes que contienen gas frío, por la fuerza de su gravedad, fragmentos de estas nubes se contraen hasta formar un núcleo que se convertirá en una estrella, alrededor de la cual se formará un disco en rotación del que posteriormente surgirán los planetas y los cuerpos menores del nuevo sistema solar.


Se podría decir que la mayor parte de la materia del universo visible está atrapada en forma de estrellas; éstas tienen brillo propio, porque en su centro las presiones y temperaturas son lo suficientemente elevadas para que los átomos colisionen entre sí, lo que da lugar al proceso de fusión termonuclear, en el cual se liberan grandes cantidades de energía que viajan hasta la superficie y de ahí escapan al espacio, principalmente en forma de luz.


La masa de una estrella determina su temperatura


Dependiendo de su masa, que puede ir desde una décima hasta 100 veces la del Sol, las estrellas tienen distintas temperaturas en su superficie: de 2 mil 500 hasta 50 mil grados centígrados; entre más masiva sea, su superficie es más caliente. El Sol –a 149 millones 600 mil kilómetros de la Tierra– es una estrella de masa intermedia y la temperatura de la superficie es de alrededor de 6 mil grados centígrados.


Rodríguez Jorge explicó que la luz visible es una de las formas de la radiación electromagnética, cuando la longitud de onda de esta radiación está entre 0.4 micras (una micra es la millonésima parte de un metro), que corresponde al color violeta, y 0.8 micras, que pertenece al color rojo, puede ser detectada por el ojo humano.


Sin embargo, hay radiación electromagnética con longitudes de onda mayores y menores a las de la luz. El espectro electromagnético se divide en seis grandes ventanas que van de las longitudes de onda más grandes a las más pequeñas: radio, infrarrojo, visible, ultravioleta, rayos X y rayos gama, las cuales sólo se detectan con el uso de tecnologías.


Estudiar el espectro de una estrella permite conocer su temperatura, sus movimientos y su composición química. Así, a principios del siglo XX y a partir de las características espectrales, se desarrolló una clasificación en letras, que luego se entendió correspondían a las temperaturas estelares. Estas letras son O, B, A, F, G, K y M. Esto es, las estrellas O son las más calientes y las M, las más frías. El Sol es una tipo G, finalizó.

Crean una máquina para "teletransportar" objetos vía internet

Un grupo de ingenieros alemanes ha construido una máquina capaz de teletransportar objetos a través de Internet. Lo que parecía un sueño inalcanzable ya parece una realidad más que tangible.


Aunque el invento llamado 'Scotty' todavía es imperfecto y destruye algunos objetos, han conseguido procesar y transportar los datos de los objetos a través de Internet, y esperan que se convierta en un verdadero prototipo de teletransportación, al igual que podíamos ver en la serie de ciencia ficción Star Trek, según informó el diario 'The Telegraph'.


El dispositivo se encarga de escanear los objetos a teletransportar con una cámara, previamente cortándolos en capas con el objetivo de mejorar el procesamiento de sus datos. Después la información tratada se cifra y se envía a una impresora 3D conectada a un ordenador en cualquier rincón del mundo, que reproduce su modelo reconstruido.


Este parece ser un gran avance en la ciencia contemporánea, aunque por el momento la máquina todavía presenta algunas deficiencias, dado que destruye las cosas y solamente teletransporta los objetos pequeños y de color negro.


Sin embargo los ingenieros aseguran que ha sido un buen comienzo, y en breve podrán mejorar las prestaciones del invento.


(Con información de The Telegraph)

¿Qué dice la ecuación Navier–Stokes?

Hasta la fecha nadie ha logrado aportar una solución robusta a la ecuación Navier–Stokes. Mejores ideas, enfoques y aproximaciones son necesarias. Entre tanto, se trata de un reto formidable, conocido como uno de los "Problemas del Milenio".

 

En el año 2000, el prestigioso Instituto Clay —Clay Mathematics Institute— logró reunir el consenso de toda la comunidad de matemáticos alrededor del mundo acerca de los problemas fundamentales —digamos "últimos"— de las matemáticas. Fundado en 1998 como un instituto privado, presentó en junio del 2000, en el Collège de France (París), el conjunto de los problemas matemáticos más importantes sin resolver y de los cuales depende la comprensión fundamental del universo y la realidad.

 


Los Problemas del Milenio reunidos fueron siete. Sin embargo, muy pronto uno de ellos fue resuelto por el genio matemático ruso G. Perelman. El instituto estatuyó un premio de un millón de dólares a quienes logren resolver los problemas mencionados. En una serie discontinua de distintos artículos presentaré el significado de cada uno de los problemas mencionados.

 


Uno de ellos es la ecuación de Navier–Stokes (N–S). Esta ecuación es una variación de la segunda ley de Newton referida al movimiento de los fluidos. Por ejemplo, el clima, las corrientes oceánicas, las corrientes de aire y muchos otros fenómenos que interesan y afectan a numerosas ciencias, disciplinas y la ingeniería, por ejemplo. En consecuencia, la ecuación de Navier–Stokes se ocupa de sistemas o estructuras disipativas.

 

Las dinámicas de los fluidos son difíciles de entender y de explicar. Los fluidos son determinantes en las estructuras y procesos del planeta y del universo. Y, sin embargo, hasta la fecha no se sabe si existen soluciones a esas dinámicas y la comprensión es aún primitiva. En otras palabras: la comprensión fundamental en toda la historia de la humanidad ha sido acerca de estados. Carecemos, aún, de una teoría fundamental de procesos. La ecuación Navier–Stokes apunta en esta última dirección.

 

Los términos de la ecuación son, de un lado, una región de un fluido; y de otra parte, las fuerzas que actúan sobre esa región: específicamente, la presión, la tensión y las fuerzas internas de los cuerpos. Sobre esta base debe ser posible comprender cómo se mueven los fluidos. La dificultad estriba en que los fluidos tienen procesos y estructuras que no pueden plantearse en términos lineales o cuasilineales. Técnicamente dicho, la ecuación —o las ecuaciones— de N–S son diferenciales parciales no–lineales. Tenemos ante nosotros, literalmente, un problema complejo.


Así las cosas, aquello que se encuentra en la base o en el horizonte de la ecuación de N–S son fenómenos y sistemas caracterizados por no–linealidad, turbulencia, inestabilidad, velocidades relativas. Y, muy exactamente, los fluidos son fenómenos incompresibles.

 

El ingeniero y físico francés, Claude–Louis Henri Navier (1785–1836), logró en 1822 un sistema de ecuaciones en derivadas parciales para el flujo de un fluido viscoso (elasticidad y mecánica de fluidos). Por su parte, George Gabriel Stokes (1819–1903), matemático y físico irlandés, comienza a publicar en 1842 diversos artículo científicos —papers— sobre el movimiento uniforme de fluidos incompresibles, que contribuyeron, por primera vez, a comprender fenómenos como las nubes, las olas del agua o los flujos de los ríos. Vale mencionar que, paralela e independientemente, E. Haeckel propone el concepto de ecología en 1866.


Así las cosas, la ecuación Navier–Stokes hace referencia, genéricamente, al flujo de fluidos en un espacio R3 —y que significa un espacio de tres dimensiones: el mundo a nuestro alrededor—. Habitualmente se emplea el plural —hablándose entonces de las ecuaciones Navier–Stokes—, gracias al hecho de que la ecuación está planteada en términos de un vector.


Pues bien, lo que hace la ecuación es plantear un problema. Sin embargo, no es en absoluto evidente cómo la ecuación N–S puede resolverse.


Se han planteado diversas alternativas y todas ellas en términos de lo que en matemáticas se denomina "una solución débil" (weak solution). Una solución en matemáticas se dice que es "débil" cuando no existen derivadas parciales y, sin embargo, puede pensarse que satisfacen la ecuación en un sentido muy definido. Asimismo, una solución se dice que es débil cuando de un problema determinado se ha hecho una formulación muy general.


De esta forma, las ecuaciones N–S han sido empleadas con éxito para referirse a las dinámicas de fluidos en términos de velocidades. Tal es el caso, por ejemplo, de sus beneficios en la industria aeronáutica y aeroespacial; pero lo mismo acontece en el caso de la industria automovilística, en donde los beneficios de las ecuaciones N–S son altas y fundamentales.


Sin embargo, en la comunidad científica, en general, el Santo Grial, por así decirlo, de las ecuaciones Navier–Stokes consiste en el estudio y la comprensión del clima. Y con éste, entonces aspectos tales como el calentamiento global y el debate en contra de los negacionistas de los daños infringidos al medioambiente por parte del sistema de libre mercado.


El medioambiente y el clima son fenómenos de altísima complejidad, cuya estructura, comportamientos y dinámicas apenas están siendo comprendidos. Como quiera que sea, intelectualmente, el aspecto maravilloso estriba en el hecho de que el caos fue descubierto gracias a una ciencia "menor": la meteorología y los trabajos de E. Lorenz. Pasaron muchos años antes de que el tema se convirtiera en una teoría y en una ciencia mayor. Pues bien, las ecuaciones Navier–Stokes tienen su primero y más crucial enfrentamiento con el estudio del clima y el medio ambiente: fenómenos y estructuras esencialmente disipativos.


Nadie ha logrado hasta la fecha aportar una solución robusta a la ecuación Navier–Stokes. Mejores ideas, enfoques y aproximaciones son necesarias. Entre tanto, estamos ante un reto formidable, conocido como uno de los Problemas del Milenio. Uno de los más cruciales retos en la comprensión del mundo y del universo en el que vivimos.

"Es aterrador vivir en una sociedad en la que la verdad no importa"

 

En diciembre de 1947, el físico Albert Einstein, harto del ambiente de caza de brujas contra los intelectuales de izquierdas que se apoderaba de EE UU, estalló. "Vine a EE UU porque oí que en este país existía una gran, gran libertad. Cometí un error al escoger EE UU como una tierra de libertad, un error que no puedo borrar del balance de mi vida", afirmó, según documentación confidencial del Gobierno.


Salvando las distancias, lo mismo le ocurrió al investigador estadounidense Bjorn Stevens. En 2008, cuando era profesor de la Universidad de California en Los Ángeles, salió huyendo de su país, indignado por las maniobras del presidente George W. Bush para amordazar a los científicos y alejarlos de la toma de decisiones. Hoy, este experto en nubes es director del Instituto Max Planck de Meteorología, con sede en Hamburgo (Alemania), y ha sido uno de los autores principales del último informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático de Naciones Unidas, que ha vinculado definitivamente las emisiones de CO2 al calentamiento que sufre la Tierra.
Stevens, nacido en Augsburgo (Alemania) en 1966 y criado en EE UU, de madre alemana y padre estadounidense, observa ahora desde su exilio cómo el Partido Republicano, el de George W. Bush, asume el control del Congreso de su país. El científico, acostumbrado a subirse a aviones para cazar nubes, ha tomado uno en esta ocasión para acudir a Madrid como jurado de los premios Fronteras del Conocimiento de la Fundación BBVA.


Pregunta. ¿Por qué dejó EE UU?


Respuesta. Al comienzo de la década de 2000, cuando la Guerra del Golfo, había un ambiente contra la Ilustración. Vivir en una sociedad así, en la que la verdad no desempeña ningún papel, es muy desalentador. Cuando Bush fue elegido la primera vez pensé: "Bueno, estas cosas pasan". Pero luego vi lo que hizo y cómo todo el mundo sabía lo que estaba pasando, y pese a todo fue elegido una segunda vez. Era muy insatisfactorio vivir en una sociedad así, en la que la verdad no importa. Sobre todo para un científico. Para un científico la verdad es lo más importante. Es aterrador vivir en una sociedad en la que la verdad no importa, y ese era el caso de EE UU en aquella época.


P. ¿Era más difícil todavía para un científico del clima?


R. Nunca he estado realmente implicado en la ciencia del clima para convencer a nadie de nada. A las personas les gusta saber cómo funciona el mundo en el que viven y nos pagan para que se lo digamos. Yo no he interactuado con el mundo de la política ni era mi objetivo influir en las políticas. Solo espero que la gente escuche a la ciencia. Espero que los políticos escuchen a los científicos y acepten lo que dicen. Y deberían escuchar también a otras personas, a la industria, para tomar buenas decisiones. Lo que no deberían hacer es negar lo que aseguran los científicos del clima, porque no hay razones para hacerlo. Al final, las decisiones de los políticos dependen de factores de los que conozco muy poco. Todo lo que puedo pedir es que no pretendan que los científicos dicen cosas que no dicen. Afirmamos que el clima se está calentando, y que pensamos que es por las actividades humanas y porque hay más CO2. Si creen que otros temas son más importantes y deciden que sigamos viviendo como lo hacemos, me parece una decisión justa, siempre que dejen claras las bases de sus decisiones.


P. El Partido Republicano ha asumido en los últimos días el control del Congreso de EEUU. ¿Cómo cree que esto puede afectar a las políticas climáticas y a la ciencia del clima?


R. En mi opinión, los republicanos siempre han sido el partido más fundamentalista. Tienen tendencia a legislar el mundo que ellos desearían que existiera, no el que existe. Cabría esperar que aceptaran cómo funciona el mundo, algo que para mí es básico en el pensamiento de la Ilustración, pero el Partido Republicano es antiintelectual y anti-Ilustración. Y esto dificulta mucho que un país avance basándose en una mejor comprensión del mundo, al margen de cuáles sean tus ideas políticas y lo que creas que es mejor para la economía o para la gente. La política debería ser algo racional, basada en información. Pero el Partido Republicano tiene una dilatada historia de ignorar la información que considera inconveniente. Por ejemplo, vemos una negación de cómo es el mundo en su política exterior. Para mí es muy negativo que haya un partido que tiene miedo al conocimiento porque podría contradecir su idea de cómo debería ser el mundo. Esto es lo más alarmante, así es muy difícil crear políticas basadas en el conocimiento.


P. ¿Cree que los republicanos pueden poner en peligro las políticas climáticas de Obama?


R. Obama ha dado algunos pasos importantes. Y claro que los republicanos pueden ponerlos en peligro. En el Congreso pueden limitar los fondos necesarios para implementar políticas eficaces. También pueden limitar los fondos que permiten a EE UU ser parte de la comunidad de países que buscan soluciones. Tenemos un problema, el clima está cambiando y tenemos que buscar soluciones. Y si tenemos EE UU, con todos sus recursos, concentrado en el negacionismo, tenemos un problema. Nos gustaría ver a EE UU, con todo su poder intelectual y sus recursos, siendo parte de la comunidad de países que buscan soluciones.


P. ¿Cree que Obama ha hecho suficiente en cuanto al cambio climático?


R. Es difícil de decir, porque juzgas en función de lo que esperabas. Si juzgas en función de lo que hizo Bush, Obama ha dado pasos tremendos. Si juzgas en función de lo que esperabas de él hace seis años, cuando fue elegido, entonces puede ser muy decepcionante.


P. El presidente del Gobierno español aludió en 2007 a un primo suyo, catedrático de Física, para poner en duda la ciencia del clima. "Yo de este asunto sé poco, pero mi primo supongo que sabrá. Y entonces dijo: 'Oiga, he traído aquí a diez de los más importantes científicos del mundo y ninguno me ha garantizado el tiempo que iba a hacer mañana en Sevilla'. ¿Cómo alguien puede decir lo que va a pasar en el mundo dentro de 300 años?", afirmó. Hay personas que siguen pensando así.


R. Hay una buena respuesta para el presidente. Si es verano, se le puede preguntar si el invierno será más frío, porque se puede predecir. Esto es el clima. Es el hecho de que los cambios en los patrones de radiación solar hacen que el invierno sea más frío que el verano. Cuando hablamos de predicción climática, lo hacemos en este sentido. Por supuesto que no podemos predecir el tiempo exacto que hará un día concreto del próximo invierno. Predecir el clima del futuro se parece mucho más a predecir que el invierno es más frío que el verano que a predecir si va a llover un día concreto de la semana que viene. Mucha gente se confunde con esto, incluso algunos físicos inteligentes


P. Su trabajo está dedicado a estudiar la dinámica de las nubes. ¿Qué preguntas trata de responder?


R. La mayor parte de la luz es reflejada por la Tierra y calienta. Pero no toda la luz provoca un calentamiento. Una parte es reflejada hacia el espacio y eso hace que la Tierra vista desde fuera sea un planeta brillante. La pregunta es cuánta luz solar es reflejada por la Tierra y eso depende en buena medida de lo nublada que esté. Lo que se refleja, que se denomina albedo, es aproximadamente un 30% de lo que llega. Y la mayor parte se debe a las nubes. Si cambias el albedo un poco, al 31% o al 32%, tendría un efecto enorme en la temperatura de la Tierra. El efecto de un 1% más en el albedo sería similar a duplicar el CO2. Así que el albedo de la Tierra es muy importante y sabemos muy poco sobre por qué es 30%, o sobre si podría ser 40% o 10%. Una de las cosas que hacemos estudiando las nubes es intentar entender qué controla el albedo. Hay muchos factores que intervienen en ese número.


P. Usted dice que la crítica constructiva es el alma de la ciencia. ¿Puede hacer un poco de crítica constructiva sobre la ciencia del clima?


R. No entendemos bien, en absoluto, cómo la circulación atmosférica cambiará a medida que se caliente la Tierra. La circulación atmosférica es la trayectoria de los ciclones, el monzón, los sistemas polares. Hay patrones en esta circulación. Todo lo que aprende un niño sobre dónde se forman los ciclones, sobre dónde están las regiones polares, depende mucho de la circulación atmosférica. Si calientas el clima, puedes imaginar que todo se queda igual pero con mayor temperatura. Pero también tenemos razones para pensar que habrá cambios en la circulación atmosférica. Quizá los ciclones sean más potentes, o los monzones. Sabemos muy poco de cómo cambiará la circulación. Hacemos modelos muy complejos, pero unos dicen una cosa y otros dicen la contraria. Hay poco acuerdo. Para mí es uno de los grandes desafíos. Es un misterio y debemos tener mucho cuidado con utilizar los modelos como si fueran bolas de cristal. Al mismo tiempo, es muy difícil comunicar a la gente que sabemos algo y desconocemos otras cosas. A menudo, en nuestro campo no admitimos que no sabemos algo por miedo a que la gente piense que no sabemos lo que pasa si metes más CO2 a la atmósfera. Pero es desacertado, porque la ciencia se mueve por las cosas que desconocemos. No pasa nada, admitamos que tenemos problemas en nuestra comprensión del clima.


P. Usted fue uno de los autores principales del último informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático de Naciones Unidas. ¿Qué espera de la próxima cumbre del clima que tendrá lugar en diciembre en París y de la que podría salir un acuerdo internacional de reducción de emisiones de CO2?


R. No espero gran cosa, así que espero sorprenderme de manera positiva. La calidad de la información de la que disponen los políticos no va a cambiar enormemente, así que tendrán que tomar decisiones con una cierta incertidumbre. No pasa nada, lo hacen todo el tiempo. Los países van a la guerra con mucha menos información.

P. ¿Cree que sigue habiendo una brecha entre los científicos y los políticos en cuanto al cambio climático?


R. Para mí es difícil saber hasta qué punto los políticos entienden la ciencia. Es entendible si quieres entenderla e inviertes tiempo en entenderla. Y hay científicos que se explican muy bien. Los políticos tienen que tomar decisiones difíciles y a menudo es mejor para ellos no entender algunas cosas porque eso facilita que tomen las decisiones que quieren tomar. El gran desafío es exigir a nuestros políticos que intenten informarse a partir del mejor conocimiento disponible. El que quiera saber, tiene información comprensible a su disposición.

Miércoles, 14 Enero 2015 05:57

¿Quién era Alexandre Grothendieck?

¿Quién era Alexandre Grothendieck?

En Grothendieck se combina la inteligencia, la imaginación, la osadía y la independencia y el criterio propio. Grothendieck fue a la vez un genio y un ser libre. Y esa libertad le valió una gran gloria, pero fue al mismo tiempo el precio que debió pagar.


Toda (gran) obra es el resultado (aleatorio) de tres grandes factores: a) la biografía —esto es la personalidad, la sexualidad, las emociones, las capacidades y las limitaciones de alguien—; b) el entorno social en el que nació, se desarrolló y vivió —así, por ejemplo, si vive en un país desarrollado o no, en contextos de paz o de guerra, el soporte familiar y de amigos y colegas—, y c) el momento histórico que le tocó vivir —por ejemplo, etapas de crisis o de desarrollo, apoyo estatal o privado a la investigación o no, etc.—. Desarrollar las imbricaciones, cruces, congruencias y vacíos entre estos tres grandes conjuntos constituye el objeto de un trabajo mayor.


Si se hiciera, caprichosamente, acaso, la lista de los principales matemáticos del siglo XX, sin la menor duda aparecerían D. Hilbert, S. Smale, A. Kolmogorov y P. Erdös, para no mencionar a N. Bourbaki. Los demás nombres que pudieran completar la lista sería seguramente ya una cuestión de menor unanimidad o consenso.


Pues bien, en la lista mencionada hay una figura que descuella, en más de un sentido, con luz propia: Alexandre Grothendieck (1928–2014). Grothendieck es la expresión que representa genio y autonomía —hasta la radicalidad.
Apátrida (esto es, literalmente, sin patria ni pasaporte durante la mayor parte de su vida), el genio que introdujo el análisis funcional y la geometría algebraica, fue la conciencia más lúcida y crítica, por consiguiente, del establecimiento científico francés al que denominó siempre como "corporativista". Según Grothendieck, el corporativismo en ciencia se caracteriza porque se ha estudiado en una famosa universidad, se ha hecho un doctorado en una famosa universidad, se es acogido por las figuras más descollantes de la intelectualidad, la cultura y la ciencia, y se tiene, por tanto, una posición confortable y cómoda. En el caso francés, esto hace referencia al Instituto de Altos Estudios Superiores, a la Escuela Politécnica, a la Academia Francesa de Ciencias o al CNRS, notablemente. Grothendieck no fue precisamente el ejemplo del corporativismo mencionado.


En Grothendieck se combina la inteligencia, la imaginación, la osadía y la independencia y el criterio propio. Grothendieck fue a la vez un genio y un ser libre —en toda la acepción de la palabra—. Y esa libertad le valió una gran gloria, pero fue al mismo tiempo el precio que debió pagar al final de su vida.


Los años dorados de Grothendieck giran alrededor del Instituto de Altos Estudios Científicos (IHES en francés), un instituto privado creado por L. Motchane en 1950. Cabe decir que el IHES fue establecido específicamente para R. Thom y A. Groethendiceck. Antes y después, la vida académica e intelectual de Grothendieck transcurre en universidades "de provincia", de menor calidad —comparativamente con el centro que es París— y al margen de las élites intelectuales y científicas de Francia; Francia, un país sempiternamente centralista (y que justamente por eso se inventó el derecho administrativo y todas sus consecuencias).


Los campos creados y en los que trabajó con originalidad Grothendieck incluyen, muy notablemente, el análisis funcional, geometría algebraica y teoría de números, los espacios de vector topológico, el álgebra homológica. Fue uno de los padres de la cohomología, la teoría de categorías y el análisis complejo, sin olvidar la teoría de esquemas, la teoría K —temas que si bien la mayoría de la gente desconoce, constituyen ejes, avenidas o filones que marcan a toda la matemática actual—. Hasta el punto de que, por ejemplo, como se ha dicho en varias ocasiones, ninguno de los famosos Problemas del Milenio —que son los siete o seis grandes problemas llamados "últimos" de las matemáticas— puede ser resuelto sin incorporar, por lo menos parcial o tangencialmente, los terrenos trabajados y abiertos por Grothendieck. La capacidad de trabajo de Grothendieck, aunada a su inmensa libertad de pensamiento y capacidad imaginativa, constituyeron ejes de una obra sólida y original.


En 1966 Grothendieck recibe la Medalla Fields (el equivalente al Premio Nobel en matemáticas). Antimilitarista convencido, renunció al IHES cuando se enteró que algunas investigaciones estaban siendo financiadas por los militares. Por lo demás, hay que decir que en la época, los profesores del IHES eran pagados de manera muy irregular. Pacifista inveterado (sus padres habían sido anarquistas), fue un crítico acérrimo de la guerra de Vietnam y del expansionismo militar de la URSS, fue siempre sensible a los temas delicados de pobreza y marginamiento social. Cosas, todas, raras entre los matemáticos en general.


En un momento dado hacia su época de madurez y crítica del establecimiento matemático y científico, se interesa por la biología, la física teórica y los acontecimientos en el orden social y político que representaron Mayo de 1968.
En 1970 decide retirarse de la vida académica y científica de Francia y el mundo, y posteriormente, en 1988, finalmente decide retirarse de toda la sociedad. Se traslada a los Pirineos y permanece en total aislamiento del resto del mundo hasta su muerte.


La importancia de la obra de Grothendieck estriba en el reconocimiento explícito de que ningún problema actual de punta en matemáticas puede ser resuelto sin atravesar por la obra de Grothendieck. Una obra difícil por lo técnica, sintética y original a la vez, en la que se debe mencionar sin duda alguna los Éléments de géometrie algébrique. Por otra parte, Récoltes et Sémailles es un texto único sobre las relaciones entre la vida y las matemáticas (de alrededor de 1500 páginas). Así, globalmente, se trata de una obra que emerge como condición de posibilidad para la comprensión y solución de numerosos otros problemas matemáticos. E incluso científicos.


Prácticamente todos los textos —libros y artículos— de Grothendieck se encuentran disponibles en http://www.grothendieckcircle.org, conjuntamente con los textos de sus seminarios y las biografías escritas sobre Grothendieck. Sin embargo, permanecen sin publicarse más de veinte mil páginas de sus escritos. El "Círculo de Grothendieck" constituye quizás el más sincero y apasionado de los esfuerzos humanos e intelectuales en torno a un científico —en general— para mantener su obra y su legado.


Finalmente, cabe decir que Grothendieck estuvo casado con M. Dufour y tuvo cinco hijos (tres de su matrimonio y dos de dos relaciones extramatrimoniales distintas).


Alexandre Grothendieck, una hermosa expresión de la complejidad de las relaciones entre la vida, la ciencia —en este caso las matemáticas— y el momento social cultural e histórico que le tocó vivir. Esto es, de la ausencia de correspondencias lineales y formales entre la vida, su ciencia y, en fin, su obra misma.

Miércoles, 10 Diciembre 2014 08:27

¿Qué son las etnomatemáticas?

¿Qué son las etnomatemáticas?

No existe una única matemática. La antropología y la historia, tanto como la sociología rural y la arqueología, ponen de manifiesto que cada pueblo tiene sus propias matemáticas y que cada grupo humano tiene, crea, desarrolla y usa las matemáticas que necesita.


Dentro de las dinámicas y cambios a que asistimos actualmente (= revolución científica) también las matemáticas se encuentran en proceso de re–formulación de sus fundamentos (recuérdese que los llamados fundamentos de las matemáticas fueron establecidos, esencialmente, por D. Hilbert —formalista—, específicamente, cuando crea la metamatemática. Justamente ocupada con plantear y resolver los fundamentos de las matemáticas).


Pues bien, en eso exactamente consisten las etnomatemáticas. Muy específicamente, y en notable contraste con la historia del platonismo y el formalismo en matemáticas, se trata de vincular a las matemáticas con la cultura, en toda la extensión de la palabra. Por tanto, con la educación y la economía, con la antropología y la sociología, con las artes y los más sensibles y álgidos problemas de la política.
La historia de las matemáticas fue siempre, a partir de los griegos, en general, y de Pitágoras y Platón en particular, la historia del pensamiento abstracto que ni hace referencia ni necesita de la realidad. Euclides y Descartes, el cálculo y los desarrollos más recientes, serían, todos, el resultado de una fabulosa capacidad de abstracción. Presuntamente, solo desde esas alturas podría captarse el mundo y la naturaleza.


Platón escribió a la entrada de su Academia: "El que no sepa matemáticas que no entre aquí". Ya Galileo sostuvo expresamente que el lenguaje de la naturaleza es la matemática. Y Einstein mismo sostenía que en la medida en que las matemáticas se refieren a la realidad no son verdaderas, pero, en la medida que no lo hacen, son verdaderas.


Contra el formalismo, lo cierto es que no existe una única matemática. La antropología y la historia, tanto como la sociología rural y la arqueología, por ejemplo, ponen de manifiesto que cada pueblo tiene sus propias matemáticas, y que cada grupo humano tiene, crea, desarrolla y usa las matemáticas que necesita.


Así, por ejemplo, frente a la matemática de origen euclidiano, que es eminentemente carente de color, la antropología enseña que las geometrías del pueblo son coloridas: globos y cometas, fiestas y carnavales. No es posible la geometría sin el color (algo que contra Euclides nos recuerda, de otra parte, Mandelbrot con la geometría de fractales, que es una geometría dinámica y cromática).


Las etnomatemáticas tienen un origen y un sabor latino. Su padre, el brasilero Ubiratan D'Ambrosio, a finales de 1970, las concibe y las presenta como la conjunción de las raíces tica, matema y etno; respectivamente, técnicas y habilidades; explicar, entender y convivir; y la atención a los diferentes contextos socioeconómicos y culturales de la realidad. D'Ambrosio, ganador del muy prestigioso premio Félix Klein.
El programa de las etnomatemáticas consiste en abordar las distintas caras de la realidad. O si se prefiere, acaso de manera más radical, mostrar que no existe una única realidad y que el mundo humano se configura por la coexistencia y cruce de realidades diferentes. De esta forma, la interculturalidad y la interdisciplinariedad definen el espíritu mismo de las etnomatemáticas, un programa que ha crecido magníficamente alrededor del mundo con diversas asociaciones nacionales e internacionales, un encuentro regular sobre el tema y varias series de ediciones en editoriales prestigiosas.


Lo cierto es que existen diferentes formas de pensar. Y todas ellas se encuentran en función, o bien de la supervivencia, o bien de hacer posible y cada vez más posible a la vida. Al fin y al cabo, la función primera del conocimiento, en general, consiste en afirmar la vida y en hacerla posible. No en vano nos recuerda D'Ambrosio: en la educación lo importante no son los programas y los currículos. No son las escuelas y las universidades. En educación lo importante son los alumnos, como personas, como posibilidades.


Ahora bien, el objetivo de las etnomatemáticas no es el de negar, remplazar y desplazar a las matemáticas actuales; o a las habidas en la historia. Por el contrario, se trata de encontrarles otro fundamento, no ya en la razón y el intelecto, en el entendimiento y en alma, para decirlo de manera clásica, sino en las prácticas y los saberes, en la sociedad y en la cultura, en fin, sin ambages, en la vida misma. Pobre es la ciencia que no está en función de la vida, de su dignidad y de una vida con calidad.


Al fin y al cabo, la vida cotidiana —el mundo de la vida, en rigor— es el universal en el que al mismo tiempo que anclan, se nutren la existencia de los seres humanos. Sus amores y angustias, sus sueños y tragedias, sus esperanzas y entuertos, por ejemplo. La cotidianeidad —el mundo de la vida—, esa dimensión cambiante, calma y rugiente a la vez de donde proceden los conceptos y a donde nos dirigen también.


En fin, es como si dijéramos que nadie conoce bien, nadie piensa bien y nadie sabe bien si no sabe vivir con lo que sabe, cree o conoce. Vivir en armonía con la naturaleza —no por encima de ella— y convivir con los demás, en su diferencia y en la alteridad, en la diversidad y como multiplicidad. En toda la línea de la palabra (algo de lo cual las matemáticas "normales" poco y nada saben y sobre lo cual prefieren hacer silencio o pasar de agache).


Más recientemente, las etnomatemáticas han sido uno de los nutrientes para la constitución de una ciencia nueva: la etnociencia, un campo que encontró originariamente en la antropología cognitiva su primera cuna. Como se aprecia, asistimos a un horizonte vívido y vibrante, optimista y cambiante. Nuevos tiempos se avecinan y otros nuevos están siendo creados.

Miércoles, 10 Diciembre 2014 08:02

"La física no es una ciencia exacta"

"La física no es una ciencia exacta"

Es investigador principal del Conicet y docente en la UBA. Fue distinguido por su aporte en el Gran Colisionador de Hadrones del CERN. Aquí, explica cuál fue su participación y cuáles son los desafíos que presenta el experimento más grande de la historia de la ciencia.

 

"Siempre fui curioso, cuando era chico desarmaba más cosas de las que podía armar", recuerda Daniel De Florián, doctor en Ciencias Físicas, investigador principal del Conicet y profesor en el Departamento de Física de la Facultad de Ciencias Exactas de la UBA. "En la secundaria tuve muy buenos profesores de física, que me despertaron la pasión de hacerme preguntas nuevas. Ya desde la escuela secundaria tenía decidido estudiar física", dice quien fue el primer universitario de la familia y todos los días viajaba de su casa en Boulogne a Nuñez, sede de la Ciudad Universitaria.


Siendo estudiante, De Florián optó por la física teórica por sobre la experimental. "Hacer física teórica iba a ser menos costoso, no se necesitan tantos equipos, es más fácil", pensó. Y mal no le fue. Sus aportes y los de su equipo son considerados de altísimo nivel y se utilizaron en uno de los hechos científicos más destacados en la física de partículas: la caza del bosón de Higgs, la partícula más buscada de las últimas décadas, que llevó a la Organización Europea para la Investigación Nuclear (CERN) a poner en marcha el acelerador de partículas más grande del mundo, el Large Hadron Collider (LHC) o Gran Colisionador de Hadrones. Por ese aporte fue distinguido recientemente por la Academia Mundial de Ciencias (TWAS), junto a otro investigador argentino (Marcelo Rubinstein, en el área de Biología).


"Me di cuenta de la importancia del premio por los e-mails que recibí de colegas del exterior que se habían enterado y me felicitaban", reconoce en diálogo con Página/12.


–La TWAS premia contribuciones a un área en particular. ¿Cuál fue su aporte como físico teórico?


–Básicamente, mi trabajo consistió en proveer a los experimentos de los cálculos más precisos para determinar la probabilidad de producir el bosón de Higgs en los colisionadores como el LHC, el colisionador de Ginebra. Esos cálculos se usan para comparar con los datos experimentales.


–Es decir que para encontrar una partícula subatómica además de la tan conocida maquinaria tecnológica hace falta un mapa teórico.


–Sí, se necesitan dos cosas: una es el experimento, fundamental porque tiene que lograrse una señal y eso es el 80 por ciento. Pero antes hace falta la hoja de ruta teórica, que orienta dónde buscar. Y luego, una vez encontrado, hay que comparar con la teoría.


–¿Cuál es su participación en el colisionador de Hadrones?


–Colaboro en el Higgs Cross Section Working Group desde 2011, y desde este año soy uno de los coordinadores, junto a otros tres físicos teóricos y cuatro experimentales. Nuestro propósito es proveer a los experimentos de los cálculos. Mi trabajo es teórico. Nuestro grupo es el que básicamente realiza todo el trabajo de recolectar y de producir la información que hace falta para que los experimentos la usen.

–¿Cuántos científicos hay trabajando alrededor del experimento del LHC?


–Es un experimento a escala muy grande. Cada experimento tiene entre dos mil y tres mil miembros de colaboración, además hay varios cientos de científicos teóricos que están relacionados que participan indirectamente. Es llamativo que pueda funcionar con tanta gente, yo creo que además del hecho científico hay un hecho sociológico que es haber logrado que toda esa junta pueda funcionar, estando desparramados por todo el mundo.


–Vayamos al mundo subatómico, ¿en dónde encaja el hallazgo del bosón de Higgs?


–Explicar la física del bosón de Higgs es una de las cosas más complicadas que uno se puede imaginar. Lo primero que creo que hay que dejar claro es que toda la materia que conocemos está formada por las mismas partículas elementales. Y toda la materia quiere decir cualquier objeto, incluyéndonos a nosotros. Todo está formado por electrones, protones y neutrones que están formados por quarks. Esto es algo que sabemos hace cincuenta años. Teníamos una teoría muy hermosa para describir las interacciones entre esas partículas, las fuerzas y sus propiedades, todo formando el modelo estándar. Pero el problema era que no encontrábamos la forma de incluir dentro de ello las masas de las partículas.


–¿Cómo es que una teoría puede resultar hermosa?


–La teoría era bella y simple porque estaba basada en simetrías. Pero esas simetrías impedían que uno pudiese incluir en la teoría a las masas que sabemos que existen, porque las partículas tienen masa. Entonces hubo que inventar un nuevo mecanismo que es este mecanismo de Higgs, por lo cual el precio a pagar era que había que incluir la idea de una nueva partícula que es este bosón de Higgs cuya tarea es básicamente proveer de masas al resto. De alguna forma, la masa no es una propiedad más de las partículas, sino que pasa a ser algo que viene asociado a la interacción, a la fuerza que el bosón de Higgs ejerce en las partículas.


–¿Cómo se puede explicar esa interacción?


–A veces uno usa la siguiente idea que ayuda para explicarlo: el bosón de Higgs es como una especie de fluido viscoso que impregna el espacio, entonces cuando las partículas se mueven en ese espacio –que no es el vacío– adquieren su masa por interactuar con este fluido, cuanto más interactúan más masa tienen y cuanto menos interactúan menos masa tienen.


–¿Cuánto tiempo estuvo buscándose esta partícula elemental?


–Hace cincuenta años que se la buscaba. El postulado nos decía que además esa partícula debía ser observable. Habíamos descubierto a todas salvo a esa. Pero finalmente se encontró, la relevancia desde el punto de vista teórico-experimental es muy grande, porque es la única que faltaba para completar nuestro zoológico de partículas elementales. Por un lado, esto completa el marco teórico que describe a todas las partículas elementales que conocemos. Y por el otro, nos permite entender al menos desde este mecanismo cómo las partículas requieren masa, la masa no es más una propiedad de la partícula elemental, no es algo que la partícula traiga de por sí, sino que es el resultado de la interacción con otro objeto. Y eso es interesante. A escalas subatómicas es una teoría extremadamente exitosa, armónica, que no tiene contradicciones con los experimentos, pero nosotros sabemos que no es el final, que tiene que haber algo superador a eso.

–¿A qué se refiere?


–A que la teoría en algún momento va a fallar. La física es una aproximación a la naturaleza, no es una ciencia exacta. La física lo que hace es describir los fenómenos a ciertas escalas. Por ejemplo, la física de Newton fue extremadamente útil para describir los procesos de la vida cotidiana. Yo siempre le digo a los alumnos que si se me rompe el auto, yo lo llevo al mecánico y no al mecánico cuántico, porque la mecánica cuántica es irrelevante para eso, lo que hace falta es ajustar los tornillos, y ahí la física de Newton es suficiente. Volviendo al modelo estándar, se trata de una teoría extremadamente exitosa, lleva ya decenas de años siendo testeada y funcionando bien, pero sabemos que a ciertas escalas de energías va a fallar. Por ejemplo, sabemos que existe la materia oscura, pero ninguna de las partículas del modelo estándar explica el origen de la materia oscura. Sabemos que tiene que haber algo más, y lo que uno espera ver en el acelerador es eso, ver la prueba de esa falla en forma de, por ejemplo, nuevas partículas.


–¿Hay algo de decepción en el hecho de haber encontrado la pieza que faltaba y comprobar que el modelo es correcto?


–Encontramos exactamente lo que estaba previsto, aunque todavía hay que medir las propiedades, y eso va a llevar un tiempo, pero todo parece indicar que es el esperado. Encontrarlo por un lado fue una gran alegría, por el otro lado, como usted dice, tiene algo de decepcionante. La física, o la ciencia en general, es una de las pocas situaciones en que el ser humano postula algo, prueba que es correcto y se pone mal, porque lo que uno busca son desafíos. En este caso en particular como sabemos que el modelo estándar en algún momento va a fallar, lo que queremos ver es que falle en algún lado para saber por qué camino hay que seguir. Sería un salto de un nuevo paradigma, de los que no ocurren hace más de cincuenta años.


–¿Cuál es la razón por la cual hasta ahora no se lo había podido ver?

 

–La razón es que tiene una masa muy grande, es la segunda más pesada entre las partículas elementales. Tiene una masa que es unas 130 veces la masa del protón, pesa como un núcleo grande. El primer problema es que se necesitan altos niveles de energía para producir esa masa, y a la vez, producirlo copiosamente para poder observarlo. Esta fue la primera vez que se logró juntar la energía suficiente y la cantidad de colisiones suficientes como para generar cientos de miles de bosones de Higgs. La búsqueda es complicada, es un experimento extremadamente sucio, se producen muchas cosas y entre esas hay que encontrar uno. Es como buscar una aguja en un pajar. Entonces, además de energía hace falta gran cantidad de estadística y análisis para poder observarlo. El bosón de Higgs había sido producido antes en otros aceleradores, pero no se lo había podido observar.

Sábado, 06 Diciembre 2014 08:06

Primer paso exitoso en la conquista de Marte

Primer paso exitoso en la conquista de Marte

La nave despegó de Cabo Cañaveral, alcanzó los 5800 kilómetros, dio dos vueltas a la Tierra y regresó a la atmósfera, tras lo cual amerizó en el Pacífico. La cápsula podría ser utilizada por la NASA para enviar en la década de 2030 la primera misión tripulada a Marte.

 

La cápsula Orion, la nave espacial diseñada por la NASA para ensayar lo que a mediados de la década de 2030 podría ser una misión tripulada a Marte, despegó sin incidentes, alcanzó una altitud de 5800 kilómetros, realizó dos vueltas a la Tierra y, como estaba previsto, regresó, entró en la atmósfera y amerizó sobre el océano Pacífico. El viaje, que no había podido realizarse el jueves por motivos climáticos y técnicos, duró cuatro horas y media desde que la cápsula despegó de Cabo Cañaveral hasta que volvió y fue rescatada de las aguas del Pacífico, a mil kilómetros de Baja California. El dispositivo recorrió 96.000 kilómetros y logró internarse en el espacio más que cualquier otra nave en los últimos 40 años, además de ser la primera nave, desde las del programa lunar Apolo de los '60 y '70, diseñada para llevar tripulación.


Originalmente, Orion debía despegar el jueves y no ayer. Sin embargo, ese lanzamiento fue pospuesto tras cuatro intentos fracasados: el primero, porque había un barco en una zona cercana; el segundo y el tercero, por el viento fuerte; el último, por un problema en las válvulas del cohete propulsor Delta IV, que ayudó en el despegue de la cápsula.


El despegue fue a las 7.05 de Cabo Cañaveral y, según informó la NASA, que comunicó gran parte del proceso a través de su cuenta de Twitter, todos los sistemas funcionaron "perfectamente". En pocos minutos, Orion superó cinco veces la velocidad del sonido, y tras 17 minutos en el aire alcanzó la órbita prevista. Al alcanzar los 5800 kilómetros de altitud, superó en más de diez veces la altitud de la actual Estación Espacial Internacional (ISS), que se encuentra en órbita a unos 420 kilómetros.


Orion estaba equipada con sensores para medir y registrar todos los aspectos del vuelo, y también llevó una cámara desde la cual transmitió imágenes que la NASA y grupos de trabajo involucrados en el proyecto fueron tuiteando mientras duró la misión. Al entrar en órbita, la cápsula se desprendió del sistema de lanzamiento, gracias a un mecanismo que fue diseñado para expulsar a una posible tripulación en caso de problemas con el cohete. Todo lo sucedido con Orion fue monitoreado desde el Centro Espacial de Houston. En el momento en que pasó el océano Indico, Orion perdió contacto con esa base, como había sido anunciado que sucedería, pero durante ese lapso la nave siguió almacenando información. Una vez completada la primera vuelta a la Tierra, un propulsor incorporado relanzó en órbita a Orion, para que continuara el viaje.


La nave atravesó en apariencia exitosamente el cinturón de Van Allen, una zona de radiación considerada peligrosa y que podía estropear el sistema. Orion pasó a través de él en las dos vueltas que realizó a la Tierra, y el escudo diseñado para proteger al dispositivo de las radiaciones parece haber funcionado.


La NASA había advertido que el regreso sería la parte más peligrosa del viaje, porque el reingreso en la atmósfera genera cantidades extremas de calor. Ese efecto quedó registrado en una de las imágenes que, una vez finalizado el ensayo, distribuyó la agencia aeroespacial norteamericana. Por entonces, la cápsula llevaba una velocidad de casi 32.000 kilómetros por hora y estaba sometida a una temperatura de 2200 grados centígrados.


Superada esa instancia, y cuando la cápsula empezó a ser visible para las cámaras de la NASA como un punto que caía rápidamente entre las nubes, Orion abrió el dispositivo de tres paracaídas, blancos a rayas coloradas, que facilitaron un descenso más lento y controlado. La nave fue rescatada de las aguas con ayuda de la Marina norteamericana.


El vuelo de prueba recogió información sobre la resistencia que el sistema de navegación y de la electrónica de a bordo podían ofrecer al enorme calor, y también comprobó el funcionamiento de los paracaídas a la hora de aterrizar naves en el mar californiano.


La construcción de la cápsula Orion y su puesta en marcha demandó alrededor de mil millones de dólares. Hacia 2021, cuando se estima que se realizará el primer vuelo tripulado, la misión podría llegar a costar más de 20.000 millones de dólares. A mediados de la década de 2030, la nave podría realizar su primer vuelo tripulado a Marte. Por eso mismo, la NASA tuiteó ayer: "La prueba con Orion es un paso decisivo en nuestro camino a Marte".