Miércoles, 17 Abril 2019 06:12

El padre de las tijeras genéticas

El padre de las tijeras genéticas

Sus investigaciones en bacterias permitieron el desarrollo de las “tijeras genéticas”, que prometen mejorar los tratamientos de cáncer y otras enfermedades.

Francisco Martínez Mojica vendrá a Argentina por primera vez y será reconocido el 2 de mayo por la Universidad Nacional de Quilmes con el título de Doctor Honoris Causa. Durante más de 20 años, este biotecnólogo (Universidad de Alicante) estudió el sistema inmunológico de las bacterias y sus capacidades para defenderse de la infección por virus. Hoy la comprensión de este mecanismo constituye uno de los mayores avances en biomedicina porque ha habilitado el desarrollo CRISPR (la sigla en inglés, por Repeticiones Palindrómicas Cortas Agrupadas y Regularmente Interespaciadas). Se trata de las conocidas como “tijeras genéticas”, que permiten editar el genoma de cualquier ser vivo, eliminar virus de células infectadas y corregir defectos genéticos.


Quienes conocen bien a “Francis” señalan que es modesto, persistente, tranquilo y humano. Hasta hace muy poco tiempo andaba sin celular pero, afortunadamente, lo tenía encima cuando lo llamó Eric Lander, el asesor científico de Obama. Había quedado impactado por la potencia de sus investigaciones. Incluso, en un comienzo sonaban tan descabellados sus hallazgos que ninguna revista prestigiosa quería publicar su trabajo. En 2018 fue uno de los nombres que más rebotó entre las paredes de la Real Academia de Ciencias de Suecia para recibir el Nobel en Medicina. Pese a no ser laureado, las chances se mantienen intactas para 2019. Aquí describe el futuro de CRISPR que, a corto plazo, modificará los tratamientos de cáncer, enfermedades neurodegenerativas y otros trastornos.


–¿Por qué sus investigaciones en bacterias son precursoras de la técnica CRISPR?


–La técnica deriva de un sistema que tienen las bacterias para defenderse frente a la infección por virus. Este mecanismo lo descubrimos en 2003, luego de 10 años de un arduo trabajo de inspección en el genoma de estos microorganismos. Se trata de un sistema inmune muy peculiar porque tiene memoria: las bacterias son capaces de recordar infecciones, transmitir esa información a la descendencia y reconocer a los invasores en el futuro.


–Su trabajo estimuló a muchísimos laboratorios de todo el mundo y revolucionó el campo de la biomedicina.


–Fue en 2005. Debo admitir que en un comienzo las revistas científicas no aceptaban mi trabajo, lo veían demasiado descabellado como para ser real. Enseguida múltiples equipos internacionales comenzaron a aplicar los mecanismos moleculares que nosotros habíamos advertido y ello dio lugar a CRISPR. Una tecnología con una potencia increíble que permite reescribir el material genético, ya no de bacterias sino de cualquier ser vivo, incluidos humanos. Son tijeras que pueden ser programadas para cortar el ADN. Hoy tenemos en nuestras manos –ni más ni menos– que la posibilidad de rectificar errores que producen muchas enfermedades.


–Cuando señala “reescribir” el material genético, ¿a qué se refiere?


–A que es una herramienta que corta los segmentos del genoma en cualquier célula y permite editar (reparar) las áreas dañadas e introducir cambios en el material genético. En la actualidad, es empleada para conocer cuáles son las causas de enfermedades, reproducir los defectos genéticos en pruebas experimentales con animales de laboratorio y modificar plantas. La técnica puede ser dirigida a un sitio concreto con una precisión sorprendente; sin embargo, aun no es perfecta y esperamos que gane eficacia para conseguir mejores resultados. En el presente se realizan ensayos clínicos en humanos pero son “ex-vivo”: se extraen células sanguíneas de un paciente y se modifican en el laboratorio, para más tarde ser devueltas al organismo cuando ya fueron curadas. Otra historia sería “in-vivo”, esto es, si inyectamos a las personas, algo que hoy no sería prudente.

–¿Qué ocurrió luego de su publicación con bacterias?


–No dejaba de sorprenderme, mis colegas llegaban a la oficina con los papers en la mano y me mostraban que científicos de otros países habían demostrado que la tecnología podría servir para proteger a nuestra propia microbiota, que es muy beneficiosa para muchos aspectos de nuestra salud. Luego venía otro, con una línea distinta, que me contaba que hay una variedad de CRISPR que no corta ADN sino ARN y ello sirve para regular la expresión génica (cómo se lee la información genética en cualquier ser vivo). Más adelante, un equipo distinto descubrió cómo otra variante del mismo mecanismo puede ser utilizada para realizar un diagnóstico y detectar la presencia de un virus en una muestra de sangre con una especificidad bestial y una facilidad tremenda; así como también, se han publicado resultados sobre cómo CRISPR puede ser útil para guardar información de cualquier tipo codificada en forma de ADN aprovechando el mecanismo de memoria de las bacterias. ¡Por el amor de Dios! Nuestra ciencia básica ha promovido decenas de trabajos con aplicaciones fundamentales.


–Aquí se golpea a la ciencia básica porque no brinda resultados inmediatos.


–Me paso la vida diciendo que no pueden pensarse de manera separada. No se puede diferenciar una y otra, pero nos obligan a hacerlo porque cuando se solicita dinero para un proyecto debemos especificar de forma muy precisa cuál será su utilidad. Y la realidad es que muchas veces no podemos saberlo, por ello, a la ciencia básica le llamo la “ciencia multiaplicación”. Si desarrollás ciencia aplicada, tenés mucha suerte y va todo muy bien, podrás conseguir un resultado concreto. Ahora bien, con la ciencia básica las posibilidades son infinitas. Y CRISPR es un buen ejemplo al respecto. Los que la hacemos lo tenemos clarísimo pero es muy difícil transmitirlo, sobre todo a los que administran nuestros países. Fueron años de fracaso hasta conseguir buenos resultados. Los gobiernos ya no saben de procesos ni de largos plazos, pues, enseguida se preguntan por el retorno inmediato que tendrán para su beneficio económico. “¿Dónde están las patentes?”, me solían decir durante muchísimo tiempo. Y yo contestaba: “Lo siento, mira, no conseguí estar más despabilado”. No me importa quién lo ha hecho, cómo lo ha conseguido ni dónde, si al final todo el mundo resultará beneficiado.


–Ya ha cosechado múltiples distinciones, ¿le genera una ansiedad especial la posibilidad de obtener el Premio Nobel?


–La ansiedad por cosechar ese reconocimiento tan valioso es generada por la gente que tengo alrededor. La primera vez que vi mi nombre en un periódico local como posible ganador del Nobel me volví loco, lo llamé al periodista y le reproché cómo se atrevía a poner algo así, pero ya me he acostumbrado. Se me fue de las manos, en España hay muchas ganas de conseguirlo. Solo ha habido dos Nobel en Medicina en toda la historia, pienso que es comprensible. Lo mismo me ocurrió con la invitación de la Universidad Nacional de Quilmes: que una institución joven y vital me reconozca con su máxima distinción me llena de orgullo. La mayoría de los científicos no esperamos ser reconocidos cuando comenzamos a investigar, nadie sueña con esto. Luciano Marraffini es argentino y es un científico increíble del área, su gobierno debería conseguir que volviera al país.

–Eso, casualmente, se torna casi imposible en la actualidad. Los científicos han vuelto a irse.


–Nosotros afrontamos el mismo problema en España: los talentos se fugan a otros sitios con mejores chances para desarrollar su ciencia. La diferencia es que Argentina tuvo un programa como el Raíces que consiguió traer de nuevo a muchos recursos humanos desperdigados por el exterior. Lo sé porque conocí a colegas argentinos de primer nivel. Ello nunca ocurrió en España, la situación está cada vez peor pero, claro, las esperanzas nunca se pierden.


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Domingo, 31 Marzo 2019 05:42

Ante el camino suicida

Roland Barthes.

Bajo una tormenta, después de atravesar un monte, los dos viajeros, maestro y discípulo, llegan a la casa de un guardia fronterizo. El temporal los obliga a permanecer tres días bajo su techo. El maestro tiene cuarenta y cinco años y achaques crónicos dolorosísimos que, a menudo, le imponen un alto. Si bien se siente viejo y se reconoce como tal, los obstáculos no detienen su andar ni su escritura inspirada. En el camino dedica haikús a campesinos en un arrozal, pescadores, puestas de sol, rescates de mitos en un templo, bosques impenetrables, unas putas con las que comparten un albergue, nevadas, ríos correntosos. Cada tramo del viaje, Japón de punta a punta, llama su atención. Se fija en todo, pero su mirada no es la de un documentalista sino la de un partícipe de la naturaleza que, desde la experiencia, registra la fugacidad. Una de esas noches en lo del guardia el hombre que se siente viejo anota: “Piojos, pulgas. / Y un caballo que mea / junto a mi almohada”. Así son de sencillos y directos los poemas que escribe ya consagrado del haikú, que con el paso de los siglos, seducirá Occidente. Roland Barthes, por ejemplo, empezará sus clases sobre “La preparación de la novela” con el haikú para llegar a la inmensurable y obsesiva búsqueda del tiempo perdido proustiana. Más acá, en el haikú se han tentado, entre muchos, tanto Borges como Benedetti. El haikú consiste en un poema breve de diecisiete sílabas, escrito en tres versos de cinco, seis y siete sílabas respectivamente, métrica que puede también ser algo más libre. Su intención no implica tanto la captación de un paisaje como fundirse en él. Parece fácil, pero no. Se requiere no sólo un cambio de perspectiva sino de una forma de estar en el mundo.

El maestro sobre el que escribo nació como Matsuo Munefusa en el Japón feudal del siglo XVII, una época de contraste abismal entre poderosos y sometidos. Hay quienes dicen que fue hijo de un samurai empobrecido y quienes dicen que su origen fue campesino. Lo que está probado: de chico fue sirviente del hijo de una familia samurái enriquecida con el que forjó una amistad que superaba las diferencias de rango. En esos años, el haikú era una práctica que se enseñaba a los jóvenes acomodados. Y que el sirviente también aprendió. Al morir su amigo, Matsuo, a los veintitrés años, a pesar de que sus patrones querían retenerlo, escapó para lanzarse al mundo y perfeccionar su arte. En Tokio participó en torneos de versos y, en poco tiempo, tuvo alumnos. Trabajó en una repartición de Aguas de la municipalidad y, a la vez, siguió perfeccionando su estilo. Consagrado a la práctica del desapego, al mudarse a una choza de las afueras, fue afirmando su estilo: una poesía de emoción contenida, impregnada por el zen, centrada en el paisaje y sus huéspedes. Es que en esta tierra somos huéspedes aunque el exterminador avance capitalista quiera convencernos, con sus medios de comunicación disciplinados y disciplinarios, de que somos propietarios.


Un buen día un discípulo le regaló al maestro un plátano que plantó ante su puerta. Plátano, en japonés, se dice Basho. Y este sería su nombre elegido. A lo largo de sus cincuenta años su obra adquirió una fama que habría de perdurar a través de tiempo y espacio. La poesía de Basho es sobre la transitoriedad de las cosas, la finitud que, pensada desde hoy, desde esta etapa del capitalismo, amedrenta toda vanidad. Y queda claro que esta ideología poética es existencial.


El camino de Basho no tiene nada que ver con el autoayudismo mezquino que se promulga desde el poder neoliberal, la carrera alienada en función de la riqueza, el tener, tener no importa qué, si un auto o unas zapatillas de marca. Mientras se corre tras el consumo, el neoliberalismo instrumenta radicalmente el estado de shock. Y así estamos.


El marxista coreano Byung Chul Han, lector atento del haikú, ha sido criticado a menudo por la brevedad de sus ensayos, brevedad que, en vez de restarle a sus contenidos, les suma volviéndolos contundentes como los de Mao Tse Tung sobre la contradicción. ¿Por qué no pensarlos entonces como haikús ensayísticos? Coherente con esta filosofía del desapego, después de fracasar en Seul como estudiante metalúrgico y tras casi incendiar con un experimento a su familia, viajó a Occidente, y en Berlín estudió filosofía. Chul Han es un resistente de la supuesta modernidad, un apartado que, a pesar de su repercusión, recela de los Smart-phone y todo lo que pasa el dedo en una pantalla. Si bien conviene internarse en su “Filosofía del budismo zen” no puede soslayarse su “La sociedad del cansancio”, donde plantea que aquel que se cree un piola por encima del sistema labura el triple y, termina explotándose a sí mismo. La responsabilidad, en el caso de las sociedades coloniales, con sus ínfulas de desarrollo, recae en sus élites empresariales gobernantes y la responsabilidad en el FMI y los estados de shock, el FMI que da dinero o crédito a cambio de almas humanas. Mientras uno se encuentra en estado de shock, se produce la transformación humillante de la sociedad: la flexibilización laboral, la desregulación, los despidos y la competencia cruenta.


Partiendo de la lectura de Basho, Chul Han plantea, contra un prejuicio frecuente, que el zen está lejos de ser una concepción egoísta. “El despertar a la caducidad desinterioriza el yo”, opina. En este punto, la actitud del viajero Basho, su bloqueo del yo, no tiene nada que ver ni con el turismo ni con la exploración económica y cobra una vigencia cuestionadora de las apetencias del sujeto neoliberal. La atención al contexto se opone a la dispersión que propone el mundo del Big Data, esa suma de información antagónica a la articulación del pensamiento crítico. Digamosló simple: información no es saber. Y la atención, su secreto, no equivale al embobamiento sino a sorprenderse y registrar esa revelación que suele producirse al conectar en lo cotidiano. La atención del haikú, por tanto, no está puesta en ningún yo. Se diría que quien escribe es nadie. “Los haikús expresan el mundo las cosas en su ser en sí, que brilla fuera de la intervención humana”, escribe Chul Han. El haikú, ante el ruido, con su laconismo, invita a la reflexión y el silencio. El filósofo se pregunta entonces “¿Qué decir brilla a través del no decir?”. En este sentido, lo que exige un haikú es no aferrarse a uno mismo, soltarse, ser en los otros como los otros en uno, posibilidades del ser que sabotean, de sólo pensarlas, a quienes se empeñan, desde el establishment, mediante discursos seudo orientalistas, en conducirnos al burn out, la depresión, la anorexia, el cáncer y/o el suicidio. ¿Acaso este ir dócilmente hacia la autodestrucción no es, en su alienación, la antítesis del camino interior?


Nota: El más recordado de los viajes de Basho, Sendas de Oku, fue traducido por Octavio Paz y Eikichi Hayashisha. Una edición que comprende varios de sus itinerarios, Diarios de viaje, es la del argentino Alberto Silva, estudioso de la cultura zen, en conjunto con Masateru Ito. De Silva también es recomendable El libro del haikú.

 

Por Guillermo Saccomanno

Publicado enCultura
No lo llames censura, llámalo derechos de autor

Con la aprobación en el Parlamento Europeo del texto final de la directiva de Copyright, la Unión Europea ha perdido la oportunidad histórica de desarrollar legislaciones de derechos de autor adaptadas a Internet y al siglo XXI. Finalmente lo que se ha votado es un texto tecnófobo, hecho a medida de los monopolios del copyright y que además no garantiza el derecho de los autores a vivir dignamente de su trabajo. 

Solo servirá para recortar libertades y censurar a destajo, bajo la perspectiva delirante de que todo lo que no produce moneda contante y sonante para las majors –¡ojo! no para los autores– debe ser prohibido y eliminado. Una tragedia para los trabajadores del mundo de la cultura que por otra parte una vez más han sido frivolamente incapaces –salvo contadas, valientes y loables excepciones– de informarse de que va realmente el asunto. Han tragado pasivamente con la versión de sus amos y, con victimismo y gula, han sido el altavoz principal para la propaganda liberticida sin siquiera haberse enterado de que todo esto no beneficiará sus derechos, pero si va de eliminar los de todos.


Las alarmas saltaron hace casi dos años cuando descubrimos que, más allá de ser una propuesta de derechos de autor obsoleta, se estaba usando como caballo de Troya para introducir vigilancia, procesamiento automático de datos, gobierno por algoritmos opacos, censura sin mandato judicial, etc…


Esta amenaza que se ha consumado hoy para derechos tan básicos como la libertad de expresión o el acceso a la cultura y a la información se centra en las trampas ocultas principalmente en dos artículos:


Artículo 13 (luego 17): prohibido subir contenidos sin licencia


Se considerará a las plataformas -desde servicios mediano de alojamiento web hasta gigantes de Internet- responsables de cualquier infracción de derechos de autor que cometan sus usuarios y se les conmina a tomar medidas preventivas: o sea ya no se trata de eliminar contenido sino directamente de impedir que se suba. Naturalmente nadie les obliga a nada. Solo se les hace responsable de lo que suban sus usuarios. Es como si al vendedor de coches se le responsabilizara de los delitos viales comentidos por sus compradores. Esto solo puede desembocar en el filtrado algorítmico de subida (upload filters) de absolutamente todo. Es decir censura previa, automática y masiva de internet. Recientemente Youtube impedía al pianista James Rhodes subir un vídeo suyo tocando a Bach al piano. Este tipo de “errores” que siempre juegan a favor de la privatización del dominio público forman parte del dia a dia de todos los autores que usan Youtube. Y no solo estamos hablando de “errores” que privatizaron el dominio público. Estamos hablando de la dificultad o imposibilidad de subir a internet cualquier tipo de obra derivada: parodias, memes, remezclas, fandom, sátiras… la esencia misma de la cultura y de la libertad política y de expresión.


Artículo 11 (luego 15): Prohibido enlazar sin licencia


La propuesta del artículo 11, conocida como “Linktax” –impuesto al enlace– crea un nuevo “derecho” económico para la patronal de la prensa escrita. Este “derecho” además implica restringir indefinidamente la posibilidad de citarla. Si esto te suena absurdo, arbitrario y contraproducente, te invitamos a leer la propuesta en sí, un texto ambiguo que el jurista Andrej Savin ha definido como “el peor texto legal que he visto en mis 23 años de carrera académica”. Ante esta indefinición, lo más seguro para cualquier plataforma será no enlazar a ningún medio sin permiso explícito.


Esta medida perversa sería el equivalente a nivel europeo al Canon AEDE que ya está vigente en España y Alemania, un canon del que sus propios promotores se lamentaron tras el cierre de Google News en España por su aprobación. El Canon AEDE es paradoxal y los impulsores de esta iniciativa saben que no funcionará en Europa. Por ejemplo, desde Xnet destapamos que el gran grupo editorial Axel Springer se estaba pagando a sí mismo –se enlazaban para pagarse– en una estrambótica simulación de que “todo va bien”.


¿Que pretenden con esto? ¿Qué sentido tiene que la patronal de la prensa presione para aprobar una leyes que impiden que enlaces, difundas y comentes sus contenidos? ¿Se trata solo de la mezcla de ignorancia y avaricia que te llevaría a pegarte un tiro en tu propio pie? Hay un poco de eso sin duda, pero más bien creemos que se trata de la mezcla de ignorancia y avaricia que te lleva a sacarte un ojo para que a tu enemigo le saquen dos. Con leyes de este tipo la patronal de la prensa podría acosar legalmente hasta el cierre a agregadores sociales y comunidades como Meneame o Reddit, eliminando a cualquier nuevo competidor y consolidando su posición monopolística. Convirtiéndose en la única voz en un Internet en el que solo hablaran ellos y que aspiran a convertir en una nueva televisión.


Todo esto que parece una distopía de ciencia ficción, un intento imposible de ponerle puertas al campo o una profecía lúgubre exagerada por activistas preocupados ya se está implementando hoy en día en las grandes plataformas.


De momento existen dos opciones.


• Modelo Spotify


Se trata de que la plataforma adquiera todas las licencias nacionales e internacionales y disponibilice todos los contenidos unidireccionalmente impidiendo a los usuarios la subida. Incluso así, en el caso de Spotify, uno de los pocos gigantes que puede permitírselo hoy en día; pagar a los monopolios de derechos de autor ha encarecido tanto su actividad que su sostenibilidad no está garantizada a medio plazo a pesar de su éxito comercial. Si este es el caso de Spotify, podemos imaginar qué pasará con las medianas empresas en internet. Este modelo tiene otro defecto que ya es obvio para la mayoría de los artistas. La cantidad de dinero final que reciben los autores reales es cero o próxima a cero.


• Modelo Facebook/Google


Estos nuevos monopolios de Internet se niegan a compartir su tarta con los viejos monopolios del copyright así que optan ya por el filtrado masivo y automático de todos los contenidos. Su adaptación al artículo 13 será más fácil. Bastará con que los mecanismo de filtrado sean ahora previos a la subida. Esta tecnología, además de opaca y exclusiva, es muy cara y su obligatoriedad hará casi imposible que surjan y prosperen competidores de estos gigantes. Google gastó unos 100 miliones para crear la tecnología que le ha permitido hasta ahora responder a las reclamanciones por copyright que les llegan de lo que es tan solo el 1% de sus usuarios.

El efecto que tendría estas normas arbitrarias sobre la libre conversación en Internet y sobre la difusión y acceso a la cultura y a la información es devastador.


Los derechos de autor son importantes. ¿Pero de qué derechos hablamos? ¿Y de qué autores? Una propuesta democrática con vocación de consenso amplia que hubiese aspirado a garantizar el trabajo digno de los autores sin vulnerar derechos fundamentales de los ciudadanos debería haberse enfrentado audazmente y por fin a los monopolios del copyright y a entidades de gestión bajo sospecha cuando no directamente investigadas, juzgadas y condenadas como la SGAE. También debería haber partido de la base de que el concepto de autor o medio ha cambiado en los últimos 20 años. Desde el inicio de la web 2.0, el contenido generado por los usuarios ha pasado de ser un interesante experimento social a la realidad digital en la que nos sumergimos cada día. El contenido generado por los que antaño eran “grandes” medios no llega al 5% del tráfico de Internet en una sociedad como la española. La UE a perdido una oportunidad de tratar a sus ciudadanos como generadores de contenido y no como simples ladrones de los contenidos de una élite. Ninguna empresa, medio o autor ha escrito la wikipedia, convertido la Red en el repositorio de todos los videos del mundo o generado millones de tuit al día. Nosotros, la gente, lo hicimos. Internet no es de ellos.


Las amenazas ocultas dentro de la directiva de copyright que se ha aprobado hoy forman parte de un intento de volver a meter el genio dentro de la botella e instaurar una inquisición que permita por fin controlar internet. Nuestros políticos y grandes empresas envidian a China como modelo. La idea inicial de los padres y madres de la World Wide Web y de Internet tal y como lo conocemos, la idea de una arquitectura abierta para compartir enlaces sin cortapisas, fue clave en su éxito. Esta arquitectura se modificará radicalmente si se aplica está directiva tal y como está concebida Ahora la UE quiere crear un Internet con licencia: como somos una sociedad civilizada no se puede llamar censura, así que la llaman Copyright.

En la votación final todo el poder y dinero ha estado de un lado. La gente que nos situemos del otro lado-a favor de la libertad de expresión, de un internet abierto y de un copyright adaptado al s.XXI que permita a los autores vivir dignamente y no de las migajas de las entidades de gestión- en la mayor movilización que ha habido contra una directiva hemos sido vilipendiados, llamados ladrones, piratas y acusados de supuestos absurdos. Nuestra movilización no les ha impedido aprobar esta aberración, pero si hacerlo camuflado como algo positivo.


La ciudadanía activa por los derechos civiles en internet seguiremos cumplirendo con nuestra obligación y dando la batalla. Internet tiene memoria y los eurodiputados que han votado a favor de esta aberración deben asumir las cnsecuencias en las proximas elecciones. Seguiremos luchando ahora y durante la transposición de la normativa en España para preservar un Internet libre, herramienta de democracia y de futuro con o sin ayuda de “los artistas” o la “izquierda parlamentaria”, pero no sin constatar con amargura el peligroso futuro para la libertad de expresión y de información y nuestras libertades todas en el nuevo contexto de la era digital, donde una y otra vez se mata a la herramienta y al mensajero para preservar un statu quo que no debe perdurar.


Actualización del texto publicado en el nº 70 de la Revista Mongolia.


Xnet es el grupo fundador en España de la coalición #SaveYourInternet compuesta por grupos internacionales tan icónicos como la Electronic Frontier Foundation (EFF) y grupos de todos los países de la Unión Europea unidos para coordinar la campaña sobre los peligros ocultos en la nueva Directiva Europea sobre Copyright.

 

Artículo relacionado

Directiva de 'copyright': últimas horas para evitar la censura automatizada en internet

Lunes 25 de marzo 2019

Publicado enSociedad
Tras las huellas de la conciencia en el cerebro

“La conciencia es el teatro donde se desarrollan las miserias y alegrías de los seres humanos”, dice Enzo Tagliazucchi, uno de los referentes locales del proyecto. Es doctor en Física e Investigador del Conicet en el Instituto de Física de la Facultad de Ciencias Exactas y Naturales de la UBA. La investigación, publicada en la prestigiosa revista Science Advances, fue realizada en centros internacionales de Francia, Bélgica, EE.UU. y Canadá, e incluyó 159 resonancias magnéticas de individuos sanos, pacientes en estado vegetativo y otros con mínima conciencia. Aquí explica qué es la conciencia, describe por qué puede considerarse un “todo dinámico y complejo” y narra las implicancias futuras que estos avances podrían tener en el campo de la salud y la medicina.


–¿Qué es la conciencia?


–Es un punto de vista acerca del mundo, aquella respuesta más directa frente a la pregunta sobre qué se siente ser un cerebro humano. Dicho de otro modo, quizás más metafórico, es una ventana a través de la que todos miramos, tenemos experiencias y las sentimos en primera persona. Sin embargo, todavía resulta difícil saber cómo las neuronas y la materia que conviven en una masa esponjosa como es el cerebro, de repente, desarrollan una propiedad única –que ningún otro sistema físico tiene– y sobre todo privada. Esta cualidad, su privacidad, despierta mucha incertidumbre, tal es así que podría hacernos dudar en algún punto sobre la misma posibilidad de estudiar de manera científica a la conciencia. Se generan grandes vacíos entre el conocimiento disponible y las experiencias sensoriales que cada persona pueda tener. Para el filósofo Daniel Dennett, el objeto de una ciencia de la conciencia debe ser la subjetividad que los individuos manifiestan respecto de la comprensión de sus propios comportamientos.

–Pero como decía Descartes, los sentidos engañan.

–Bueno, ese es uno de los asuntos que las ciencias que estudian las subjetividades no han logrado trascender. Uno puede intentar describir una sensación de dolor o alegría, pero como dato científico resulta bastante difícil de explicar. Existe un trabajo muy leído y citado titulado “¿Qué se siente ser murciélago?”, cuyo autor es Thomas Nagel. Se sabe que estos animales se desplazan por ecolocación, es decir, calculan la distancia a la que se encuentran los objetos mediante la emisión de sonidos que son reflejados por aquellos. Podemos examinar su cerebro de manera de entender punto por punto cómo funciona este proceso, pero no sabemos cómo se siente. No sabemos si se siente como escuchar o si, más bien, la ecolocación se parece a ver. Es una pregunta que, a menos que seas un murciélago, será imposible de responder.

–De aquí los límites de la ciencia. Por eso, tal vez, intentar conocer el mundo sea tan fascinante: por todo lo que todavía se desconoce. Más aún si nos referimos a la conciencia.

–Exactamente. Hoy solo podemos aspirar a encontrar los correlatos neuronales de la conciencia. A diferencia de cualquier otro objeto de estudio, aquí el propio sistema que estudiamos nos marca la pauta de cuáles son las condiciones experimentales. De hecho, si en los experimentos que realizamos las personas no nos comparten su subjetividad es imposible avanzar. En los departamentos de física, algunas veces, quienes estudian la conciencia no son observados con buenos ojos. Me esfuerzo en explicar que, en verdad, se trata de un sistema físico extremadamente interesante, tan enigmático que nos despierta nuevas preguntas a cada paso.


–Conversemos respecto de su última investigación. ¿A dónde va la conciencia cuando el ser humano está inconsciente?


–Nosotros trabajamos con diversas teorías que intentan responder a este interrogante. La conciencia posee múltiples configuraciones posibles, ya que la cantidad de escenas del sentir que se pueden presentar es astronómica. La postura dominante en este campo plantea que cada estado consciente depende de una disposición física particular del cerebro. Al mismo tiempo, también sostenemos que la conciencia determina un todo unificado: el ser humano no posee una conciencia separada para escuchar, otra para ver y una distinta para oler, sino que reúne a todos los sentidos, los pensamientos y las funciones. Intentar dividirla es como probar dividir los polos de un imán. Esto origina la teoría del núcleo dinámico –desarrollada por el psiquiatra italiano Giulio Tononi– que postula que la conciencia no constituye un lugar en el cerebro (no determina una zona física particular) sino un proceso dinámico en constante evolución. De este modo, cuando una persona pierde la conciencia –durante una anestesia o un sueño profundo– el cerebro adopta configuraciones que no le permiten soportarla. Se manifiesta como una ausencia de subjetividad. Lo más sorprendente no es que la conciencia se vaya, sino que después vuelva y uno siga siendo el mismo.


–La conciencia como algo unificado que fluye en el tiempo.


–Si bien la conciencia no está fragmentada en átomos –como se creía en el pasado–, sostenemos que es posible que esté segmentada en momentos bien definidos. Para lograr integrarse necesita de un cierto tiempo, fundamental para que fluya la información. Como es un proceso, jamás es algo instantáneo.


–Su trabajo se realizó a partir de 159 resonancias magnéticas de individuos sanos y en estado vegetativo o con mínima conciencia. ¿Qué puede narrar al respecto?


–Quisimos comprobar si la conciencia tenía que ver con la comunicación que se produce entre las diferentes zonas del cerebro. Mientras que en las personas sanas hallamos un patrón rico de conectividad, en los pacientes con “mínima conciencia” advertimos que logran establecer comunicaciones funcionales de manera esporádica. Eso ocurre, por caso, cuando en una situación experimental le pedimos a un individuo que nos alcance un lápiz y quizás al primer intento no lo hace, pero luego de varios llamados atiende la solicitud. Experiencias como éstas marcan un mundo de diferencia con las personas a las que se diagnostica un estado vegetativo persistente; las que rara vez logran recuperarse ya que no exhiben, a través de resonancias magnéticas y otros análisis, esa integración que pudiera dar cuenta de la emergencia de sensaciones subjetivas. Es muy difícil distinguir a pacientes con mínima conciencia y aquellos en estado vegetativo, lo cual es muy sensible porque en muchos países se toma la decisión (como recurso humanitario) de discontinuar el soporte vital.


–Se trata de identificar las huellas de la conciencia en el cerebro. También utilizaron anestesia general en los tres casos. ¿Qué sucedió?


–Cuando suministramos anestesia general a los pacientes vegetativos advertimos que no se modificaba su situación porque ya manifestaban un estado de inconsciencia de antemano; los de mínima conciencia perdieron esos pocos fragmentos de lucidez que evidenciaban; mientras que los sujetos experimentales sanos también demostraron un patrón de inconsciencia. Y, luego, realizamos otro experimento muy interesante. Seguimos la pista de Adrian Owen, científico británico que trabaja actualmente en Canadá con pacientes en estado vegetativo. En un caso planteó que no lograban comunicarse porque sus vías sensoriales estaban cortadas, de modo que lo introdujo en un resonador y le pidió que imaginase estar jugando al tenis y caminando en su casa. Cuando hizo eso, los patrones cerebrales que emergieron fueron idénticos a los que aparecen cuando una persona sana imagina jugar al tenis o caminar en su casa. A tal punto que Owen logró comunicarse con el paciente y establecieron el código de que cuando quería decir “sí” se imaginara jugando al tenis. Nosotros replicamos este método y también comprobamos que funcionaba.


–Increíble. Estos avances podrían brindar nuevas pistas para el campo de la salud.


–La conciencia es el teatro donde se desarrollan las miserias y alegrías de los seres humanos. Estos resultados muestran de manera concluyente que las manifestaciones físicas de nuestra experiencia humana nunca van a ser inequívocamente identificadas con un grupo de regiones cerebrales. La noción de que es posible identificar una zona del cerebro para cada facultad humana se derrumba, al menos, para el caso de la conciencia. En el campo de la medicina, a veces es necesario comprender que es más importante tener una conciencia libre de sufrimiento que un cuerpo que funcione tan bien como una máquina. Me resulta escandaloso que a pacientes avanzados de cáncer no se les recete morfina, porque aunque tiene potencial para generar dependencia resulta cínico no suministrarla para aliviar las cargas cuando enfrentan un estado terminal.


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Domingo, 17 Marzo 2019 06:17

Los modos de producción de ignorancia

Los modos de producción de ignorancia

Escribí hace mucho tiempo que cualquier sistema de conocimientos es igualmente un sistema de desconocimientos. Hacia dondequiera que se orienten los objetivos, los instrumentos y las metodologías para conocer una realidad dada, nunca se conoce todo sobre ella y queda igualmente por conocer cualquier otra realidad distinta de la que tuvimos por objetivo conocer. Por eso, y como bien vio Nicolás de Cusa, cuanto más sabemos, más sabemos que no sabemos. Pero incluso de la realidad que conocemos, el conocimiento que tenemos de ella no es el único existente y puede rivalizar con muchos otros, eventualmente más corrientes o difundidos.


Dos ejemplos ayudan. Primer ejemplo: en una escuela diversa en términos etnoculturales, el profesor enseña que la tierra urbana o rural es un bien inmueble que pertenece a su propietario y que este, en general, puede disponer de ella como quiera. Una joven indígena levanta el brazo y comenta al profesor: "Profesor, en mi comunidad la tierra no nos pertenece, nosotros pertenecemos a la tierra". Para esta joven, la tierra es la Madre Tierra, fuente de vida, origen de todo lo que somos. Es, por tanto, indisponible. Segundo ejemplo: durante un proceso electoral en una determinada circunscripción de una ciudad europea donde es mayoritaria la población romaní (vulgarmente llamada gitana), los colegios electorales identifican individualmente a los electores censados. El día de las elecciones, la comunidad romaní se presenta en bloque en los centros de votación reivindicando que su voto es colectivo porque colectiva fue la deliberación de votar en cierto sentido o a favor de cierto candidato. Para los romaní no hay voluntades políticas individuales autónomas en relación con las del clan o la familia. Estos dos ejemplos muestran que estamos en presencia de dos concepciones de naturaleza (y propiedad), en un caso, y de dos concepciones de democracia, en el otro.


Frente a la diversidad de conocimientos y desconocimientos, hay tres modos de producción de ignorancia. El primer modo (llamémosle modo 1) reside precisamente en atribuir exclusivamente a un modo de conocimiento el monopolio del conocimiento verdadero y riguroso y despreciar a todos los demás como variantes de ignorancia, sean ellas opiniones subjetivas, supersticiones, atavismos. Este modo de producción de ignorancia sigue siendo el más importante, sobre todo desde que la cultura eurocéntrica (una cierta comprensión de ella) tomó contacto profundo con culturas extraeuropeas, especialmente a partir de la expansión colonial moderna. A partir del siglo XVII la ciencia moderna se consolidó como poseedora del monopolio del conocimiento riguroso. Todo lo que está más allá o fuera de él es ignorancia. No es este el lugar para volver a un tema que tanto me ha ocupado. Solo diré que el modo 1 produce un tipo de ignorancia: la ignorancia arrogante, la ignorancia de quien no sabe que hay otros modos de conocimiento con otros criterios de rigor y detenta el poder suficiente para imponer su ignorancia como única verdad.


El segundo modo de producción de ignorancia (modo 2) consiste en la producción colectiva de amnesia, de olvido. Este modo de producción ha sido activado con frecuencia en los últimos cincuenta años, sobre todo en países que han pasado por largos períodos de conflicto social violento. Estos conflictos tuvieron causas profundas: gravísima desigualdad socioeconómica, apartheid basado en discriminación etnorracial, cultural, religiosa, concentración de tierra y consecuente lucha por la reforma agraria, reivindicación del derecho a la autodeterminación de territorios ancestrales o con fuerte identidad social y cultural, etcétera. Estos conflictos, que a menudo se traducirían en guerras prolongadas, civiles u otras, produjeron millones de víctimas entre muertos, desaparecidos, exiliados y personas internamente desplazadas. Además de las partes en conflicto, siempre hubo otros actores internacionales presentes e interesados en el desarrollo del conflicto, y su intervención condujo tanto al agravamiento de este como (menos frecuentemente) a su término. En algunos casos hubo un vencedor y un vencido inequívocos. Este fue el caso del conflicto entre el nazismo y los países democráticos. En la mayoría de los casos tiende a ser cuestionable si hubo o no vencedores y vencidos, sobre todo cuando la parte supuestamente vencida impuso condiciones más o menos drásticas para aceptar el fin del conflicto (véase el caso de la dictadura brasileña que dominó el país entre 1964 y 1985).


En ambos casos, terminado el conflicto, se inicia el posconflicto, un periodo que busca reconstruir el país y consolidar la paz. En este proceso participan con especial énfasis las comisiones de verdad, justicia y reconciliación, muchas veces como componentes de un sistema más amplio que incluye la justicia transicional y la identificación y el apoyo a las víctimas. Por ejemplo, Corea del Sur, Argentina, Guatemala, Sudáfrica, la exYugoslavia, Timor Oriental, Perú, Ruanda, Sierra Leona, Colombia, Chile, Guatemala, Brasil, etc. En la mayoría de los procesos posconflicto, fuerzas diferentes militaron por diferentes razones para que la verdad no fuese plenamente conocida. Ya sea porque la verdad era demasiado dolorosa, ya sea porque obligaría a un profundo cambio del sistema económico o político (desde la redistribución de la tierra, el reconocimiento de la autonomía territorial y un nuevo sistema jurídico-administrativo y político). Por cualquiera de estas razones, se prefirió la paz (¿paz podrida?) a la justicia; se prefirió la amnesia y el olvido a la memoria, la historia y la dignidad. Se produjo así una ignorancia indolente.


El tercer modo de producción de ignorancia (modo 3) consiste en la producción activa y consciente de ignorancia por vía de la producción masiva de conocimientos de cuya falsedad los productores son plenamente conscientes. El modo 3 produce conocimiento falso para bloquear la emergencia de conocimiento verdadero a partir del cual sería posible superar la ignorancia. Es el dominio de las fake news. Al contrario de los modos 1 y 2, la ignorancia aquí no es un subproducto de la producción. Es la ignorancia malévola. Es el producto principal y su razón de ser. Los ejemplos desgraciadamente no faltan: la negación del calentamiento global, los inmigrantes y refugiados como agentes del crimen organizado y amenaza a la seguridad de Europa y de Estados Unidos, la distribución de armas a la población civil como el mejor medio para combatir la criminalidad, las políticas de protección social de las clases más vulnerables como forma de comunismo, la conspiración gay para destruir las buenas costumbres, Venezuela y Cuba como amenaza a la seguridad de Estados Unidos, etcétera.


Los tres modos de producción generan tres tipos diferentes de ignorancia, están articulados y tienen consecuencias distintas para las democracias. El modo 1 produce una ignorancia arrogante, abisal, que es simultáneamente radical e invisible en la medida en que el monopolio del conocimiento dominante es generalmente admitido. Las verdades que no caben en la verdad monopólica no existen y tampoco existen las poblaciones que las suscriben. Abre un campo inmenso para la sociología de las ausencias. Fue por eso por lo que el genocidio de los pueblos indígenas y el epistemicidio de sus conocimientos (valga el pleonasmo) anduvieron de la mano.


El modo 2 produce la ignorancia indolente, que se satisface superficialmente y que, por eso, permanece como herida que quema sin verse. Es la ignorancia-frustración que sigue a la verdad-expectativa. Una ignorancia que bloquea una posibilidad y una oportunidad emancipadoras que estuvieron próximas, que eran realistas y que, además, eran merecidas, al menos en la opinión de vastos sectores de la población. Esta ignorancia sugiere una sociología de las emergencias, de la emergencia de una sociedad que se afirma reconciliada consigo misma, con base en la justicia social, histórica, etnocultural, sexual.
El modo 3 crea una ignorancia malévola, corrosiva y, tal como un cáncer, difícilmente controlable, en la medida en que el ignorante es transformado en emprendedor de su propia ignorancia. Las redes sociales tienen un papel crucial en su proliferación. Esta ignorancia está más allá de la ausencia y la emergencia. Esta ignorancia es la prefiguración de la enajenación, el vértigo impensado e impensable del tiempo inmediato.


Los tres modos de producción y las respectivas ignorancias que producen no existen en la sociedad de modo aislado. Se articulan y potencian por vía de las articulaciones que las tornan más eficaces. Así, la ignorancia arrogante producida por el modo 1 (monopolio de la verdad) facilita paradójicamente la proliferación de la arrogancia malévola producida por el modo 3 (falsedad como verdad alternativa). Una sociedad saturada por la fe en el monopolio de la verdad científica se vuelve más vulnerable a cualquier falsedad que se presente como verdad alternativa usando los mismos mecanismos de la fe. A su vez, la ignorancia indolente producida por el modo 2 (amnesia, olvido) desarma a vastos sectores de la población para combatir la ignorancia producida tanto por el modo 1 como por el modo 3. La ignorancia arrogante es una de las principales causas de la ignorancia indolente, es decir, de la facilidad con que se olvida, normaliza y banaliza un pasado de muerte de inocentes, de sufrimiento injusto, de saqueos convertidos en ejercicios de propiedad, de cuerpos de mujeres y de niños abusados como objetos de guerra. Cuando la ignorancia arrogante se complementa con la ignorancia malévola, la ignorancia indolente se hace tan invisible que es prácticamente imposible de erradicar.


Por último, el impacto de estos tres tipos principales de ignorancia en las democracias de nuestro tiempo es convergente, pero diferenciado. Todas contribuyen a producir una democracia de baja intensidad. La ignorancia arrogante hace imposible la democracia intercultural, plurinacional, en la medida en que otros saberes y modos de vida y de deliberación son impedidos de contribuir a la profundización de la democracia. Hace que vastos sectores de la población no se sientan representados por sus representantes y ni siquiera participen en los procesos electorales de raíz liberal. La ignorancia indolente retira de la deliberación democrática decisiones sobre justicia social, histórica, sexual y descolonizadora sin las cuales la práctica democrática es vista por amplias capas de la población como un juego de élites, una disputa interna entre los vencedores de los conflictos históricos. Pero la ignorancia malévola es la más antidemocrática de todas. Sabemos que las deliberaciones democráticas se realizan con base en hechos, percepciones y opiniones. Ahora la ignorancia malévola priva a la democracia de los hechos y, al hacerlo, convierte la buena fe de los que de ella son víctimas en jugadores ingenuos o extras en un juego perverso donde siempre pierden y, más que eso, se autoinfligen la derrota.

 

Traducción de Antoni Aguiló y José Luis Exeni Rodríguez

Publicado enSociedad
Los mitos de la ciencia y la ingenuidad de los científicos

En estos días que se habla con ardor acerca del papel de la ciencia, y de su hija mayor la tecnología, para el futuro del país, conviene recordar apreciaciones básicas sobre la verdadera función de esta institución llamada ciencia, uno de los mayores pilares de la modernidad que padecemos. Con apenas dos siglos de existencia y en plena sinergia con el capitalismo, los combustibles fósiles, la industria, el individualismo y el patriarcado, la ciencia es la culpable mayor de múltiples beneficios pero también de los principales riesgos, lacras, peligros y amenazas que hoy afectan a la humanidad.

Tres son los principales mitos que engalanan a la ciencia contemporánea y que sirven para ocultar su verdadera esencia. El primero atañe a su fetichización. Siempre se tiende a hablar de La Ciencia (con mayúsculas) elevada a una suerte de entidad suprema, en vez de reconocer las diferentes modalidades del quehacer científico cada una de las cuales persigue fines diferentes y hasta antagónicos. Este fetiche se ve acompañado, segundo mito, por la falsa idea de que toda actividad científica es automáticamente benéfica, moralmente buena e ideológica y políticamente neutra. En consecuencia el científico se identifica siempre como un ser virtuoso: santos del conocimiento verdadero, héroes de la objetividad, mártires por la humanidad, abnegados practicantes del experimento. Su mayor virtud, se afirma, es la de haber sometido a la pasión y eliminado a la subjetividad de sus análisis. El tercer mito lo ha descrito con precisión Jorge Reichmann: “El conocimiento científico es un gran bien. Pero ¿cómo pueden tantos investigadores caer en la ingenuidad cientificista de creer que simplemente incrementar el conocimiento conducirá a la mejora de la condición humana? El progreso científico no implica necesariamente progreso humano. Para que se diera progreso humano sería necesario que las comunidades de ese enrevesado simio averiado que se llama Homo sapiens estuviesen en disposición de usar el conocimiento creciente de forma adecuada”.

Estos tres mitos son cada vez menos creíbles por una razón: En los últimos 50 años, la "ciencia desarrollada" ha sido cooptada, influenciada, dirigida y/o financiada por el capital corporativo que hoy domina al mundo. Los datos de la Unesco indican que la inversión privada se incrementó notablemente en Corea del Sur, China, Alemania, Estados Unidos, Turquía y Polonia. En Estados Unidos hacia 1965 la ciencia académica financiada por el gobierno representaba 60 por ciento y la ciencia corporativa 40 por ciento. Para 2015 ya se había invertido a 30-70 por ciento (Unesco, 2015). La ciencia corporativa mantiene un mundo insustentable al generar gases, líquidos y sustancias tóxicas, fertilizantes químicos, pesticidas, plásticos, alimentos dañinos, medicamentos nocivos, organismos transgénicos, gases de efecto invernadero, y especialmente armas cada vez más sofisticadas y complejas. Sólo las 10 mayores corporaciones de la industria bélica tuvieron en conjunto ingresos anuales de 194 mil millones de dólares (2017), con unos 800 mil empleados, de los cuales 10-20 por ciento son científicos, técnicos e ingenieros. Es probable que la mayoría de los casi 8 millones de científicos que existen en el mundo trabajen ya para las corporaciones. De la misma manera que sucede con muchos gobiernos y empresas, partidos políticos, la Iglesia católica, o la realeza europea, hoy la actividad científica esta teñida de corrupción y desprestigio. Por ejemplo, revistas científicas de larga tradición que han cedido a las presiones de las corporaciones farmacéuticas y biotecnológicas, o el gremio de los Premios Nobel que ha escandalizado con los casos de investigadores racistas (como William Schockley, y el descubridor del ADN, James Watson) o con la carta que firmaron 110 premiados en favor de los alimentos transgénicos y contra Greenpeace (ver).

Es en este contexto que sorprenden por ingenuos los reclamos de "más presupuesto para la ciencia" o "libertad de investigación". En México, la política pública en la materia ha carecido de discusión seria y profunda, y ha seguido los vaivenes marcados por los grupos de poder incrustados en puestos clave del gobierno y de la academia. Grupos que imponen sus líneas de investigación y sus visiones anacrónicas y que, como sucede en la UNAM, buscan controlar áreas como la biotecnología, la ecología, la biomedicina, la química y las ingenierías. Hoy hace falta poner sobre la mesa de discusión los objetivos y la orientación de un Programa Nacional de Ciencia y Tecnología que se ocupe de la resolución de las mayores y más urgentes problemáticas de la nación, sin perder de vista el conflicto que se da entre una ciencia mercantilizada y una ciencia comprometida con el bienestar social y ambiental del país y del planeta. Hoy, la verdadera ciencia se mide por su poder para resolver problemas, no para crearlos. Y este desafío atañe por igual a todas las comunidades científicas del mundo.

 

El primer sismómetro en Marte, listo para detectar 'martemotos'

La instalación robótica de los dos instrumentos de la sonda Insight permitirá descubrir el interior del planeta rojo.

La exploración robótica de Marte sigue adelante, a medida que nuevas naves, de un nivel tecnológico creciente, sustituyen a las muy exitosas anteriores. La última en llegar a la superficie es Insight, de la NASA, que acaba de terminar la instalación en suelo marciano del primer sismómetro que funcionará allí y dará pistas sobre el desconocido interior del planeta rojo. Primero, el brazo robótico de Insight sacó el sismómetro del interior del módulo de aterrizaje y lo situó en el lugar elegido. Ahora, ha conseguido cubrirlo con la cúpula protectora sin la cual no puede funcionar bien. Es la primera vez que una sonda despliega instrumentos a su alrededor.

Mientras tanto, a unos 600 kilómetros de distancia, el todoterreno Curiosity, que lleva en Marte desde 2012, sigue explorando lenta y minuciosamente algunas zonas. Todavía más tiempo lleva en la superficie marciana el célebre vehículo Opportunity, que el año pasado dejó de funcionar debido a una intensa tormenta de arena y que los técnicos siguen intentando despertar desde la Tierra. Su gemelo para la investigación geológica, el Spirit, dejó de funcionar en 2011, pero en ambos casos su misión puede considerase un éxito total, dado que llegaron en 2004 para una misión de solo tres meses.


Insight, por su parte, llegó a finales del año pasado y es un módulo de aterrizaje mandado para estudiar el desconocido interior del planeta mediante dos instrumentos principales, un sismómetro y un complejo termómetro. Debido a la estabilidad que necesita para captar lo que se puede llamar, por analogía, las constantes vitales del planeta (su pulso y su temperatura), se le hizo aterrizar en la llanura Elysium Planitia.


De hecho, el sismómetro de Insight, llamado SEIS, no es el primero que llega a Marte. Tanto la Viking 1 como la Viking 2, lanzadas en 1975, llevaron allí sismómetros de aquella época. Uno no funcionó y el otro no dio datos útiles por el ruido del viento. Por eso precisamente es tan importante que se haya podido instalar sin problemas la cúpula protectora sobre SEIS, un instrumento con el que Francia contribuye a la misión, en la que también participa el español Centro de Astrobiología (CAB) con los sensores de viento.

La cúpula ahora instalada es un escudo térmico y contra el viento para un instrumento muy sensible que está expuesto a las condiciones meteorológicas. En la Tierra, los sismómetros suelen estar enterrados a un metro de profundidad por lo menos. La diferencia de temperaturas en la zona de Marte donde se posó Insight abarca en un solo día marciano 94 grados centígrados, informa el Jet Propulsion Laboratory (JPL), que gestiona la misión para la NASA. El instrumento tiene además un complejo diseño para aislarlo lo más posible. Por otra parte, la forma aerodinámica de la cúpula y la falda de que dispone impiden que los vientos puedan darle la vuelta o moverlo. La estación meteorológica del Insight permite conocer los datos en cada momento y corregir así los que proporcione el sismómetro.


Todo esto es para conocer mejor la estructura interior y la composición de Marte, sobre los que se sabe todavía muy poco. SEIS detectará martemotos y el impacto de meteoritos y sus datos darán información básica para saber la fuente de las ondas sísmicas y comprender cómo Marte y otros planetas rocosos se formaron y evolucionaron, informa el Centro Nacional de Estudios Espaciales de Francia (CNES).


Lo siguiente es instalar el otro instrumento de Insight, la sonda térmica HP3, que se introducirá mediante una taladradora hasta 5 metros de profundidad, un récord en suelo marciano. Medirá el calor que procede todavía del interior de Marte para intentar saber de dónde procede, si Marte se formó del mismo material que la Tierra y la Luna y cómo evolucionó. La sonda tardará unas seis semanas en llegar a la profundidad prevista, con pausas previstas para tomar medidas de conductividad térmica.


En la actualidad Marte tiene una atmósfera muy ligera compuesta principalmente de dióxido de carbono. Los ya largos años de exploración del planeta rojo, en su superficie y con sondas en órbita, han mostrado que en la antigüedad era húmedoy siempre queda la esperanza de que albergara vida. Maven, una de las sondas que orbitan Marte actualmente, ha confirmado que la atmósfera marciana perdió continuamente gases como el oxígeno y el hidrógeno (el aire y el agua) a lo largo de miles de millones de años debido al viento solar, que, mediante diferentes procesos, ha transformado el planeta más caliente y húmedo de la antigüedad en el frío desierto actual.


Por su parte, la Agencia Espacial Europea (ESA), ha resumido 15 años de exploración de Marte con la sonda Mars Express en un vídeo que recoge las espectaculares imágenes que muestran la historia geológica y la evolución de un planeta que fascina.

 

Lunes, 04 Febrero 2019 06:29

Estalla la Guerra Fría tecnológica

Estalla la Guerra Fría tecnológica

EE UU y China libran una batalla que condicionará la evolución de la economía mundial


A principios de semana, el departamento de Justicia de Estados Unidos presentó cargos penales contra el gigante tecnológico Huawei por robo de secretos comerciales, obstrucción a la justicia, fraude bancario y por saltarse las sanciones estadounidenses contra Irán. Acusaciones que pueden dar paso a la extradición a EE UU de la vicepresidenta de Huawei, Meng Wangzhou, retenida en Canadá desde el pasado 1 de diciembre.


Es el último capítulo de un enfrentamiento cada vez más abierto entre EE UU y China a cuenta del desarrollo tecnológico y que ha ido ganando intensidad conforme van pasando los meses. Lo que empezó como los primeros pasos de una guerra comercial entre Estados Unidos y China en 2018, con la imposición de aranceles sobre un número creciente de productos, ha ido evolucionando hasta dejar ver la complejidad de la confrontación entre las dos potencias, donde EE UU ha puesto a las grandes compañías chinas del sector como ZTE, Tencent o Huawei, en el punto de mira de sus acciones. La nueva Guerra Fría es tecnológica.


“La gran diferencia es que 2019 es el año en que todo eso pasa ante el ojo público”, explica Zvika Krieger, director del centro del Foro Económico Mundial (WEF, en sus siglas en inglés) en San Francisco y experto en tecnología. “Hasta ahora, solo los conocedores del sector o las autoridades implicadas en estas cuestiones estaban al tanto de esa guerra tecnológica pero ahora el enfrentamiento es abierto”, reflexiona en una pausa entre reunión y reunión en el Foro de Davos. Tanto que la guerra tecnológica se convirtió en el elefante en la habitación de la cumbre de Davos, el tema no incluido en el programa oficial del que todo el mundo hablaba. “El enfrentamiento entre EE UU y China ha surgido en el 90% de las reuniones a las que yo he asistido”, confesaba en la estación suiza Carlos Pascual, antiguo embajador estadounidense y vicepresidente de la consultora de riesgos IHS Markit, que advertía de que algo ha cambiado para siempre en la relación entre las dos potencias. “Incluso si la guerra comercial se resuelve a lo largo de este mes –el ultimátum vence el 1 de marzo—y China promete comprar muchos más productos estadounidenses y abrir el acceso a su economía a la inversión extranjera, la guerra tecnológica no va a desaparecer”, sentenciaba.


Huawei, inmersa en una campaña global de relaciones públicas inédita en sus algo más de 30 años de historia, defiende su independencia de las autoridades de Pekín. “Somos una empresa que es 100% propiedad de sus empleados y cada año nos sometemos a una auditoría de la mano de KPMG”, clamaba su actual presidente, Liang Hua, en un encuentro poco habitual con los medios de comunicación en Davos. Pero resulta difícil imaginar que Huawei o cualquier otra compañía china puedan resistir las presiones de un régimen como el de Pekín, especialmente en aras de la seguridad nacional.


La emergencia de las empresas tecnológicas chinas en la economía global amenaza el dominio que hasta ahora tenían las empresas estadounidenses del sector. Huawei ya ha superado a Apple como segundo fabricante mundial de smartphones, solo por detrás de la coreana Samsung. Más aún, la compañía de Palo Alto, además, ha tenido que rebajar sus previsiones de ingresos por primera vez desde 2001, en pleno estallido de la burbuja tecnológica, por el impacto que la desaceleración china tiene en sus ventas.


Sistemas antagónicos


Las dimensiones de ese enfrentamiento van más allá de lo puramente sectorial y se adentran de lleno en la geopolítica. El modelo Silicon Valley, el Valle de Santa Clara cercano a San Francisco donde la innovación y el desarrollo tecnológico se han apoyado en una abundante financiación privada capaz de asumir riesgos, puede sucumbir ante el modelo Shenzen, la ciudad china que alberga a algunos de esos gigantes tecnológicos crecidos al amparo de la protección estatal, la transferencia forzosa de tecnología de las multinacionales que quieren hacer negocios en el país y cuantiosa mano de obra barata y formada. Son dos modelos contrapuestos, uno basado en la iniciativa privada y otro impulsado por el sector público, de un régimen autoritario, cabe recordar.


Para dar un impulso definitivo a ese modelo, en 2015 el primer ministro chino Li Keqiang puso en marcha el plan Made in China 2025 para dar un impulso definitivo a la industria del país. Tres años más tarde, el presidente Xi Jinping reformuló el plan para convertir a China en una superpotencia tecnológica —en la industria aeroespacial, la robótica, la biotecnología y la computación— en ese horizonte, con un presupuesto estimado de unos 300.000 millones de dólares (unos 260.000 millones de euros). Un programa que, como reconoce el propio Consejo de Relaciones Internacionales de EE UU en un reciente informe, representa “una amenaza existencial para el liderazgo tecnológico estadounidense”. Y Washington, de la mano de su presidente Donald Trump, ha pasado al ataque. “Los americanos no van a ceder la supremacía tecnológica global sin luchar y el caso Huawei demuestra que esa batalla ya ha comenzado”, aseguraba en una reciente entrevista Michael Pillsbury, director del centro de estudios sobre China del Hudson Institute y asesor de la Administración de Trump. Pillsbury acaba de publicar un libro sobre el tema La maratón de los cien años. La estrategia secreta de China para sustituir a EE UU como superpotencia global.


“A lo largo de 2018 la competición tecnológica se hizo extremadamente política. Este año, los inversores y los mercados van a empezar a pagar el precio de ese cambio”, advertía a principios de enero la consultora de riesgos Eurasia Group que dirige Ian Bremmer. Para Eurasia, de hecho, uno de los diez principales riesgos para este ejercicio es ese invierno en la innovación derivado de las tensiones entre EE UU y China, que van a obligar al resto del mundo a tomar partido por uno de los dos bandos y que van a provocar un freno en las inversiones y el desarrollo tecnológico a nivel global.


En esta ocasión el freno se puede producir en el desarrollo de las redes móviles de 5G, una tecnología que los expertos definen como cuantitativa y cualitativamente diferente a las anteriores generaciones de Internet móvil y que “va a ser radicalmente distinta a nada que le haya precedido, en términos de la innovación que va a propiciar”, explica Paul Triolo, jefe de Geotecnología de Eurasia Group. Si hacemos caso a la teoría que sostiene que cada revolución industrial ha ido precedida y asociada al desarrollo de una tecnología concreta que cambia la sociedad de forma radical, en el caso de la cuarta revolución industrial esa tecnología es el 5G. El desarrollo de coches sin necesidad de conductor o de ciudades inteligentes, por ejemplo, exige una enorme cantidad de datos, con disponibilidad casi inmediata, que solo las redes 5G pueden hacer posible. “La implantación del 5G es la clave para el desarrollo de la economía digital, el Internet de las cosas y determinará la evolución de la industrial. Es una tecnología en una generación”, sostiene Zvika Krieger.


Es ahí donde hay que enmarcar la campaña emprendida a lo largo del año pasado por las autoridades estadounidenses para persuadir a sus socios internacionales de vetar a Huawei del desarrollo de las redes de 5G. Los integrantes de la alianza de los Cinco Ojos [Five Eyes], un acuerdo de inteligencia firmado por EE UU, Canadá, Reino Unido, Australia y Nueva Zelanda, se han comprometido a vetar en sus países al gigante tecnológico chino, líder en el desarrollo de componentes para implantar esas redes, por amenaza a su seguridad nacional. A ese veto evalúan sumarse Alemania, Francia y Noruega por temor a que China pueda llevar a cabo operaciones de espionaje a través de los equipos de Huawei. La británica Vodafone ha anunciado que aplazaría la instalación de nuevo equipamiento de red básica de Huawei en todas sus operaciones europeas, con gran impacto en los países del Este. Previamente, British Telecom había declarado que eliminaría en un plazo de dos años todos los equipos de la empresa china utilizados en la red básica de la operadora móvil. La operadora alemana Deutsche Telekom ha alertado, sin embargo, que esas decisiones pueden provocar una demora en el desarrollo del 5G en Europa, previsto para 2020, de al menos dos años.


“Según ha ido escalando la confrontación comercial y tecnológica entre EE UU y China a lo largo del último año, impulsada por los temores económicos y de seguridad nacional de Estados Unidos y por los ambiciosos objetivos de desarrollo industrial, tecnológico y económico de China, cada decisión asociada con el desarrollo de las redes 5G se ha politizado”, explica Paul Triolo, en su último informe La geopolítica del 5G.


En esas circunstancias cada vez más voces del sector inciden en la necesidad de abordar esta cuestión desde un punto de vista multilateral y supranacional. En el mismo Foro de Davos, la canciller Angela Merkel defendió la necesidad de crear un organismo multilateral, una especie de OTAN tecnológica que aborde tanto las cuestiones de ciberseguridad, como el tratamiento de datos, la ética de la Inteligencia Artificial o la biogenética. “No hay ningún tipo de arquitectura internacional en ese ámbito y no puedo imaginar que cada país vaya en eso por su lado”, aseguró la canciller. “Hemos quedado [Europa] muy a la zaga en el desarrollo de las plataformas tecnológicas pero en cambio la Unión Europea ha sentado las bases para reglamentar el tratamiento de los datos y ese debe ser el rasero europeo para avanzar en la digitalización”, aseguró ante un abarrotado plenario del centro de Congresos.


Merkel se refería a la puesta en marcha del Reglamento General de Protección de Datos (GDPR, en sus siglas en inglés) que entró en vigor a finales de 2018. Una decisión encaminada a proteger el tratamiento de los datos de los consumidores que fue inicialmente rechazada por los gigantes tecnológicos pero que ahora ven como tabla de salvación para recuperar la confianza de los consumidores. “Personalmente pienso que es un fantástico inicio para empezar a tratar la privacidad como un derecho humano. Espero que en Estados Unidos hagamos algo similar y que el mundo avance hacia unos estándares comunes en este ámbito”, confesaba el primer ejecutivo de Microsoft, Satya Nadella, en uno de los debates celebrados en la ciudad suiza. California ha puesto en marcha su propio GDPR pero no hay ninguna iniciativa a nivel estatal en Estados Unidos para garantizar la privacidad de los usuarios y cada vez más voces admiten que en este ámbito no cabe la autorregulación.


“El mercado no discrimina sobre el uso correcto o erróneo de las tecnologías. Por ejemplo, el uso del reconocimiento facial por parte de la Policía de Nueva Delhi ha permitido identificar en apenas cuatro días a casi 3.000 niños desaparecidos. En otros casos, el uso del reconocimiento facial puede utilizarse para invadir la privacidad y con sesgo político”, admitió Nadella. “Apoyamos cualquier tipo de regulación que ayude a que el mercado no se convierta en una carrera hacia el fondo”, afirmó.


Para Krieger, hay cuestiones que se deben abordar sin dilación: “No hay transparencia en cómo se recogen los datos, ni en cómo se usan por parte de las empresas. No se puede monitorizar su uso posterior ni se les puede sacar dinero”. Dos años después de montar el centro del WEF en San Francisco, para este experto tecnológico, que fue el primer representante del Departamento de Estado en Silicon Valley, las empresas son las que tienen ahora más urgencia en establecer reglas claras para su funcionamiento, en línea con la reivindicación de Merkel.


Preocupación añadida


Aunque la canciller tenía en mente la necesidad de proteger la privacidad de los usuarios y de responder a los cada vez más habituales y devastadores ataques informáticos cuando apelaba en Davos a la creación de una OTAN de la ciberseguridad, las empresas tienen otra preocupación añadida. La creación de algún tipo de arquitectura global que haga frente a los desafíos de la nueva realidad tecnológica puede resultar decisivo para evitar lo que los expertos llaman la balcanización de Internet, el temor a una fragmentación de la Red que haga incompatibles unos sistemas con otros. Y el riesgo crece en el actual escenario donde confluyen la confrontación de EE UU y China y el desarrollo de una tecnología disruptiva y revolucionaria como el 5G.


“Un ecosistema del 5G dividido aumentará el riesgo de que la tecnología global se divida en dos esferas de influencia separadas, divididas políticamente y sin posibilidad de que operen entre ellas. Una, impulsada por Estados Unidos y desarrollada tecnológicamente en Silicon Valley, y otra, liderada por China y respaldada por su eficiente red de plataformas digitales”, apunta el informe de Eurasia sobre la geopolítica del 5G.


Una preocupación de primera magnitud para el sector y que Zvika Krieger ratifica. “Lo más preocupante es que la interoperabilidad de la Red se mantenga y ahí el sector público, los Gobiernos, deben asumir la responsabilidad y el liderazgo”. A su juicio, China es la primera interesada en que se proteja la interoperabilidad de Internet y ha mostrado su disposición a cooperar en este ámbito.


Pero no a cualquier precio. En el mismo escenario en el que Merkel había apelado a la cooperación internacional, el vicepresidente chino, Wang Quishan, defendía poco después el modelo chino de desarrollo tecnológico. “Es imprescindible respetar la soberanía nacional y evitar la hegemonía tecnológica, interfiriendo en cuestiones domésticas de otros países y llevando a cabo actividades tecnológicas que minen la seguridad nacional de otros países”, decía al auditorio. “Tenemos que respetar las elecciones independientes sobre el modelo de gestión tecnológica y las políticas públicas que haga cada país y el derecho a participar en el sistema de gobernanza global como iguales”. La Guerra Fría tecnológica sigue en pie.

3 FEB 2019 - 12:59 COT

Lunes, 28 Enero 2019 10:48

Cuando la forma quiere ser el fondo

La decisión está tomada: en Colombia nacerá el Ministerio de Ciencia y Tecnología, una clara respuesta a las exigencias de la Ocde para darle cabida al país en su estructura. Sin embargo, como parece ser la constante de este Gobierno, todo es forma y apariencia, nada contenido y cuerpo.

 

De los 34 países de la Ocde, 23 tienen un Ministerio de Ciencia y Tecnología. El de Colombia tendrá el nombre oficial es de Ministerio de la Ciencia, la Tecnología y la Innovación (MinCTI). En América Latina Argentina, Bolivia, Chile, Costa Rica, Cuba, Uruguay y Venezuela tienen ya un ministerio semejante. Es una buena noticia para el país, para el conocimiento, la investigación, la educación y la juventud colombiana.

 

La decisión política y administrativa consiste en convertir a Colciencias en el nuevo ministerio. Sin embargo, lo que no se hace plenamente público, es que el presupuesto del naciente ministerio será el mismo que en la pasada legislatura tenía Colciencias. La forma es decorosa, la creación del nuevo ministerio. Pero el fondo es dramático: el nuevo ministerio tendrá el mismo presupuesto que un (ex) Departamento Administrativo. Políticamente hay que decirlo: se trata de una jugada astuta por parte de Iván Duque, semejante a la negociación que llevó a cabo a finales del 2018 con los rectores de las universidades públicas, buscando desmovilizar a los estudiantes, a saber: una promesa a futuro. Pero en el presente, sólo queda un vacío. Es una mala noticia desde el punto financiero, por tanto de realidad del nuevo ministerio.

 

En efecto, si el presupuesto del MinCTI no aumenta significativamente, Colombia seguirá invirtiendo menos del 0,5 por ciento del PIB, y nunca habrá aumentado el presupuesto para ciencia en al menos el 1 por ciento del PIB, que fue la solicitud que en su momento formulara en tema presupuestal la Misión de Ciencia Tecnología y Cultura (1991).

 

La verdad es que Colciencias había perdido totalmente el norte de la ciencia y la investigación en el país hasta el punto, por ejemplo, que muchos investigadores, universidades, grupos de investigación e incluso editoriales universitarias no creían en Colciencias y dejaron de jugar el juego que ésta les imponía, sin más. Exactamente en el contexto del descrédito de Colciencias se crea el MinCTI.

 

La memoria del país recuerda una jugada semejante: en su momento, a raíz de los escándalos de las chuzadas, el gobierno de Santos disolvió al DAS y a cambio creó la Agencia Nacional de Inteligencia (ANI). Políticamente se trata de una jugada semejante. Un filósofo importante (John Searle) lo estudió de manera precisa: “cómo hacer cosas con palabras”. Esto es, resolver los problemas reales en términos de palabras. Una vez más, la forma se superpone al fondo y termina convirtiéndose en el fondo.

 

Política, administrativa y económicamente –por lo menos en el papel; eso, en la forma-, el nuevo ministerio tendrá asiento en el Consejo de Ministros al mismo nivel que todos los demás. Pero el manejo de presupuesto sigue dependiendo del ministerio de Hacienda –actualmente bajo el mando de A. Carrasquilla–, y políticamente queda sujeto a las decisiones del Presidente de turno. No todo lo que brilla es oro.

 

Ahora bien, el fondo de lo que significa la creación del MinCTI pudiera adquirir contenido como nunca si el Gobierno y el Estado logran integrar y escuchar verdaderamente a la comunidad académica y científica. Pues lo cierto es que todos los gobiernos nacionales han permanecido de espaldas a la comunidad científica, y a la educación.


Social y culturalmente, la creación del nuevo ministerio pudiera significar que la ciencia y la investigación cobraran vida en los medios políticos y económicos. Y de manera muy significativa, en los medios de comunicación. Hasta la fecha, con la excepción de un par de emisoras universitarias, la ciencia es un tema inexistente en la vida social y cultural de Colombia, reservado tan sólo a grupos pequeños y especializados. Así, la ciencia podría estar al mismo nivel, por lo menos, del deporte, la farándula, el mundo light. Evidentemente, la ciencia, la tecnología y la innovación deberían poder estar por encima de la farándula y el deporte y, obvio, del mundo light.

 

Una cosa debe ser clara: socialmente hablando, el surgimiento del MinCTI debe ir de la mano con la creación e implementación de un programa nacional de ciencia y tecnología, que debe ir desde abajo hacia arriba, formando a niños y jóvenes en el amor a la ciencia, y de un extremo a otro, incorporando regiones, municipios y departamentos en una unidad articulada, evitando los centralismos y las jerarquías.


La ciencia debe poder convertirse en un programa a largo plazo, tanto más cuanto que la especificidad de la reflexión científica consiste en trabajar, investigar y vivir a largo plazo. Exactamente, en términos inter y transgeneracionales. De suerte que, literalmente, la creación del MinCTI significa que por primera vez la nación y los gobiernos empiezan a pensar en proyectos país; es decir, a mediano y largo plazo, situando los pies en las realidades locales, pero mirando al mundo en su totalidad.

 

No hay que llamarse a engaños. La ciencia funciona en términos de redes –de conocimiento, y la horizontalidad y la cooperación son la regla. En este sentido, el nuevo ministerio le enseñará al país la veleidad de las dependencias unilaterales –por ejemplo de una sola potencia– y la importancia de la internacionalización en toda la línea de la palabra. El pensamiento científico es por su naturaleza altamente democrático, pues los argumentos de autoridad son inexistentes en ciencia, y lo que prima son: los datos sobre los que se asan las afirmaciones, la construcción de los argumentos, el debate y la crítica, la demostraciones y refutaciones.

 

Así, el ministerio MinCTI puede significar una verdadera revolución mental en la historia del país. Algo que, a decir verdad, los ministerios de Educación y de Cultura no lograron llevar a cabo plenamente, hasta la fecha.

 

Iván Duque dijo que la condición para la creación del nuevo ministerio era que no aumentara la burocracia, y por derivación, entonces, la corrupción. La primera misión del futuro nuevo ministro deberá ser la convocatoria nacional de la comunidad científica, en toda la línea de la palabra: universidades, centros e institutos de investigación, las comunidades, disciplinarias e interdisciplinarias de investigadores, las academias nacionales, y la creación de una agenda nacional de innovación, tecnología y ciencia. Si esta convocatoria no se realiza, el gobierno de Duque no habrá entendido las especificidades de las dinámicas y funcionamientos de la ciencia y la investigación de punta.

 

La creación de un programa de investigación significa que, análogamente a lo que sucede en México, los investigadores deben poder recibir beneficios específicos por parte del Estado, y no solamente de las universidades, tales como reducción de impuestos, beneficios por producción intelectual, y demás. Colciencias sabía cómo funciona el sistema mexicano, pero sólo incorporó la forma (CvLac y GrupLac), pero nunca el fondo. Dejó que en manos de las universidades tales estímulos, haciéndose la sorda y ciega sobre el fondo.

 

La creación y funcionamiento del Ministerio es cosa de días, a la fecha. Pero la implementación de las políticas nacionales –programa, agenda, diálogo nacional, etcétera–, será cosa que tome varios meses. En este sentido, el reloj corre en contra del actual gobierno. Cuanto más se dilate la discusión e implementación de una política nacional de ciencia y tecnología en diálogo con la comunidad científica, tanto más evidente será que en este Gobierno todo es asunto de forma y no de fondo. La pelota, en consecuencia, se encuentra en el terreno de Duque. La carga de la demostración, por tanto, también se encuentra en su campo.

 

La demora de la activación del MinCTI en toda la línea de la palabra hará que Colombia se descuelgue del pelotón de punta en producción científica en América Latina, un pequeño pelotón conformado por México, Brasil, Argentina y Chile. (Cuba jamás aparece en estos indicadores; una clara señal del bloqueo a la Isla). La distancia entre Chile y Colombia tiende a aumentar. Si Colombia se desprende de este pelotón de punta, en el que todavía se encuentra, a la fecha, quedará relegado, sin ofender, en un grupo de países secundarios, muy rezagados del grupo de punta.

 

Las universidades, públicas y privadas, hacen lo que les corresponde. Pero en la sociedad de la información, en la sociedad del conocimiento o en la sociedad de redes, la verdad es que el Estado debe poder jugar un papel protagónico en materia de investigación, educación, ciencia, tecnología e innovación.

 

No en última instancia, le corresponde al gobierno nacional enseñarle al sector privado qué significa la ciencia y la tecnología. Hasta la fecha, en contextos en el que el 94 por ciento de las empresas son pequeñas (de 2 a 6 trabajadores), y en el que las grandes empresas (más de 50 trabajadores) es de menos del 0,5 por ciento, el gobierno tiene una tarea educativa y política: hacerle entender al sector privado que no hay desarrollos social y humano ni es posible una política de protección y conservación de la naturaleza, si no se entiende y se apoya a la ciencia. La educación es necesaria, ciertamente, pero es insuficiente. La ciencia es la verdadera toque de piedra de una democracia fuerte, de un país nacional, en fin, de una apuesta sincera y abierta por el futuro: el futuro a mediano y a largo plazo, lo cual requiere y demanda más contenido que forma.

 

 

Publicado enEdición Nº253
La noche lunar acaba con la primera planta brotada en su superficie

Los especialistas informaron que la plántula ha comenzado a descomponerse, pero aseguraron que no habrá contaminación alguna de la superficie lunar.

La primera plántula en la historia que brotó en la Luna murió dos semanas después del inicio del experimento y tras una sola noche en el lado oscuro y helado del cuerpo celeste.

Las semillas de algodón fueron llevadas el 3 de enero al satélite natural de la Tierra por la nave espacial china Chang'e 4. Germinaron dentro de un contenedor hermético, diseñado para ensayar la posibilidad de cultivar alimentos para astronautas en mundos distantes. Pero la plántula no duró mucho: las bajas temperaturas en la Luna, que pueden llegar hasta -170C durante la noche, pusieron fin a su corta vida.


Estas podrían ser malas noticias para las futuras colonias lunares, pero los científicos participantes afirmaron que la brevedad del experimento estaba prevista. "La vida en el recipiente no sobreviviría a la noche lunar", comentó a la agencia Xinhuan el profesor a cargo del proyecto, Xie Gengxin, de la Universidad de Chongqing.


"No teníamos antes tal experiencia (cultivar plantas en la luna). Y no pudimos simular el entorno lunar, como la microgravedad y la radiación cósmica, en la Tierra", admitió.


Los especialistas también declararon que los organismos vegetales han comenzado a descomponerse dentro del recipiente, pero aseguraron que no habrá por tal causa contaminación alguna de la superficie lunar.

 

Publicado: 17 ene 2019 00:49 GMT | Última actualización: 17 ene 2019 08:45 GMT

 

Artículo relacionado

Tras un experimento de la sonda Chang’e-4, una semilla de algodón fue la primera en brotar en la Luna

16 de enero de 2019

Página 1 de 18