Creadas por primera vez “máquinas vivientes” con células animales

Científicos de EE UU presentan unos “organismos reprogramables”, a medio camino entre un robot y un ser vivo

Cuatro jóvenes científicos estadounidenses han creado por primera vez “máquinas vivientes”, elaboradas con células animales y capaces de llevar a cabo tareas muy sencillas. Los investigadores, financiados por el Departamento de Defensa de EE UU, creen que sus “organismos reprogramables” podrían servir en un futuro todavía muy lejano para aplicaciones médicas —como la detección de tumores, la eliminación de la placa de las arterias y el reparto inteligente de fármacos dentro del cuerpo humano— e incluso para operaciones de restauración ambiental de lugares contaminados.


Los autores de estas máquinas vivientes son dos biólogos, Michael Levin y Douglas Blackiston, y dos expertos en robótica, Josh Bongard y Sam Kriegman. Los investigadores han empleado como ladrillos dos tipos de células de la rana de uñas africana: las células de su corazón (contráctiles) y las de su piel (más pasivas). Durante meses, los científicos han utilizado un superordenador para simular miles de agregados celulares de diferentes formas e intentar predecir su comportamiento. Los diseños más prometedores se llevaron a cabo. El principal resultado es una máquina biológica de medio milímetro, con unos pocos cientos de células, capaz de moverse en una dirección determinada por los científicos (pincha aquí para ver su funcionamiento).


“Parece que estos biobots son una tercera clase de materia animada: no son robots ni son, estrictamente, organismos. Creo que estos biobots obligarán a los biólogos y a los filósofos a repensar nuestras definiciones de la vida y de lo que es una máquina. En el futuro, ¿los organismos diseñados por ordenador deberían tener los mismos derechos que las personas y los animales evolucionados naturalmente?”, se pregunta Josh Bongard, de la Universidad de Vermont.


Michael Levin reconoce que sus criaturas inducen a muchas preguntas. Los biobots están formados por células de rana, pero ni tienen forma de rana ni actúan como una rana. El biólogo cree que estos nuevos organismos servirán para entender grandes reglas de la vida hasta ahora invisibles. Lo explica con un ejemplo: ninguna hormiga tiene el plano del futuro hormiguero, pero todas cooperan para hacer uno. ¿Cómo habría que modificar genéticamente a las hormigas para que construyeran un hormiguero con dos entradas en lugar de una? Los científicos no tienen ni idea.


“La gran pregunta aquí es: ¿Cómo cooperan las células para construir cuerpos complejos y funcionales? ¿Cómo saben qué tienen que construir? ¿Qué señales intercambian entre ellas?”, reflexiona Levin, de la Universidad Tufts, cerca de Boston. “Una vez que descubramos cómo incitar a las células a construir estructuras específicas, no solo tendremos un impacto enorme en la medicina regenerativa —construyendo partes del cuerpo o induciendo su regeneración—, sino que podremos utilizar estos mismos principios para mejorar la robótica, los sistemas de comunicación y, quizás, las plataformas de inteligencia artificial”, calcula Levin.


Sus biobots, elaborados con cientos de células de rana, son solo una prueba de concepto. “Mostramos un modelo escalable para crear nuevas formas de vida funcionales”, señalan los autores en su investigación, publicada este lunes en la revista especializada PNAS. “Si logramos automatizar la fabricación de los diseños por ordenador, podríamos concebir enormes enjambres de biobots. Y estos podrían incluso ser capaces de unirse en tamaños cada vez mayores. Podríamos tener biomáquinas muy grandes en el futuro”, plantea como hipótesis Bongard. Su equipo ya ha hecho simulaciones de hasta 270.000 células. Un cuerpo humano tiene unos 30 billones.


Los autores dibujan un futuro en el que se harían “sistemas vivos a medida para una amplia gama de funciones”. En su laboratorio ya han diseñado un biobot con un agujero en el centro que, según los científicos, se podría utilizar como un bolsillo en el que transportar o neutralizar sustancias tóxicas. Las simulaciones del superordenador también predicen que, si se juntan varias de estas biomáquinas, se moverían de forma espontánea en círculos, empujando lo que encontrasen a su paso hasta un punto central. “Quizás, en el futuro, se podrían liberar en el océano grandes enjambres de biobots, para que reuniesen los microplásticos en grandes cúmulos que pudiesen ser recogidos por barcos. Al final, como los biobots son 100% biodegradables, se convertirían en alimento para la vida marina”, plantea Bongard.


“Otros enjambres podrían encontrar pequeñas cantidades de metales pesados en suelos contaminados. Y, si es posible hacerlos de un tamaño lo suficientemente pequeño, los biobots podrían flotar en el aire y recoger partículas contaminantes”, prosigue el experto en robótica.


El biólogo y físico Ricard Solé aplaude el nuevo trabajo, “estimulante y rompedor”, pero subraya que algunas de las aplicaciones imaginadas por los autores “todavía están a años luz”. Solé, de la Universidad Pompeu Fabra de Barcelona, es experto en sistemas complejos, como la inteligencia colectiva de las hormigas. “El equipo de Levin ha dado un salto importante en biología sintética, pero esos miniorganismos necesitarán sensores para poder hacer cosas complejas. Añadir esos sensores será el salto cualitativo que habrá que dar en el futuro”, opina Solé.


La química Berta Esteban Fernández de Ávila lleva cinco años en la Universidad de California en San Diego desarrollando microrrobots, a veces combinándolos con células vivas, como espermatozoides. A su juicio, la estrategia del equipo de Levin tiene “muchísimas posibilidades”, sobre todo en aplicaciones como la microcirugía dentro del cuerpo humano. “Independientemente de la toxicidad de las células, habría que asegurar una forma de inactivarlas después de realizar la función deseada. Por dar un ejemplo, a veces aplicamos microrrobots en el estómago y aprovechamos la acidez del propio fluido gástrico para desactivarlos”, advierte la investigadora.


Levin explica que sus biobots no se multiplican. “Básicamente, se quedan como están y se disuelven en una semana”, apunta. Sin embargo, su investigación sí plantea la posibilidad de añadir a las células la capacidad de reproducirse. “Sería un camino arriesgado. Sin embargo, puede terminar siendo una de las mejores rutas para abordar los importantes desafíos ecológicos que plantea el cambio climático”, opina Bongard.


“Es difícil saber ahora si esta tecnología podría tener consecuencias no deseadas o cómo alguien podría abusar de ella. Pero creemos que, si esta tecnología madura, podríamos necesitar una regulación. Ya está ocurriendo con la inteligencia artificial y con la robótica, que durante mucho tiempo estuvieron sin regular”, remacha Bongard.

La IA permite cirugías más seguras y precisas

París. La inteligencia artificial (IA) es capaz de analizar en "tiempo casi real" un tumor cerebral durante la operación de un paciente, lo que permite a los cirujanos trabajar de forma "más segura y precisa", según un estudio publicado este lunes.

Un equipo de investigadores estadunidenses concluyó que esta técnica puede determinar en menos de 2 minutos y medio si las células extraídas son cancerígenas o no, frente a un promedio de 20-30 minutos para un análisis clásico, indicó un artículo publicado en la revista Nature Medicine.

Los investigadores combinaron una innovadora técnica de tomografía con láser con un algoritmo elaborado a partir del análisis de más de 2.5 millones de imágenes de biopsias.

Con este instrumento "estamos mejor equipados para conservar los tejidos sanos y retirar sólo los infiltrados por células cancerígenas, lo que se traduce en menos complicaciones y mejores resultados para los pacientes", explicó Daniel Orringer, de la Universidad de Nueva York.

"En neurocirugía y en muchos otros ámbitos de la operación de cánceres, la detección y el diagnóstico de los tumores durante la operación son esenciales para efectuar el gesto quirúrgico más adecuado", precisó el neurocirujano.

 

Eficaz para determinar tipos de tumor

 

A partir de la muestra extraída, la inteligencia artificial permite también determinar de qué tumor se trata, entre los 10 tipos de cánceres de cerebro más frecuentes, con una eficacia comparable a la de los médicos humanos, según el estudio.

Durante un ensayo clínico con 278 pacientes aquejados de un tumor cerebral, la inteligencia artificial estableció un diagnóstico correcto en 94.6 por ciento de los casos, frente a 93.9 para el análisis humano.

Según los autores, este instrumento podría mejorar la pertinencia de los análisis humanos y paliar la escasez de expertos en determinados campos.

Cada año se diagnostican 15.2 millones de casos de cáncer y más de 80 por ciento de los enfermos se someten a una cirugía, según los autores del estudio.

Interior de la Francium Trapping Facility, donde se ven las mesas ópticas con multitud de láseres, espejos y fibras ópticas necesarias para atrapar a los átomos del elemento número 87. La trampa está detrás de la columna.Foto cortesía de la AMC

Muy pocos grupos en el mundo hacen experimentos con francio (Fr), elemento químico número 87, pues es muy escaso en la Tierra y en laboratorio, por ser altamente radiactivo y reactivo, sólo se obtiene por minutos mediante reacciones nucleares. A 81 años de su descubrimiento, Luis Orozco, adscrito al Joint Quantum Institute de la Universidad de Maryland, habló sobre la historia de este elemento químico y cómo lo ha utilizado para estudiar desde la física atómica a la fuerza débil, una de las cuatro fuerzas fundamentales del universo.

"La fuerza débil es la causante del decaimiento beta de los núcleos; es la única capaz de cambiar protones en neutrones y viceversa. En el proceso inicial para el ciclo solar, el hidrógeno se transforma en helio, generando energía proveniente de la fusión. El primero sólo tiene un protón, mientras el segundo tiene dos y dos neutrones". Al transformar protones en neutrones, abre el camino a la fusión nuclear en el Sol, explicó el físico, miembro correspondiente de la Academia Mexicana de Ciencias (AMC).

Señaló que el francio se obtiene mediante reacciones nucleares en laboratorios aislados y muy avanzados. Desde la Universidad de Stony Brook, a la que se incorporó en 1991, una de sus tareas fue obtener ese elemento. En una reacción de fusión en la que utilizaron un blanco de oro con 79 protones y 118 neutrones y le apuntaron un proyectil de oxígeno 18 (con 10 neutrones y ocho protones), lograron obtener el elemento con 87 protones y 123 neutrones en una técnica muy complicada, por lo que el primer éxito en su carrera fue atrapar con láseres más átomos de Fr.

Al principio captaban unos 2 mil átomos, pero fueron mejorando la técnica hasta que llegaron a atrapar 250 mil. Actualmente son más de dos millones los que reúnen en el Centro de Aceleración de Partículas de Canadá, ubicado en Vancouver, con la Trampa MOT, al grado que ya no es seguro permanecer en la sala en la que hacen los experimentos por la radiactividad, destacó el científico.

El francio tiene un núcleo pesado, lo que significa que hay oportunidades de que las partículas, electrones y quarks, interactúen, lo que no ocurre con otros elementos. Ha sido necesario entender muy bien sus propiedades, sostuvo el también doctor en física por la Universidad de Texas en Austin.

En Canadá, en el grupo con el que colabora obtienen el francio con reacciones más violentas. Cuentan con una serie de obleas, cerámicas de uranio (U) y carbono (C), muy delgado, por el cual pasa, con corrientes muy fuertes, un haz muy alto de protones, a una energía de 500 megaelectrón voltios, golpea al uranio y éste se fisiona.

"El uranio (92) es más pesado que el francio. En esas colisiones éste puede llevarse otros protones en el choque, por ejemplo, cinco, produciendo Fr. Como son obleas muy delgadas y calientes, este elemento rápidamente viaja al exterior y se escapa el U. El francio en contacto con una superficie metálica caliente adecuada se puede ionizar y luego se extrae".

Física básica

Si bien estos estudios son proyectos de física básica y no hay una aplicación directa para los átomos de Fr que atrapan, el mexicano, quien ha dedicado gran parte de su vida a la investigación de este elemento, comentó que los métodos que inventaron para atrapar a este escurridizo elemento ya se usan para datar la antigüedad de los acuíferos que se encuentran en el subsuelo del desierto del Sahara, sólo que utilizan isótopos de xenón y de calcio.

Respecto del descubrimiento de este elemento, recordó que Marguerite Perey (1909-1975), quien nació en Villemomble, París, lo logró.

Esa joven fue contratada por Marie Curie como asistente en el Instituto del Radio, hoy Instituto Curie. Su tarea, explicó, fue por casi 10 años moler y mezclar unas 10 toneladas de mineral para que al final obtuviera menos de 20 miligramos de actinio, el elemento que su jefa quería estudiar.

"Perey fue una mujer increíblemente sistemática, estudiosa, tenaz y disciplinada. El 7 de enero de 1939 escribió en la bitácora de su laboratorio una descripción de su día; descubrió que el actinio tenía dos decaimientos, uno a 220 kilo-electronvoltios, que corresponde al actinio, y el otro a 80 kilo-electronvoltios, hijo del primero. Descubrió al francio como un producto del decaimiento alfa del actinio. Un par de días después se publicó el hallazgo en la revista de la Academia de Ciencias, siendo ella la única autora", concluyó Orozco.

Los 10 artículos científicos más populares de 2019

La inteligencia artificial, el sesgo de la significación estadística, así como la no relación entre las vacunas y el autismo centran los estudios con más impacto del año.

En los 12 últimos meses, Altmetric, una empresa con sede en Londres, ha monitorizado las menciones recibidas por 2,7 millones de investigaciones científicas. Las apariciones en blogs y redes sociales, las reseñas en medios de comunicación o las citaciones en Wikipedia constituyen algunos de los parámetros, más allá de las métricas convencionales como el factor de impacto, que permiten identificar los 100 trabajos más comentados en 2019. Los siguientes 10 artículos encabezan la clasificación.


Crear modelos realistas de cabezas parlantes mediante una sola fotografía


¿Imagina el lector poder realizar un vídeo de la célebre Mona Lisa hablando? El entrenamiento de redes neuronales artificiales permite obtener videoclips, con frecuencia falsos, a partir de múltiples imágenes del rostro humano. Sin embargo, en la práctica, los científicos, a menudo, solo disponen de unas pocas instantáneas de una persona concreta. En este trabajo, investigadores del Centro de Inteligencia Artificial de Samsung describen un método para superar esta limitación. Este nuevo sistema realiza un extensivo meta-aprendizaje con un gran número de vídeos para, con posterioridad, poder generar un modelo de un sujeto desconocido, incluso con una única fotografía. La investigación puede leerse en el repositorio arXiv.


Los científicos se manifiestan contra la significación estadística


En un comentario publicado por la revista Nature, más de 800 firmantes alertan sobre el modo en que el valor estadístico de unos resultados puede conllevar a falsas conclusiones. En concreto, los científicos piden acabar con expresiones como «no existe diferencia alguna» o «no hay ninguna relación» solo porque el valor p, o probabilidad, resulte mayor que un determinado límite (normalmente 0,05). Sin embargo, el objetivo del texto no es prohibir el uso de este parámetro, sino evitar el descarte de resultados relevantes y fomentar que los investigadores discutan los datos más allá de un simple valor. Al fin y al cabo, todo cálculo significativo implica cierto sesgo, por lo que alcanzar una determinada cifra tampoco garantiza que un dato sea cierto al cien por cien.


No, no existe relación entre la vacuna triple vírica y el autismo


El estudio, publicado por la revista Annals of Internal Medicine, desvincula una vez más la inmunización de la vacuna contra el sarampión, la rubeola y la parotiditis, también conocida como triple vírica, del riesgo de desarrollar autismo. Científicos daneses alcanzaron dicha conclusión tras analizar el historial clínico de 657.461 infantes nacidos en Dinamarca entre 1999 y 2010. El seguimiento y comparación entre los niños que recibieron la vacuna y los que no permitió determinar que la triple vírica no incrementa la probabilidad de padecer la enfermedad, ni desencadena el autismo en aquellos pequeños susceptibles de desarrollarlo. Por desgracia, la seguridad de esta vacuna aún genera desconfianza entre determinados sectores de la población, hecho que limita su aceptación.


La comunidad científica avisa: nos enfrentamos a una emergencia climática


Contar la realidad que muestran los datos constituye la obligación moral de todo investigador, aunque la conclusión no resulte de nuestro agrado. Por ello, en noviembre de 2019, 11.000 científicos declararon, tras analizar distintos indicadores, que el planeta Tierra se enfrenta a una grave emergencia climática. El desastre aún puede evitarse, mas para ello, la humanidad debe cambiar su estilo de vida. Entre las recomendaciones más relevantes, los investigadores destacan: la sustitución de los combustibles fósiles por fuentes de energía renovables; la reducción de la emisión de gases contaminantes como el metano o los hidrofluorocarbonos; la protección de los ecosistemas naturales; la disminución del consumo de carne, así como el incremento de la ingesta de productos vegetales; la implementación de un modelo de economía verde y la estabilización del crecimiento de la población mundial. La revista BioScience publica el texto íntegro.


Imágenes falsas generadas por medio de inteligencia artificial


Científicos de NVIDIA, uno de los mayores fabricantes de unidades de procesamiento gráficas a nivel mundial, describen en un manuscrito publicado en el repositorio arXiv el diseño de un nuevo tipo de red neuronal artificial generativa. En el campo de la inteligencia artificial, este tipo de sistemas son los productores de aquello que se quiera crear, como imágenes, textos o sonidos. La novedad del proyecto radica en que este generador mejora de forma notable el proceso de aprendizaje automático de las neuronas artificiales, hecho que facilita la obtención de imágenes falsas de gran calidad. Aplicaciones como FaceApp o Deepfake usan tecnologías parecidas.


Las bases genéticas de la sexualidad humana


En verano, la revista Science publicó este trabajo que dio la vuelta al mundo. En él, científicos de Estados Unidos, Reino Unido, Australia, Dinamarca, Países Bajos y Suecia concluían, tras analizar el genoma de casi 500.000 individuos que no es posible predecir el comportamiento sexual humano únicamente en base a la genética. Así, aunque la investigación reveló la existencia de cinco regiones del ADN relacionadas con la conducta homosexual, ningún gen ejercería por sí solo un efecto claro sobre la sexualidad. Si lo desea, el lector hallará más información acerca de las conclusiones de este estudio en artículo de actualidad publicado por Investigación y Ciencia.


El número de personas afectadas por el aumento del nivel del mar sería mayor de lo estimado


Un nuevo modelo de inteligencia artificial triplica la población mundial en riesgo por las inundaciones y mareas que ocasionaría el incremento del nivel de los océanos. Según los datos publicados por la revista Nature Communications, en un escenario de bajas emisiones de dióxido de carbono, en el año 2100, 190 millones de personas habitarían zonas costaneras susceptibles de inundarse. La cifra se elevaría hasta los 630 millones en un contexto de altas emisiones. A pesar de que este cálculo también presenta ciertas limitaciones que condicionan su precisión, los autores destacan que los resultados reflejan de forma más precisa la amenaza que las ciudades litorales deberán afrontar en un futuro no tan lejano.
¿El uso del paracaídas previene la muerte en caso de saltar desde un avión?


En este artículo satírico, publicado por la revista British Medical Journal, investigadores de la Universidad de Harvard reclutaron a 23 sujetos dispuestos a lanzarse desde un avión con y sin paracaídas. Los participantes recibieron de forma aleatoria una mochila con el artefacto diseñado para frenar las caídas a gran altura o bien vacía. Tras el salto, de 0.6 metros, los científicos observaron que los sujetos de ambos grupos alcanzaron el suelo sanos y salvos. Por consiguiente, concluyeron que para sobrevivir al salto desde un avión el uso de paracaídas no es un factor determinante. Sin embargo, el auténtico propósito de los autores fue demostrar las limitaciones de extrapolar los resultados de los estudios aleatorios y la importancia de un buen diseño experimental para una correcta aplicación en la práctica clínica.


Plantar árboles como solución a la crisis climática


En concreto, 900 millones de hectáreas. De acuerdo con un trabajo publicado por la revista Science, esta cifra permitiría la absorción de 200 gigatones de dióxido de carbono a lo largo de los 40 años de vida promedio de un árbol. Es decir, el 25 por ciento de la actual reserva de carbono atmosférico. Para calcular estas cifras, los científicos desarrollaron un modelo informático a partir de los datos de zonas boscosas existentes en la actualidad. Ello permitió determinar el espacio que podría destinarse a los nuevos árboles más allá de los bosques actuales, así como las zonas urbanas o dedicadas a la agricultura. Sin embargo, también alertan que de agravarse la emergencia climática, los números presentados serán insuficientes para revertir el desastre.


La honestidad de la población mundial


Imagine el lector que hallara una cartera con dinero en la calle, ¿la devolvería a su dueño? La respuesta, con probabilidad, dependería de la cantidad exacta de billetes. Así concluye una investigación publicada por la revista Science, donde los autores abandonaron 17.000 billeteras en 355 ciudades de 40 países. En la mayoría de los casos, observaron que aquellas con mayor cantidad de dinero retornaban a manos de sus legítimos propietarios. El resultado sorprendió a los investigadores, pues ni expertos economistas acertaron a predecirlo, que señalan al altruismo humano, junto con la vergüenza de sabernos ladrones, como explicación del hallazgo.




Referencia: «Few-Shot Adversarial Learning of Realistic Neural Talking Head Models», de E. Zakharov et al., en arXiv:1905.08233, última versión publicada el 25 de septiembre de 2019.

Referencia: «Scientists rise up against statistical significance», de V. Amrhein et al., en Nature, publicado el 20 de marzo de 2019.

Referencia: «Measles, mumps, rubella vaccination and autism: a nationwide cohort study», de A. Hviid et al., en Annals of Internal Medicine; 170(8): páginas 513-520, publicado el 16 de abril de 2019.

Referencia: «World scientists' warning of a climate emergency», de W. J. Ripple et al., en BioScience; biz088, publicado el 5 de noviembre de 2019.

Referencia: «A style-based generator architecture for generative adversarial networks», de T. Karras et al., en arXiv:1812.04948, última versión publicada el 29 de marzo de 2019.

Referencia: «Large-scale GWAS reveals insights into the genetic architecture of same-sex sexual behavior», de A. Ganna et al., en Science; 365(6456): eaat7693, publicado el 30 de agosto de 2019.

Referencia: «New elevation data triple estimates of global vulnerability to sea-level rise and coastal flooding», de S. A. Kulp et al., en Nature Communications; 10: 4844, publicado el 29 de octubre de 2019.

Referencia: «Parachute use to prevent death and major trauma when jumping from aircraft: randomized controlled trial», de R. W. Yeh et al., en British Medical Jornal; 363:k5094 publicado el 13 de diciembre de 2018.

Referencia: «The global tree restoration potential», de J. F. Bastin et al., en Science; 365 (6448): páginas 76-79, publicado el 5 de julio de 2019.

Referencia: «Civic honesty around the globe», de A. Cohn et al., en Science; 365 (6448): páginas 70-73, publicado el 5 de julio de 2019.

Marta Pulido Salgado

es una investigadora en neurobiología celular
Fuente:
https://www.investigacionyciencia.es/noticias/los-10-artculos-cientficos-ms-populares-de-2019-18174

 

He Jiankui, el “Frankestein chino”. Condenaron al científico que editó el genoma de dos gemelas

En 2018 la noticia convulsionó al mundo. El investigador comunicaba que, a partir del uso de la técnica Crispr, creaba a las primeras bebes resistentes al HIV. Buscaba fama y fortuna pero cumplirá una condena de tres años

En noviembre de 2018 He Jiankui (Southern University of Science and Technology of China) comunicaba una noticia que, de tan explosiva, atravesaba las paredes de la comunidad científica. Gracias a las bondades de la revolucionaria técnica de edición genética, Crispr/Cas9, modificaba el genoma de gemelas chinas y las volvía resistentes al HIV. Esta semana el genetista fue declarado culpable por un tribunal de Shenzhen. Como castigo deberá cumplir con tres años de cárcel y con el pago de, aproximadamente, 430 mil dólares (tres millones de yuanes). Además, ya no estará habilitado para realizar ninguna tarea profesional relacionada al mundo de la salud. Dos de sus colaboradores recibieron sentencias equivalentes.


Para comprender el caso, rearmemos la cronología de los hechos. El año pasado He Jiankui adelantó la noticia por YouTube y, acto seguido, lo presentó en una cumbre de expertos celebrada en Hong Kong. Estaba exultante, se creía el protagonista de una nueva hazaña científica; su nombre quedaría grabado en la historia. Aunque en muchas naciones estaba prohibido, había modificado el genoma de Lulú y Nana para volverlas inmunes al virus. ¿Cómo? Luego de la fecundación, su propósito era intervenir el embrión y desactivar el gen específico (denominado “CCR5”) que codifica para la proteína que está en los glóbulos blancos y que funciona como puerta de entrada y salida del HIV en la célula.


Tras su experimento, como ambas estaban en perfecto estado de salud, creía que sus objetivos se habían cumplido con éxito. En el mismo movimiento, había abierto la puerta para la creación de “bebés de diseño”; y lo había conseguido a partir de las famosas tijeras genéticas, herramientas que editan genes y agitan las fantasías más oscuras del determinismo en el campo. En concreto, presentan la virtud de introducir, corregir o eliminar secuencias de ADN de manera totalmente dirigida y con precisión quirúrgica.


Hasta aquí, algún desconsiderado podría pensar que todas las revoluciones científicas necesitaron de genios y genias que se saltearan alguna regla. Cerebros iluminados que eludieran alguna norma; en definitiva, espíritus audaces y capaces de franquear los límites de las propias instituciones a las que pertenecían. No obstante, “el Frankestein chino" –así fue apodado a partir de este momento– fue demasiado lejos. Sus ansias de reconocimiento mundial lo llevaron a ignorar todos los manuales de ética habidos y por haber.


Según el fallo, adelantado por Xinhua –agencia oficial de China– el científico falsificó documentos y engañó a las parejas que se sometieron al experimento bajo pretextos tergiversados. En aquel momento, la polémica escaló de tal manera que más de 100 colegas de su propio país publicaron una declaración para despegarse de lo realizado y sancionaron la irresponsabilidad como “una locura”. Es una locura porque, hasta el momento, si bien la técnica empleada es muy prometedora –todos los años, de manera sucesiva, sus creadores resuenan como posibles premiados Nobel– no ha sido lo suficientemente perfeccionada. Se utiliza con cautela porque si no se manipula de manera correcta puede introducir problemas en lugares donde no los hay. Dijimos que su precisión era quirúrgica pero no infalible.


La historia de la ciencia y la tecnología ha demostrado, a través de innumerables ejemplos, que aquello que en un tiempo fue rechazado, con los siglos, obtuvo legitimidad científica y luego prestigio social. El conflicto con el trabajo realizado por He Jiankui es que, a pesar de estar disponibles, escogió burlar cualquier clase de protocolo. Sus conclusiones no fueron publicadas por los canales corrientes –revistas internacionales de prestigio– y, en efecto, el modus operandi no pudo ser juzgado ni replicado en laboratorios de otras partes del mundo. Su falta de rigurosidad puso en riesgo la vida de las gemelas. Aunque todavía no fue confirmado, para colmo de males, habría un tercer bebé víctima del mismo proceso.


De cualquier modo, proyectemos a largo plazo y, aunque resulte escabroso, démosle la derecha al científico chino con una hipótesis en forma de pregunta. ¿Qué hubiera pasado si, efectivamente, a partir de su experimento se materializaba la posibilidad de generar bebés resistentes al virus? Potencialmente podría abrirse una ventana hacia una nueva variante de estratificación social. Aquellos grupos sociales más pudientes podrían prolongar sus ventajas genéticas a gusto y piacere. Como alguna vez mencionó el prestigioso biólogo molecular Alberto Kornblihtt: “Tendríamos humanos hechos a medida”.


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

La NASA instalará taller robotizado de reparaciones afuera de la Estación Espacial Internacional

La NASA diseñó un garaje acondicionado para robots, denominado RiTS (siglas en inglés de Robotic Tool Stowage), que será instalado en el exterior de la Estación Espacial Internacional (EEI).

Es una unidad de almacenamiento de protección para herramientas robóticas críticas, cuyo envío estaba previsto en la misión de reabastecimiento de Space X, fijada para ayer.

Sus primeros residentes serán dos robots diseñados para buscar fugas de la estación, que son capaces de detectar la presencia de gases como el amoníaco. Las herramientas robóticas están a bordo de la estación en este momento, informa la NASA.

“Para cada una de sus herramientas almacenadas, RiTS proporcionará protección térmica y física contra la radiación y los micrometeroides o pequeños objetos de alta velocidad que se precipitan por el espacio”, dijo Mark Neuman, gerente de hardware de RiTS.

El sistema térmico de la unidad de alojamiento mantiene temperaturas ideales para los instrumentos, ayudándolos a mantenerse funcionales, según Neuman. Además, ayudará al brazo robótico de la estación espacial Dextre a localizar, tomar y volver a colocar fácilmente esas herramientas.

La implementación de robots de detección suele llevar mucho más tiempo cuando la herramienta no está almacenada externamente. Una vez fuera de la estación, esos detectores necesitan esperar 12 horas para limpiarse del vapor de agua y otros gases del interior de la terminal.

“Este hardware reducirá significativamente el tiempo y el costo para que la tripulación de la estación implemente capacidades de detección de fugas utilizando Dextre”, dijo Chris Craw, líder de Integración de Sistemas de la NASA.

La misión Parker Solar Probe comienza a desvelar los secretos del Sol

Ondas gigantes solitarias en el viento solar, campos magnéticos que se doblan, vientos lentos que surgen en las zonas ecuatoriales de nuestra estrella y nuevos datos sobre sus energéticas partículas. Estos son algunos de los primeros resultados que ofrece la misión Parker Solar Probe de la NASA tras sus primeras aproximaciones al Sol.

 

La misión Parker Solar Probe de la NASA despegó en agosto de 2018 rumbo al Sol. En noviembre de aquel mismo año y en abril de 2019 realizó dos acercamientos a nuestra estrella, aproximándose a unos 24 millones de kilómetros. Hasta ahora, la mayoría de las mediciones se habían realizado a una distancia de una unidad astronómica (la que separa la Tierra del Sol, unos 150 millones de kilómetros).

Los instrumentos de la nave han registrado ahora nuevos datos sobre la corona (la atmósfera exterior del Sol, mil veces más caliente que su superficie), sus energéticas partículas y el viento solar, una información que se publica esta semana en cuatro artículos de la revista Nature.

Los científicos tratan de entender cómo se calienta la corona a temperaturas de millones de grados centígrados, y cómo produce las ondas de partículas y campo magnético que constituye el viento solar. Este fluye y transporta energía hacia el espacio a enorme velocidad, desde cientos a miles de kilómetros por segundo.

 “Para nuestra sorpresa, cuando nos acercamos al Sol, no solo estas pequeñas ondas fueron más fuertes, sino que también vimos olas gigantes solitarias, como las del océano; y cuando una de ellas pasaba por la sonda, la velocidad del viento podía saltar más de 500.000 km/h en segundos”, explica a Sinc el investigador Justin Kasper de la Universidad de Michigan (EE UU), autor principal del primer estudio.

El equipo vio miles de estas ondas solitarias en los diez días que la sonda Parker estuvo cerca del Sol, y ahora los investigadores se preguntan si son las que calientan la corona. “En el paper describimos cómo estas grandes ondas tienen un pico en la velocidad y una inversión en la dirección del campo magnético (que se dobla en forma de 'S' sobre sí mismo por algún tipo de perturbación en el viento solar)”, apunta Kasper tras observar en detalle los datos sobre los iones de plasma y los haces de electrones del Sol.

“Además, en cuanto a la velocidad del viento solar hubo otra sorpresa”, destaca el investigador: “Cuando estábamos cerca de nuestra estrella, descubrimos que el viento giraba alrededor del Sol en la misma dirección en que gira alrededor de su eje. Esto se había predicho, pero la rotación que encontramos es de 10 a 20 veces más rápida de lo que decían los modelos estándar del Sol. De hecho, siguió aumentando a medida que nos acercamos a él y alcanzamos un máximo de aproximadamente 50 km/s”.

"Así que estamos descubriendo que a nuestros modelos del Sol les falta algo de física muy fundamental, pero la misión Parker Solar Probe tiene una gran oportunidad de revelar lo que realmente está sucediendo", apunta Parker, que subraya: "Esto podría tener implicaciones para cualquier bola giratoria de plasma que se pueda imaginar, como estrellas jóvenes, discos de acreción de agujeros negros y algunos dispositivos de fusión de plasma".

El investigador también destaca la importancia que tienen todos estos datos para la Tierra: "Esta nueva información sobre cómo ocurre el calentamiento y cómo fluye el viento solar mejorará en gran medida nuestra capacidad de predecir si una eyección de masa coronal (una erupción de material del Sol) podría golpear la Tierra o los astronautas en su camino a Marte".

Otros tres nuevos estudios sobre la corona solar

Por su parte, el segundo estudio, dirigido por el investigador Stuart Bale de la Universidad de California en Berkeley (EE UU), se centra en el llamado viento solar lento (se mueve a menos de 500 km/s), cuyos orígenes han sido menos claros que el del viento rápido (a más de 500 km/s). Los autores han encontrado que este viento lento se origina en agujeros en la corona que se encuentran cerca del ecuador del Sol.

Otro equipo internacional liderado desde la Universidad de Princeton (EE UU) también analiza en un tercer artículo el entorno de las partículas energéticas que se mueven cerca del nuestra estrella, y un grupo internacional coordinado desde el Laboratorio de Investigación Naval de los Estados Unidos ha analizado las observaciones de la luz solar dispersada por los electrones (la llamada corona K) y el polvo (la corona F o luz zodiacal).

La sonda Parker se acercará tres veces más al Sol en los próximos cinco años, llegando finalmente a poco más de seis millones de kilómetros de su superficie. Esto permitirá a los científicos medir la potencia de las ondas solitarias, comprobar si están calentando la corona, analizar si la rotación del viento alrededor del Sol sigue aumentando y otros nuevos descubrimientos.

Durante este tiempo, el Sol entrará en una fase más activa de su ciclo de once años, "por lo que podemos esperar resultados aún más emocionantes en los próximos años", apunta el investigador Daniel Verscharen del University College de Londrés en una valoración que acompaña a los cuatro artículos de Nature.

 

05/12/2019 10:26 Actualizado: 05/12/2019 10:26

ENRIQUE SACRISTÁN/SINC

 @agencia_sinc

Sábado, 02 Noviembre 2019 17:30

Hacia una teoría general del sujeto

Hacia una teoría general del sujeto

¿Es posible una teoría general del sujeto?, de no serlo ¿puede la demarcación de esa imposibilidad constituir una teoría general? Si con toda seguridad es necesario un empeño transdisciplinar para contestar estas preguntas, ¿puede la postura hegeliano-lacaniana de Slavoj Žižek pintar algo en ese asunto? O ¿es necesario realizar una purga bungeana para que la ciencia pueda hacer el trabajo? Este libro propone hacer frente al problema en un recorrido a través del cual la postura de Žižek se verá constantemente interpelada hasta extraer lo que quede de ella, que tal vez sea todo, o como dice él: Menos que Nada.

Publicado enCiencia y Sociedad
Martes, 08 Octubre 2019 06:20

5G, realidades y necesidades

5G, realidades y necesidades

La quinta generación de redes móviles (5G) no solo constituye una lógica y, por tanto, previsible evolución respecto a los sistemas precedentes como el 4G, sino que se ha convertido justo antes de su lanzamiento comercial en “el futuro de las comunicaciones tanto móviles como fijas”, en palabras de Richard Sutton.

En realidad, el desarrollo de muchas de las tecnologías que se consideran emergentes, como el internet de las cosas (IoT), la realidad virtual (VR), la realidad aumentada (AR), e incluso de otras cuyas formulaciones se conocen hace décadas, como la computación en la red (cloud computing), la inteligencia artificial (AI) o la gestión virtual de las propias redes (NFV), depende más del modelo de negocio adoptado que del soporte tecnológico, aunque con el 5G van a incrementar sus potencialidades.

Las lecciones aprendidas durante estos primeros 20 años de redes de banda ancha móviles, como el 3G y 4G, demuestran que un cambio profundo y económicamente rentable en las formas de uso y, sobre todo, en su asimilación como experiencia vital del usuario, no se produce únicamente añadiendo más kilobits de subida y bajada.

Otro factor determinante es el coste final de las subastas del espectro que las operadoras tienen que pagar para poder ofrecer el 5G. La exuberancia especulativa que a principios de siglo mostraron las subastas para las frecuencias 3G permitió comprender a los gobiernos que si las barreras de entrada son altas, las inversiones a largo plazo serán menores, lo que repercute en el desarrollo económico.

La norma general, hasta ahora, de las subastas nacionales de frecuencias para 5G es que los gobiernos han optado esta vez por costes más moderados, al poner sobre la mesa grandes porciones de espectro. Por el contrario, en aquellos países que optaron por la escasez artificial que supone trocear excesivamente el espectro (Italia) o reservar buena parte de este para otros servicios (Alemania), los costes aumentaron considerablemente.

Siendo conscientes de que el entusiasmo tecnológico constituye un buen punto de partida para la innovación, pero no siempre un aliado estratégico conveniente si se quieren crear bases sólidas para una reformulación tan profunda como la asociada al 5G, no se debe perder nunca de vista lo que la sociedad y el mercado realmente son en este primer tercio del siglo XXI.

Banda ancha para más

Cada nueva generación de telefonía móvil ha alcanzado un mayor número de usuarios que la anterior. Además, su adopción es muy similar a la observada en otras tecnologías y básicamente sigue la famosa curva de difusión formulada por Robert Everett hace más de 5 décadas. La diferencia fundamental entre los sistemas de telefonía móvil y el resto de las tecnologías no radica por tanto en su forma de adopción, sino en la dimensión alcanzada. Así, el total de usuarios únicos de redes móviles actualmente supone el 67 por ciento de la población mundial (GSMAIntelligence, 2019USCensusBureau, 2019) y el número total de conexiones supera un 4 por ciento al de la población del planeta (Ericcson, 2018).

Esto significa que cuando el 5G comience a ser una realidad para esa minoría de primeros usuarios pioneros (early adopters), algo que no va ocurrir de manera significativa al menos hasta 2020, este sistema de quinta generación tendrá ya un mercado potencial de 8.000 millones de usuarios, a lo que habría que añadir al menos 2.000 millones de conexiones celulares en el internet de las cosas. Por lo tanto, el 5G nace ya con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia, algo que podría ocurrir antes del final de la próxima década.

Un factor importante es que el ritmo de adopción de los sistemas móviles digitales se ha ido incrementado exponencialmente, de modo que cada sistema tarda menos que el anterior en convertirse en el de mayor número de usuarios. Así, el 3G tardó casi 14 años en alcanzar un 30 por ciento de difusión entre los usuarios de redes móviles, pero el 4G en siete años ya había superado ese porcentaje convirtiéndose en el sistema con mayor número de usuarios del mundo a finales de 2017.

El 5G nace con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia.

Las sucesivas generaciones de sistemas móviles han ofrecido básicamente al usuario mayores velocidades, un concepto asumido en la nueva cultura del acceso creada a partir del iPhone de Apple. Este factor aparentemente simple permitió ahorrar a las operadoras cuantiosas inversiones en márketing para trasladar a sus clientes la poderosa idea de que el 3G era más rápido que el 2G, el 4G que el 3G y, por lo tanto, el 5G seguirá esta tendencia.

No obstante, cuando se justifica la evolución de los sistemas móviles por la velocidad de acceso se genera un problema: que cualquier esfuerzo inversor de las operadoras por actualizar sus redes se interpreta al final como una forma de hacer la tubería más ancha y que circulen más bits. Esta visión reduccionista ha permitido situar la innovación justo encima de estas redes y en el dispositivo de acceso. Lo que quiere decir que son las empresas que proveen los servicios más populares (Google, Amazon, Netflix…) y los fabricantes de móviles, los agentes que se perciben externamente como los verdaderos innovadores del mercado.

Sin emitir un juicio arriesgado y sin duda complejo sobre quién innova más en Internet, sí se puede afirmar que, si no se alteran las condiciones actuales del mercado, con el 5G nos dirigimos de nuevo a un escenario donde los que más invierten en su desarrollo corren el riesgo de ser los que menos recojan los previsibles dividendos.

Mismo punto de partida

No obstante, en la progresiva implantación del 5G, operadoras y empresas de servicios en Internet comparten una misma necesidad de partida: ambos necesitan incrementar su número de usuarios y este incremento persigue a su vez dos objetivos. En primer lugar, cerrar la brecha mundial entre los que hoy usan redes móviles y aquellos que acceden a estas pero con sistemas de banda ancha. En segundo lugar, integrar ese remanente del 33 por ciento de la población mundial que permanece ausente de las redes móviles, lo que en términos absolutos equivaldría a integrar más de 2.400 millones de personas, la mayoría de ellos en países en desarrollo o regiones emergentes, sobre una población mundial de 7.500 millones de personas.

No obstante, detrás de estas cifras que llaman al optimismo hay que tener en cuenta que, de ese total de personas no conectadas, al menos un 35 por ciento son niños o ancianos (World Bank, 2017), lo que en principio reduce ese margen razonablemente alcanzable de usuarios desconectados a 1.500 millones.

El 5G supone una mejora en tres factores: la velocidad, la latencia y el número de dispositivos que se pueden conectar simultáneamente.

Para que estos 1.500 millones de adultos dieran un salto de la desconexión al 5G, no solo se tendría que producir un amplio y rápido despliegue de infraestructuras que aumentara la cobertura, sino que los costes de conexión (redes y dispositivos) tendrían que ser considerablemente más asequibles que los actuales, teniendo en cuenta la menor renta disponible en los países en desarrollo donde se sitúa esa brecha.

El tercer y determinante factor diferencial del 5G es la densidad o número de dispositivos que la red sería capaz de atender en condiciones óptimas por unidad de cobertura y tiempo, estimada en un incremento exponencial del 100 por ciento respecto a la generación anterior. Esto haría posible la comunicación efectiva en zonas con alta densidad de población o en situaciones puntuales como eventos masivos, pero también la transmisión simultánea entre cualquier objeto conectado sin mediación.

Triple impacto

La implantación de redes 5G en los principales mercados supondrá un triple impacto:

  • En las tecnologías y en los servicios disponibles.
  • En el propio mercado de las telecomunicaciones.
  • Y, por último, en la aparición de innovaciones inimaginables hasta ahora.

En el primer grupo encontraríamos tecnologías como la realidad virtual (VR) y la realidad aumentada (AR). El 5G mejorará la experiencia de usuario en las dos al proporcionar mayores velocidades y latencias mejoradas, este último un factor crítico en contenidos populares como los videojuegos.

El segundo impacto está relacionado con el inquietante statu quo actual de las operadoras que en pocos años vieron como las aplicaciones IP se comían literalmente el, durante décadas, cautivo mercado de las llamadas telefónicas y las nuevas formas de expresión personal multimedia (emojis, textos, clips de audio y vídeo) convertían los teléfonos fijos en “jarrones chinos” — valiosos pero sin utilidad—, las líneas fijas residenciales en soportes colectivos para wifi y los teléfonos móviles en computadoras portátiles.

El tercer impacto es a la vez el más amenazante y esperanzador ya que se refiere a todo lo nuevo y desconocido que un sistema global de banda ancha que promete llevarnos al nivel gigabit puede traer. No podemos olvidar que, a pesar de los recientes cuestionamientos de principios como la neutralidad de la red, Internet sigue siendo una red descentralizada donde la innovación no necesita permisos de núcleos centrales y donde las operadoras no tienen que establecer a priori qué usos se le van a dar a la red.

Al igual que un Snapchat o un Instagram eran inconcebibles cuando se pusieron en marcha las redes 3G, las posibilidades tecnológicas del 5G serán un incentivo para los emprendedores que ahora pueden acceder a la misma tecnología y a una creciente disponibilidad de capital menos alérgico al riesgo. Además, la incorporación de miles de objetos cotidianos hasta ahora virtualmente desconectados a la nueva Internet incrementa exponencialmente las posibilidades de aparición de nuevas aplicaciones que signifiquen una ruptura de los modelos comunicacionales que vimos en los sistemas anteriores.

Por su parte, los fabricantes de móviles serán en gran medida los responsables de la primera interpretación del 5G entre los usuarios, ya que sus aparatos son los receptores privilegiados de la primera tecnología de conexión que permite integrarse en esta red. Pero la necesidad que tienen estas empresas de acortar el ciclo de renovación de sus dispositivos, cuya prolongación ha generado un estancamiento de las ventas mundiales, no es un argumento consistente para convencer a esa franja de usuarios pioneros que ya pagan 1.000 dólares por los móviles más avanzados.

Para los usuarios, el factor diferencial del 5G respecto a los sistemas actuales tendrá que venir de nuevos usos tanto de aplicaciones ya existentes como de nuevos entrantes que podrían hacer una interpretación creativa de las potencialidades del 5G —latencia, densidad de conexión, velocidad— para ofrecer no solo una mejora de los servicios existentes, sino de otros cuya demanda es todavía desconocida.

En definitiva, el 5G está destinado a convertirse en el soporte preferente de un Internet que en su tercera fase no solo aspira a cerrar la brecha de las personas desconectadas, sino a generar sinergias con sectores industriales históricamente indiferentes o cuyos canales de venta y procesos de fabricación apenas han variado en estos 25 años de despliegue de redes móviles.

Por Francisco Vacas

Profesor Universidad, Consultor, Universidad Rey Juan Carlos

La versión original de este artículo ha sido publicada en la Revista Telos 111, de Fundación Telefónica.

Este artículo ha sido publicado originalmente en The Conversation

Miércoles, 02 Octubre 2019 06:19

Los descubrimientos son siempre políticos

Los descubrimientos son siempre políticos

Para destacar el 150 aniversario de Nature, David Kaiser rastrea los orígenes del apoyo gubernamental a la ciencia en el primero de una serie de ensayos sobre cómo los últimos 150 años han moldeado el sistema de investigación.

A finales de agosto de 1609, el astrónomo italiano Galileo Galilei escribió entusiasmado a su cuñado relatándole los rápidos acontecimientos de ese verano. Unas semanas antes, Galileo había escuchado rumores de que se había inventado un catalejo en Flandes (ahora parte de Bélgica). Rápidamente construyó una versión mejorada, lo que desencadenó una nueva ola de rumores. Al poco tiempo, el Senado veneciano le llamó para probar su dispositivo. Galileo se jactó ante su familia de los “numerosos caballeros y senadores” que habían “subido las escaleras de los campanarios más altos de Venecia para observar en el mar velas y embarcaciones tan lejanas que... se necesitaron dos horas o más antes de poderlas ver sin mi catalejo”. El Senado votó de inmediato que se le otorgara a Galileo un puesto de por vida en la Universidad de Padua en Italia, con un salario anual de 1.000 florines, cuando 1.000 florines significaban realmente algo [1] .

Galileo no había hecho más que empezar. Girando su nuevo telescopio hacia los cielos, descubrió (entre otras cosas) cuatro lunas orbitando alrededor de Júpiter. Astutamente, las nombró las Estrellas Mediceas en honor a Cosimo II de Medici, el Gran Duque de la Toscana. La táctica funcionó: al año de ese premio por su éxito veneciano, Galileo había conseguido un salario aún mayor (y se había despojado de sus deberes de enseñanza) como filósofo natural oficial de la corte de los Medici en Florencia [2] .

Galileo tenía una habilidad especial a la hora de convencer a los funcionarios del gobierno y mecenas de la corte para que apoyaran sus investigaciones. Si rastreamos sus proezas, mientras pasaba de un benefactor al siguiente, podríamos reconocer los destellos de los científicos emprendedores de hoy. Sin embargo, unos 250 años después de la época de Galileo, ha empezado a afianzarse una relación bastante diferente entre el gobierno y la ciencia.

Justo cuando el astrónomo Norman Lockyer estaba fundando Nature en 1869, se estaban produciendo cambios importantes en el nexo entre el gobierno y la ciencia en muchas partes del mundo.

Construyendo imperio

Durante las décadas intermedias del siglo XIX, el Imperio británico creció hasta incluir aproximadamente una cuarta parte de la Tierra y mantener el dominio sobre casi un cuarto de su población. En ese momento, varios políticos británicos prominentes, incluidos antiguos y futuros primeros ministros, trataron de apoyar la situación de la ciencia y la tecnología. En la década de 1840, Robert Peel, Benjamin Disraeli, William Gladstone y otros donaron fondos de sus propias arcas para ayudar a fundar el Royal College of Chemistry, convencidos de que la investigación centrada en este campo beneficiaría a la nación y sus ambiciones imperiales. En la década de 1860, muchos investigadores trabajaron duro para formalizar tales planes, empezándose a crear la estructura en una serie de laboratorios de las universidades de todo el Reino Unido, basando cada elemento en la promesa de que las mediciones de precisión de las cantidades físicas podrían hacer avanzar la comprensión científica fundamental y estimular el desarrollo industrial.

La electrificación, la telegrafía, la expansión de los ferrocarriles y la producción de acero a gran escala fueron los desarrollos característicos de lo que a menudo se llamó la segunda revolución industrial, que comenzó alrededor de 1870. Cada una exigía unidades y medidas estándar. Surgieron nuevas sinergias cuando los principales investigadores, incluidos James Clerk Maxwell y William Thomson (más tarde Lord Kelvin), como miembros de las comisiones gubernamentales de alto nivel, utilizaron su comprensión del electromagnetismo y la termodinámica con el objetivo de abordar los desafíos de las comunicaciones transatlánticas, los estándares eléctricos, la navegación oceánica y las máquinas de vapor [3] .

De alguna manera, los británicos estaban tratando de ponerse al día. Desde mediados del siglo XIX, las universidades locales en todos los Estados de habla alemana habían estado reclutando talentos académicos en concursos en base al prestigio: instituciones financiadas por el gobierno se dedicaron a incorporar a los Galileos del momento. El modelo se intensificó rápidamente después de la derrota prusiana de Francia y el establecimiento de una Alemania unificada a principios de 1871. Bajo un Ministerio de Educación centralizado, y con ambiciones aún mayores para una rápida industrialización, el gobierno alemán invirtió fuertemente en la investigación académica de las ciencias naturales [4] .

Sin embargo, incluso con todos esos apoyos, industriales prominentes como Werner von Siemens temían que Alemania estuviera perdiendo su supremacía. El cabildeo concertado condujo al establecimiento de una nueva institución financiada por el gobierno en 1887: el Physikalisch-Technische Reichsanstalt en Berlín. Dirigido por el físico Hermann von Helmholtz, su mandato consistía en acelerar el trabajo en la intersección de la ciencia básica, la investigación aplicada y el desarrollo industrial. En pocos años, los esfuerzos pioneros que allí se hicieron para evaluar propuestas competitivas para el alumbrado público a gran escala -que requerían mediciones cuidadosas de la producción de radiación en varios de los dispositivos- arrojaron grabaciones tan precisas del espectro de radiación de los cuerpos negros que las teorías físicas dominantes ya no podían ajustar los datos. Inspirado, el físico Max Planck rompió a regañadientes con la teoría electromagnética de Maxwell y dio sus primeros pasos tentativos hacia la teoría cuántica [5] .

Mientras tanto, una guerra diferente con Prusia provocó cambios significativos en el gobierno y la ciencia en el este, cuando el imperio austrohúngaro se formó en 1867. Muy rápidamente, las autoridades imperiales lanzaron esfuerzos épicos en meteorología y climatología. El objetivo era crear redes institucionales amplias que pudieran fomentar un sentido común nuevo de propósitos a través del batiburrillo de las tradiciones legales, religiosas y lingüísticas locales. Las universidades, los museos y otras instituciones respaldadas por el gobierno comenzaron a recopilar y estandarizar registros meteorológicos con el objetivo de comprender cómo los patrones locales se relacionan con fenómenos a mayor escala. El imperativo de unificar el extenso imperio favoreció la investigación de vanguardia sobre conceptos modernos, como son las interacciones e interdependencias regionales a través de escalas que van desde los microclimas a los continentes [6] .

En esa época, el zar Alejandro II en Rusia estaba inmerso en la búsqueda de un proyecto de modernización propio. A partir de 1861, emitió una serie de proclamas que se conocieron como las Grandes Reformas. La emancipación de los siervos fue seguida rápidamente por la reforma de las universidades estatales, así como por cambios en los gobiernos regionales y el sistema judicial. La inmensa burocracia que se creó significó nuevas oportunidades para los intelectuales ambiciosos, incluido el químico Dmitrii Mendeleev. Después de dos años de estudio en Heidelberg, Alemania, Mendeleev regresó a su San Petersburgo natal en 1861 para enseñar química en la universidad local, publicando su versión ahora famosa de la tabla periódica de los elementos en 1869, el mismo año en que se lanzó Nature.

Los pasos siguientes en la notable carrera de Mendeleev son emblemáticos de los roles ampliados de la ciencia y la tecnología en esa era. En poco tiempo, el Ministerio de Finanzas y la Armada rusa estaban consultándole, y finalmente ocupó el puesto de director de la Oficina de Pesos y Medidas del país, lo que ayudó a introducir el sistema métrico en Rusia. Al igual que Otto von Bismarck y otros constructores de naciones en Alemania, el zar Alejandro II estaba ansioso por impulsar el desarrollo industrial en todo su país. Un aspecto fundamental de esos esfuerzos fue el de invertir considerablemente en la metrología de precisión; el zar supo encontrar naturalistas entusiastas y hábiles como Mendeleev para conseguir tal objetivo [7] .

En la misma década, Japón experimentó también cambios enormes. La Restauración Meiji de 1868 marcó un período de apertura para un país anteriormente aislado. El juramento de la Carta del Emperador proclamó que: “Se buscará el conocimiento en todo el mundo y, con ello, se fortalecerán los logros del gobierno imperial”. El gobierno comenzó a invertir en las manufacturas y otras reformas industriales. Instituyó nuevas escuelas públicas y financió becas para enviar estudiantes al extranjero a estudiar los avances científicos. El gobierno central llevó a Japón científicos de alto nivel de otros países, como Gran Bretaña y Estados Unidos, para desarrollar la capacitación en instalaciones financiadas por el Estado. Sus líderes comenzaron también allí a priorizar las instituciones de investigación patrocinadas por el gobierno como parte del esfuerzo moderno de construcción del Estado [8] .

Irrupción de Estados Unidos

Estados Unidos seguía siendo un obstinado caso aparte. El momento estaba lejos de resultar prometedor para nuevas inversiones. El conflicto más sangriento en la historia de Estados Unidos no terminó hasta 1865, marcado por el asesinato del presidente Abraham Lincoln. (Murieron más soldados estadounidenses durante la guerra civil de 1861-1865 que durante la Primera y Segunda Guerra Mundial y las guerras en Corea, Vietnam, Afganistán e Iraq juntas.) El apoyo a la investigación científica y a las instituciones a nivel federal fue escaso hasta finales del siglo XIX. De hecho, varios políticos importantes se escandalizaron por la carencia comparada de preparación científica y técnica de la nación durante la Primera Guerra Mundial.

Los esfuerzos de los reformadores en Estados Unidos para apuntalar el apoyo a la investigación por parte del gobierno se vieron obstaculizados por la larga tradición estadounidense de que la educación debía permanecer en manos de las autoridades estatales y locales en lugar del gobierno federal. Por todo Estados Unidos y a nivel individual, los colegios y universidades pusieron gradualmente mayor énfasis en la investigación original y en la construcción de infraestructura para los laboratorios. Pero, en el mejor de los casos, el impacto siguió siendo desigual. Ya en 1927, cuando el joven físico Isidor Rabi viajó a Alemania para estudiar la teoría cuántica, descubrió que las bibliotecas universitarias tendían a pedir la revista Physical Review de año en año. Parecía no haber razón para recibir copias con mayor frecuencia teniendo en cuenta su mediocre contenido [9] . La ciencia fue incluso ignorada en gran medida durante la Gran Depresión de la década de 1930, cuando el gobierno federal centralizó tantas otras cosas bajo el New Deal del presidente Franklin D. Roosevelt.

Solo a principios de la década de 1940, en medio de una movilización de emergencia en tiempos de guerra, el gobierno federal estadounidense asumió el apoyo a la investigación y desarrollo a gran escala. El radar, las armas nucleares, el fusible de proximidad y docenas de otros proyectos militares requirieron miles de millones de dólares y una estrecha coordinación entre los estudios abstractos y el desarrollo práctico.

La efectividad de los planes en tiempos de guerra impresionó a políticos, planificadores militares y administradores universitarios por igual. Cuando llegó la paz, se apresuraron a construir una nueva infraestructura que pudiera mantener las relaciones forjadas por la guerra. Los presupuestos para las ciencias físicas y la ingeniería continuaron aumentando a partir de entonces, provenientes casi en su totalidad del gobierno federal. En 1949, el 96% de todos los fondos en Estados Unidos para la investigación básica en ciencias físicas provenían de agencias federales relacionadas con la defensa. En 1954 -cuatro años después de la creación de la Fundación Nacional civil de Ciencias de EE. UU.-, esa proporción había aumentado al 98% [10] .

A partir de entonces, los políticos estadounidenses encontraron nuevas razones para apoyar la investigación: ayudaba a cumplir los objetivos nacionales para el desarrollo industrial y la defensa militar, y era un elemento clave en las relaciones internacionales. La inversión federal en instituciones científicas en toda la Europa devastada por la guerra, podía evitar, según se pensaba, los flirteos de los científicos con el comunismo en países como Francia, Italia y Grecia. Las reformas importantes del sistema universitario japonés bajo la ocupación estadounidense después de la Segunda Guerra Mundial también ayudaron a difundir el modelo estadounidense. Gastar en ciencia se convirtió en una inversión en los corazones y en las mentes [11] , [12] .

En Estados Unidos, la constante inversión federal ha impulsado un crecimiento sin precedentes en la investigación e infraestructura científicas. Durante los 25 años posteriores al final de la Segunda Guerra Mundial, se capacitó a más jóvenes en ciencias naturales que en toda la historia humana anterior. El gobierno estadounidense desarrolló un sistema de laboratorios nacionales y apoyó un amplio espectro de investigación en las universidades, la mayoría de ellas con poca conexión directa con proyectos militares. Los gastos se justificaban a menudo en términos de una “preparación” más amplia: crear un gran grupo de personal capacitado que estuviera disponible para trabajar en determinados proyectos militares en caso de que la guerra fría se volviera caliente [13] .

Mientras tanto, los científicos emprendedores aprovecharon las oportunidades que surgían de los estrechos lazos con patrocinadores militares. Las preocupaciones de la Marina de los EE. UU. sobre la guerra submarina impulsaron una intensa exploración del fondo del océano. Los geocientíficos, aprovechando los nuevos datos e instrumentos, encontraron evidencias convincentes de la tectónica de las placas [14] . Del mismo modo, las consultas a los físicos sobre proyectos clasificados de defensa antimisiles estimularon el desarrollo de nuevas áreas de estudio, como la óptica no lineal [15] .

Diversificación de carteras

Esa “nueva normalidad” se mantuvo aproximadamente a lo largo de un cuarto de siglo. Justo cuando Nature celebró su centésimo aniversario en 1969, los auditores militares estadounidenses publicaron un extenso análisis, denominado Project Hindsight. En él se sostenía que las agencias federales de defensa habían recibido escasos rendimientos de su inversión en ciencia abierta. Ese año, el senador demócrata Michael Mansfield (Montana) -quien pronto se convertiría en el líder de la mayoría del Senado con mayor antigüedad en la historia de Estados Unidos- introdujo una enmienda de último minuto a la Ley Federal de Autorización Militar de 1970. Estipulaba que no podría utilizarse ningún fondo del Departamento de Defensa “para llevar a cabo cualquier proyecto o estudio de investigación” que no tuviera “una relación directa y evidente con una función militar específica”.

En los campus universitarios de todo el país, el debate sobre el papel del gobierno en el apoyo a la investigación científica se hizo aún más bronco. En medio de la escalada de la guerra de Vietnam, científicos y estudiantes lidiaron respecto al peso adecuado que debían tener los gastos de defensa en la educación superior. En la Universidad de Columbia, en la ciudad de Nueva York, y en la Universidad de Wisconsin-Madison, grupos de radicales atacaron con explosivos los laboratorios de investigación financiados por el ejército. En muchos otros campus, la policía recurrió a gases lacrimógenos y porras para dispersar a los enojados manifestantes [16] .

Durante los años setenta y ochenta, los científicos forjaron asociaciones con industrias privadas, así como con filantropías. Estas relaciones se aceleraron por los fuertes recortes en el gasto federal en defensa y educación en Estados Unidos y en muchas otras partes del mundo. La biotecnología y la nanotecnología surgieron en esos años impulsadas por sistemas de apoyo que eran diferentes del gasto gubernamental que había financiado la investigación en física nuclear después de la Segunda Guerra Mundial [17] .

En estos últimos tiempos, los modelos híbridos de apoyo todavía dependen en gran medida de la financiación del gobierno central; solo tienen que considerar cuán de cerca siguen los científicos el ciclo de asignaciones de cada año en el Congreso de los EE. UU. y en otras instituciones. Pero el apoyo a la investigación rara vez se sustenta hoy en día en el modelo de saturación que parecía tan natural al principio de la era nuclear. Actualmente, menos de 20 países invierten más del 2% de su producto interno bruto en investigación y desarrollo, según datos de la Organización para la Cooperación y el Desarrollo Económico y el Banco Mundial. Mientras tanto, en varios de esos países, la naturaleza del apoyo del gobierno ha cambiado, priorizando a menudo proyectos con objetivos a corto plazo y aplicaciones prácticas en lugar de investigaciones a escalas mayores.

Cuando Lockyer estaba enviando el primer número de Nature a la prensa, muchos elementos de la empresa científica moderna se estaban forjando en Gran Bretaña, el continente europeo y partes de Asia. Pero para captar por completo el alcance de las relaciones monetarias en que los científicos se mueven ahora -rastreando los equivalentes actuales del Senado veneciano en busca de fondos, al mismo tiempo que se corteja a los donantes privados en los Institutos Kavli y en los centros de la Fundación Simons que no son menos brillantes que un palacio Medici-, haríamos bien en tener presente a Galileo.

Traducido del inglés para Rebelión por Sinfo Fernández

Notas:

[1] Drake, S. Isis 50 , 245–254 (1959).

[2] Biagioli, M. Galileo, Courtier: The Practice of Science in the Culture of Absolutism Ch. 2 (Univ. Chicago Press, 1992).

[3] Morus, I. R. When Physics Became King (Univ. Chicago Press, 2005).

[4] Clark, W. Academic Charisma and the Origins of the Research University (Univ. Chicago Press, 2006).

[5] Cahan, D. An Institute for an Empire: The Physikalisch-Technische Reichsanstalt, 1871–1918 (Cambridge Univ. Press, 1989).

[6] Coen, D. R. Climate in Motion: Science, Empire, and the Problem of Scale (Univ. Chicago Press, 2018).

[7] Gordin, M. D. A Well-Ordered Thing: Dmitrii Mendeleev and the Shadow of the Periodic Table (Basic, 2004).

[8] Kikuchi, Y. Anglo-American Connections in Japanese Chemistry: The Lab as Contact Zone (Palgrave Macmillan, 2013).

[9] Rigden, J. S. Rabi: Scientist and Citizen 4 (Basic, 1987).

[10] Forman, P. Hist.Stud. Phys. Biol. Sci. 18 , 149–229 (1987).

[11] Krige, J. American Hegemony and the Postwar Reconstruction of Science in Europe (MIT Press, 2006).

[12] Kaiser, D. Drawing Theories Apart: The Dispersion of Feynman Diagrams in Postwar Physics Ch. 4 (Univ. Chicago Press, 2005).

[13] Kaiser, D. Hist. Stud. Phys. Biol. Sci.33, 131–159 (2002).

[14] Oreskes, N. Nature501, 27–29 (2013).

[15] Wilson, B. Hist. Stud. Nat. Sci.45, 758–804 (2015).

[16] Moore, K. Disrupting Science: Social Movements, American Scientists, and the Politics of the Military, 1945–1975 (Princeton Univ. Press, 2008).

[17] Mirowski, P. Science-Mart: Privatizing American Science (Harvard Univ. Press, 2011).

David Kaiser es profesor de Historia de la Ciencia y profesor de Física en el Massachusetts Institute of Technology, Cambridge, Massachusetts, USA.

 Fuente: https://www.nature.com/articles/d41586-019-02848-2