Los 10 artículos científicos más populares de 2019

La inteligencia artificial, el sesgo de la significación estadística, así como la no relación entre las vacunas y el autismo centran los estudios con más impacto del año.

En los 12 últimos meses, Altmetric, una empresa con sede en Londres, ha monitorizado las menciones recibidas por 2,7 millones de investigaciones científicas. Las apariciones en blogs y redes sociales, las reseñas en medios de comunicación o las citaciones en Wikipedia constituyen algunos de los parámetros, más allá de las métricas convencionales como el factor de impacto, que permiten identificar los 100 trabajos más comentados en 2019. Los siguientes 10 artículos encabezan la clasificación.


Crear modelos realistas de cabezas parlantes mediante una sola fotografía


¿Imagina el lector poder realizar un vídeo de la célebre Mona Lisa hablando? El entrenamiento de redes neuronales artificiales permite obtener videoclips, con frecuencia falsos, a partir de múltiples imágenes del rostro humano. Sin embargo, en la práctica, los científicos, a menudo, solo disponen de unas pocas instantáneas de una persona concreta. En este trabajo, investigadores del Centro de Inteligencia Artificial de Samsung describen un método para superar esta limitación. Este nuevo sistema realiza un extensivo meta-aprendizaje con un gran número de vídeos para, con posterioridad, poder generar un modelo de un sujeto desconocido, incluso con una única fotografía. La investigación puede leerse en el repositorio arXiv.


Los científicos se manifiestan contra la significación estadística


En un comentario publicado por la revista Nature, más de 800 firmantes alertan sobre el modo en que el valor estadístico de unos resultados puede conllevar a falsas conclusiones. En concreto, los científicos piden acabar con expresiones como «no existe diferencia alguna» o «no hay ninguna relación» solo porque el valor p, o probabilidad, resulte mayor que un determinado límite (normalmente 0,05). Sin embargo, el objetivo del texto no es prohibir el uso de este parámetro, sino evitar el descarte de resultados relevantes y fomentar que los investigadores discutan los datos más allá de un simple valor. Al fin y al cabo, todo cálculo significativo implica cierto sesgo, por lo que alcanzar una determinada cifra tampoco garantiza que un dato sea cierto al cien por cien.


No, no existe relación entre la vacuna triple vírica y el autismo


El estudio, publicado por la revista Annals of Internal Medicine, desvincula una vez más la inmunización de la vacuna contra el sarampión, la rubeola y la parotiditis, también conocida como triple vírica, del riesgo de desarrollar autismo. Científicos daneses alcanzaron dicha conclusión tras analizar el historial clínico de 657.461 infantes nacidos en Dinamarca entre 1999 y 2010. El seguimiento y comparación entre los niños que recibieron la vacuna y los que no permitió determinar que la triple vírica no incrementa la probabilidad de padecer la enfermedad, ni desencadena el autismo en aquellos pequeños susceptibles de desarrollarlo. Por desgracia, la seguridad de esta vacuna aún genera desconfianza entre determinados sectores de la población, hecho que limita su aceptación.


La comunidad científica avisa: nos enfrentamos a una emergencia climática


Contar la realidad que muestran los datos constituye la obligación moral de todo investigador, aunque la conclusión no resulte de nuestro agrado. Por ello, en noviembre de 2019, 11.000 científicos declararon, tras analizar distintos indicadores, que el planeta Tierra se enfrenta a una grave emergencia climática. El desastre aún puede evitarse, mas para ello, la humanidad debe cambiar su estilo de vida. Entre las recomendaciones más relevantes, los investigadores destacan: la sustitución de los combustibles fósiles por fuentes de energía renovables; la reducción de la emisión de gases contaminantes como el metano o los hidrofluorocarbonos; la protección de los ecosistemas naturales; la disminución del consumo de carne, así como el incremento de la ingesta de productos vegetales; la implementación de un modelo de economía verde y la estabilización del crecimiento de la población mundial. La revista BioScience publica el texto íntegro.


Imágenes falsas generadas por medio de inteligencia artificial


Científicos de NVIDIA, uno de los mayores fabricantes de unidades de procesamiento gráficas a nivel mundial, describen en un manuscrito publicado en el repositorio arXiv el diseño de un nuevo tipo de red neuronal artificial generativa. En el campo de la inteligencia artificial, este tipo de sistemas son los productores de aquello que se quiera crear, como imágenes, textos o sonidos. La novedad del proyecto radica en que este generador mejora de forma notable el proceso de aprendizaje automático de las neuronas artificiales, hecho que facilita la obtención de imágenes falsas de gran calidad. Aplicaciones como FaceApp o Deepfake usan tecnologías parecidas.


Las bases genéticas de la sexualidad humana


En verano, la revista Science publicó este trabajo que dio la vuelta al mundo. En él, científicos de Estados Unidos, Reino Unido, Australia, Dinamarca, Países Bajos y Suecia concluían, tras analizar el genoma de casi 500.000 individuos que no es posible predecir el comportamiento sexual humano únicamente en base a la genética. Así, aunque la investigación reveló la existencia de cinco regiones del ADN relacionadas con la conducta homosexual, ningún gen ejercería por sí solo un efecto claro sobre la sexualidad. Si lo desea, el lector hallará más información acerca de las conclusiones de este estudio en artículo de actualidad publicado por Investigación y Ciencia.


El número de personas afectadas por el aumento del nivel del mar sería mayor de lo estimado


Un nuevo modelo de inteligencia artificial triplica la población mundial en riesgo por las inundaciones y mareas que ocasionaría el incremento del nivel de los océanos. Según los datos publicados por la revista Nature Communications, en un escenario de bajas emisiones de dióxido de carbono, en el año 2100, 190 millones de personas habitarían zonas costaneras susceptibles de inundarse. La cifra se elevaría hasta los 630 millones en un contexto de altas emisiones. A pesar de que este cálculo también presenta ciertas limitaciones que condicionan su precisión, los autores destacan que los resultados reflejan de forma más precisa la amenaza que las ciudades litorales deberán afrontar en un futuro no tan lejano.
¿El uso del paracaídas previene la muerte en caso de saltar desde un avión?


En este artículo satírico, publicado por la revista British Medical Journal, investigadores de la Universidad de Harvard reclutaron a 23 sujetos dispuestos a lanzarse desde un avión con y sin paracaídas. Los participantes recibieron de forma aleatoria una mochila con el artefacto diseñado para frenar las caídas a gran altura o bien vacía. Tras el salto, de 0.6 metros, los científicos observaron que los sujetos de ambos grupos alcanzaron el suelo sanos y salvos. Por consiguiente, concluyeron que para sobrevivir al salto desde un avión el uso de paracaídas no es un factor determinante. Sin embargo, el auténtico propósito de los autores fue demostrar las limitaciones de extrapolar los resultados de los estudios aleatorios y la importancia de un buen diseño experimental para una correcta aplicación en la práctica clínica.


Plantar árboles como solución a la crisis climática


En concreto, 900 millones de hectáreas. De acuerdo con un trabajo publicado por la revista Science, esta cifra permitiría la absorción de 200 gigatones de dióxido de carbono a lo largo de los 40 años de vida promedio de un árbol. Es decir, el 25 por ciento de la actual reserva de carbono atmosférico. Para calcular estas cifras, los científicos desarrollaron un modelo informático a partir de los datos de zonas boscosas existentes en la actualidad. Ello permitió determinar el espacio que podría destinarse a los nuevos árboles más allá de los bosques actuales, así como las zonas urbanas o dedicadas a la agricultura. Sin embargo, también alertan que de agravarse la emergencia climática, los números presentados serán insuficientes para revertir el desastre.


La honestidad de la población mundial


Imagine el lector que hallara una cartera con dinero en la calle, ¿la devolvería a su dueño? La respuesta, con probabilidad, dependería de la cantidad exacta de billetes. Así concluye una investigación publicada por la revista Science, donde los autores abandonaron 17.000 billeteras en 355 ciudades de 40 países. En la mayoría de los casos, observaron que aquellas con mayor cantidad de dinero retornaban a manos de sus legítimos propietarios. El resultado sorprendió a los investigadores, pues ni expertos economistas acertaron a predecirlo, que señalan al altruismo humano, junto con la vergüenza de sabernos ladrones, como explicación del hallazgo.




Referencia: «Few-Shot Adversarial Learning of Realistic Neural Talking Head Models», de E. Zakharov et al., en arXiv:1905.08233, última versión publicada el 25 de septiembre de 2019.

Referencia: «Scientists rise up against statistical significance», de V. Amrhein et al., en Nature, publicado el 20 de marzo de 2019.

Referencia: «Measles, mumps, rubella vaccination and autism: a nationwide cohort study», de A. Hviid et al., en Annals of Internal Medicine; 170(8): páginas 513-520, publicado el 16 de abril de 2019.

Referencia: «World scientists' warning of a climate emergency», de W. J. Ripple et al., en BioScience; biz088, publicado el 5 de noviembre de 2019.

Referencia: «A style-based generator architecture for generative adversarial networks», de T. Karras et al., en arXiv:1812.04948, última versión publicada el 29 de marzo de 2019.

Referencia: «Large-scale GWAS reveals insights into the genetic architecture of same-sex sexual behavior», de A. Ganna et al., en Science; 365(6456): eaat7693, publicado el 30 de agosto de 2019.

Referencia: «New elevation data triple estimates of global vulnerability to sea-level rise and coastal flooding», de S. A. Kulp et al., en Nature Communications; 10: 4844, publicado el 29 de octubre de 2019.

Referencia: «Parachute use to prevent death and major trauma when jumping from aircraft: randomized controlled trial», de R. W. Yeh et al., en British Medical Jornal; 363:k5094 publicado el 13 de diciembre de 2018.

Referencia: «The global tree restoration potential», de J. F. Bastin et al., en Science; 365 (6448): páginas 76-79, publicado el 5 de julio de 2019.

Referencia: «Civic honesty around the globe», de A. Cohn et al., en Science; 365 (6448): páginas 70-73, publicado el 5 de julio de 2019.

Marta Pulido Salgado

es una investigadora en neurobiología celular
Fuente:
https://www.investigacionyciencia.es/noticias/los-10-artculos-cientficos-ms-populares-de-2019-18174

 

He Jiankui, el “Frankestein chino”. Condenaron al científico que editó el genoma de dos gemelas

En 2018 la noticia convulsionó al mundo. El investigador comunicaba que, a partir del uso de la técnica Crispr, creaba a las primeras bebes resistentes al HIV. Buscaba fama y fortuna pero cumplirá una condena de tres años

En noviembre de 2018 He Jiankui (Southern University of Science and Technology of China) comunicaba una noticia que, de tan explosiva, atravesaba las paredes de la comunidad científica. Gracias a las bondades de la revolucionaria técnica de edición genética, Crispr/Cas9, modificaba el genoma de gemelas chinas y las volvía resistentes al HIV. Esta semana el genetista fue declarado culpable por un tribunal de Shenzhen. Como castigo deberá cumplir con tres años de cárcel y con el pago de, aproximadamente, 430 mil dólares (tres millones de yuanes). Además, ya no estará habilitado para realizar ninguna tarea profesional relacionada al mundo de la salud. Dos de sus colaboradores recibieron sentencias equivalentes.


Para comprender el caso, rearmemos la cronología de los hechos. El año pasado He Jiankui adelantó la noticia por YouTube y, acto seguido, lo presentó en una cumbre de expertos celebrada en Hong Kong. Estaba exultante, se creía el protagonista de una nueva hazaña científica; su nombre quedaría grabado en la historia. Aunque en muchas naciones estaba prohibido, había modificado el genoma de Lulú y Nana para volverlas inmunes al virus. ¿Cómo? Luego de la fecundación, su propósito era intervenir el embrión y desactivar el gen específico (denominado “CCR5”) que codifica para la proteína que está en los glóbulos blancos y que funciona como puerta de entrada y salida del HIV en la célula.


Tras su experimento, como ambas estaban en perfecto estado de salud, creía que sus objetivos se habían cumplido con éxito. En el mismo movimiento, había abierto la puerta para la creación de “bebés de diseño”; y lo había conseguido a partir de las famosas tijeras genéticas, herramientas que editan genes y agitan las fantasías más oscuras del determinismo en el campo. En concreto, presentan la virtud de introducir, corregir o eliminar secuencias de ADN de manera totalmente dirigida y con precisión quirúrgica.


Hasta aquí, algún desconsiderado podría pensar que todas las revoluciones científicas necesitaron de genios y genias que se saltearan alguna regla. Cerebros iluminados que eludieran alguna norma; en definitiva, espíritus audaces y capaces de franquear los límites de las propias instituciones a las que pertenecían. No obstante, “el Frankestein chino" –así fue apodado a partir de este momento– fue demasiado lejos. Sus ansias de reconocimiento mundial lo llevaron a ignorar todos los manuales de ética habidos y por haber.


Según el fallo, adelantado por Xinhua –agencia oficial de China– el científico falsificó documentos y engañó a las parejas que se sometieron al experimento bajo pretextos tergiversados. En aquel momento, la polémica escaló de tal manera que más de 100 colegas de su propio país publicaron una declaración para despegarse de lo realizado y sancionaron la irresponsabilidad como “una locura”. Es una locura porque, hasta el momento, si bien la técnica empleada es muy prometedora –todos los años, de manera sucesiva, sus creadores resuenan como posibles premiados Nobel– no ha sido lo suficientemente perfeccionada. Se utiliza con cautela porque si no se manipula de manera correcta puede introducir problemas en lugares donde no los hay. Dijimos que su precisión era quirúrgica pero no infalible.


La historia de la ciencia y la tecnología ha demostrado, a través de innumerables ejemplos, que aquello que en un tiempo fue rechazado, con los siglos, obtuvo legitimidad científica y luego prestigio social. El conflicto con el trabajo realizado por He Jiankui es que, a pesar de estar disponibles, escogió burlar cualquier clase de protocolo. Sus conclusiones no fueron publicadas por los canales corrientes –revistas internacionales de prestigio– y, en efecto, el modus operandi no pudo ser juzgado ni replicado en laboratorios de otras partes del mundo. Su falta de rigurosidad puso en riesgo la vida de las gemelas. Aunque todavía no fue confirmado, para colmo de males, habría un tercer bebé víctima del mismo proceso.


De cualquier modo, proyectemos a largo plazo y, aunque resulte escabroso, démosle la derecha al científico chino con una hipótesis en forma de pregunta. ¿Qué hubiera pasado si, efectivamente, a partir de su experimento se materializaba la posibilidad de generar bebés resistentes al virus? Potencialmente podría abrirse una ventana hacia una nueva variante de estratificación social. Aquellos grupos sociales más pudientes podrían prolongar sus ventajas genéticas a gusto y piacere. Como alguna vez mencionó el prestigioso biólogo molecular Alberto Kornblihtt: “Tendríamos humanos hechos a medida”.


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

La NASA instalará taller robotizado de reparaciones afuera de la Estación Espacial Internacional

La NASA diseñó un garaje acondicionado para robots, denominado RiTS (siglas en inglés de Robotic Tool Stowage), que será instalado en el exterior de la Estación Espacial Internacional (EEI).

Es una unidad de almacenamiento de protección para herramientas robóticas críticas, cuyo envío estaba previsto en la misión de reabastecimiento de Space X, fijada para ayer.

Sus primeros residentes serán dos robots diseñados para buscar fugas de la estación, que son capaces de detectar la presencia de gases como el amoníaco. Las herramientas robóticas están a bordo de la estación en este momento, informa la NASA.

“Para cada una de sus herramientas almacenadas, RiTS proporcionará protección térmica y física contra la radiación y los micrometeroides o pequeños objetos de alta velocidad que se precipitan por el espacio”, dijo Mark Neuman, gerente de hardware de RiTS.

El sistema térmico de la unidad de alojamiento mantiene temperaturas ideales para los instrumentos, ayudándolos a mantenerse funcionales, según Neuman. Además, ayudará al brazo robótico de la estación espacial Dextre a localizar, tomar y volver a colocar fácilmente esas herramientas.

La implementación de robots de detección suele llevar mucho más tiempo cuando la herramienta no está almacenada externamente. Una vez fuera de la estación, esos detectores necesitan esperar 12 horas para limpiarse del vapor de agua y otros gases del interior de la terminal.

“Este hardware reducirá significativamente el tiempo y el costo para que la tripulación de la estación implemente capacidades de detección de fugas utilizando Dextre”, dijo Chris Craw, líder de Integración de Sistemas de la NASA.

La misión Parker Solar Probe comienza a desvelar los secretos del Sol

Ondas gigantes solitarias en el viento solar, campos magnéticos que se doblan, vientos lentos que surgen en las zonas ecuatoriales de nuestra estrella y nuevos datos sobre sus energéticas partículas. Estos son algunos de los primeros resultados que ofrece la misión Parker Solar Probe de la NASA tras sus primeras aproximaciones al Sol.

 

La misión Parker Solar Probe de la NASA despegó en agosto de 2018 rumbo al Sol. En noviembre de aquel mismo año y en abril de 2019 realizó dos acercamientos a nuestra estrella, aproximándose a unos 24 millones de kilómetros. Hasta ahora, la mayoría de las mediciones se habían realizado a una distancia de una unidad astronómica (la que separa la Tierra del Sol, unos 150 millones de kilómetros).

Los instrumentos de la nave han registrado ahora nuevos datos sobre la corona (la atmósfera exterior del Sol, mil veces más caliente que su superficie), sus energéticas partículas y el viento solar, una información que se publica esta semana en cuatro artículos de la revista Nature.

Los científicos tratan de entender cómo se calienta la corona a temperaturas de millones de grados centígrados, y cómo produce las ondas de partículas y campo magnético que constituye el viento solar. Este fluye y transporta energía hacia el espacio a enorme velocidad, desde cientos a miles de kilómetros por segundo.

 “Para nuestra sorpresa, cuando nos acercamos al Sol, no solo estas pequeñas ondas fueron más fuertes, sino que también vimos olas gigantes solitarias, como las del océano; y cuando una de ellas pasaba por la sonda, la velocidad del viento podía saltar más de 500.000 km/h en segundos”, explica a Sinc el investigador Justin Kasper de la Universidad de Michigan (EE UU), autor principal del primer estudio.

El equipo vio miles de estas ondas solitarias en los diez días que la sonda Parker estuvo cerca del Sol, y ahora los investigadores se preguntan si son las que calientan la corona. “En el paper describimos cómo estas grandes ondas tienen un pico en la velocidad y una inversión en la dirección del campo magnético (que se dobla en forma de 'S' sobre sí mismo por algún tipo de perturbación en el viento solar)”, apunta Kasper tras observar en detalle los datos sobre los iones de plasma y los haces de electrones del Sol.

“Además, en cuanto a la velocidad del viento solar hubo otra sorpresa”, destaca el investigador: “Cuando estábamos cerca de nuestra estrella, descubrimos que el viento giraba alrededor del Sol en la misma dirección en que gira alrededor de su eje. Esto se había predicho, pero la rotación que encontramos es de 10 a 20 veces más rápida de lo que decían los modelos estándar del Sol. De hecho, siguió aumentando a medida que nos acercamos a él y alcanzamos un máximo de aproximadamente 50 km/s”.

"Así que estamos descubriendo que a nuestros modelos del Sol les falta algo de física muy fundamental, pero la misión Parker Solar Probe tiene una gran oportunidad de revelar lo que realmente está sucediendo", apunta Parker, que subraya: "Esto podría tener implicaciones para cualquier bola giratoria de plasma que se pueda imaginar, como estrellas jóvenes, discos de acreción de agujeros negros y algunos dispositivos de fusión de plasma".

El investigador también destaca la importancia que tienen todos estos datos para la Tierra: "Esta nueva información sobre cómo ocurre el calentamiento y cómo fluye el viento solar mejorará en gran medida nuestra capacidad de predecir si una eyección de masa coronal (una erupción de material del Sol) podría golpear la Tierra o los astronautas en su camino a Marte".

Otros tres nuevos estudios sobre la corona solar

Por su parte, el segundo estudio, dirigido por el investigador Stuart Bale de la Universidad de California en Berkeley (EE UU), se centra en el llamado viento solar lento (se mueve a menos de 500 km/s), cuyos orígenes han sido menos claros que el del viento rápido (a más de 500 km/s). Los autores han encontrado que este viento lento se origina en agujeros en la corona que se encuentran cerca del ecuador del Sol.

Otro equipo internacional liderado desde la Universidad de Princeton (EE UU) también analiza en un tercer artículo el entorno de las partículas energéticas que se mueven cerca del nuestra estrella, y un grupo internacional coordinado desde el Laboratorio de Investigación Naval de los Estados Unidos ha analizado las observaciones de la luz solar dispersada por los electrones (la llamada corona K) y el polvo (la corona F o luz zodiacal).

La sonda Parker se acercará tres veces más al Sol en los próximos cinco años, llegando finalmente a poco más de seis millones de kilómetros de su superficie. Esto permitirá a los científicos medir la potencia de las ondas solitarias, comprobar si están calentando la corona, analizar si la rotación del viento alrededor del Sol sigue aumentando y otros nuevos descubrimientos.

Durante este tiempo, el Sol entrará en una fase más activa de su ciclo de once años, "por lo que podemos esperar resultados aún más emocionantes en los próximos años", apunta el investigador Daniel Verscharen del University College de Londrés en una valoración que acompaña a los cuatro artículos de Nature.

 

05/12/2019 10:26 Actualizado: 05/12/2019 10:26

ENRIQUE SACRISTÁN/SINC

 @agencia_sinc

Sábado, 02 Noviembre 2019 17:30

Hacia una teoría general del sujeto

Hacia una teoría general del sujeto

¿Es posible una teoría general del sujeto?, de no serlo ¿puede la demarcación de esa imposibilidad constituir una teoría general? Si con toda seguridad es necesario un empeño transdisciplinar para contestar estas preguntas, ¿puede la postura hegeliano-lacaniana de Slavoj Žižek pintar algo en ese asunto? O ¿es necesario realizar una purga bungeana para que la ciencia pueda hacer el trabajo? Este libro propone hacer frente al problema en un recorrido a través del cual la postura de Žižek se verá constantemente interpelada hasta extraer lo que quede de ella, que tal vez sea todo, o como dice él: Menos que Nada.

Publicado enCiencia y Sociedad
Martes, 08 Octubre 2019 06:20

5G, realidades y necesidades

5G, realidades y necesidades

La quinta generación de redes móviles (5G) no solo constituye una lógica y, por tanto, previsible evolución respecto a los sistemas precedentes como el 4G, sino que se ha convertido justo antes de su lanzamiento comercial en “el futuro de las comunicaciones tanto móviles como fijas”, en palabras de Richard Sutton.

En realidad, el desarrollo de muchas de las tecnologías que se consideran emergentes, como el internet de las cosas (IoT), la realidad virtual (VR), la realidad aumentada (AR), e incluso de otras cuyas formulaciones se conocen hace décadas, como la computación en la red (cloud computing), la inteligencia artificial (AI) o la gestión virtual de las propias redes (NFV), depende más del modelo de negocio adoptado que del soporte tecnológico, aunque con el 5G van a incrementar sus potencialidades.

Las lecciones aprendidas durante estos primeros 20 años de redes de banda ancha móviles, como el 3G y 4G, demuestran que un cambio profundo y económicamente rentable en las formas de uso y, sobre todo, en su asimilación como experiencia vital del usuario, no se produce únicamente añadiendo más kilobits de subida y bajada.

Otro factor determinante es el coste final de las subastas del espectro que las operadoras tienen que pagar para poder ofrecer el 5G. La exuberancia especulativa que a principios de siglo mostraron las subastas para las frecuencias 3G permitió comprender a los gobiernos que si las barreras de entrada son altas, las inversiones a largo plazo serán menores, lo que repercute en el desarrollo económico.

La norma general, hasta ahora, de las subastas nacionales de frecuencias para 5G es que los gobiernos han optado esta vez por costes más moderados, al poner sobre la mesa grandes porciones de espectro. Por el contrario, en aquellos países que optaron por la escasez artificial que supone trocear excesivamente el espectro (Italia) o reservar buena parte de este para otros servicios (Alemania), los costes aumentaron considerablemente.

Siendo conscientes de que el entusiasmo tecnológico constituye un buen punto de partida para la innovación, pero no siempre un aliado estratégico conveniente si se quieren crear bases sólidas para una reformulación tan profunda como la asociada al 5G, no se debe perder nunca de vista lo que la sociedad y el mercado realmente son en este primer tercio del siglo XXI.

Banda ancha para más

Cada nueva generación de telefonía móvil ha alcanzado un mayor número de usuarios que la anterior. Además, su adopción es muy similar a la observada en otras tecnologías y básicamente sigue la famosa curva de difusión formulada por Robert Everett hace más de 5 décadas. La diferencia fundamental entre los sistemas de telefonía móvil y el resto de las tecnologías no radica por tanto en su forma de adopción, sino en la dimensión alcanzada. Así, el total de usuarios únicos de redes móviles actualmente supone el 67 por ciento de la población mundial (GSMAIntelligence, 2019USCensusBureau, 2019) y el número total de conexiones supera un 4 por ciento al de la población del planeta (Ericcson, 2018).

Esto significa que cuando el 5G comience a ser una realidad para esa minoría de primeros usuarios pioneros (early adopters), algo que no va ocurrir de manera significativa al menos hasta 2020, este sistema de quinta generación tendrá ya un mercado potencial de 8.000 millones de usuarios, a lo que habría que añadir al menos 2.000 millones de conexiones celulares en el internet de las cosas. Por lo tanto, el 5G nace ya con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia, algo que podría ocurrir antes del final de la próxima década.

Un factor importante es que el ritmo de adopción de los sistemas móviles digitales se ha ido incrementado exponencialmente, de modo que cada sistema tarda menos que el anterior en convertirse en el de mayor número de usuarios. Así, el 3G tardó casi 14 años en alcanzar un 30 por ciento de difusión entre los usuarios de redes móviles, pero el 4G en siete años ya había superado ese porcentaje convirtiéndose en el sistema con mayor número de usuarios del mundo a finales de 2017.

El 5G nace con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia.

Las sucesivas generaciones de sistemas móviles han ofrecido básicamente al usuario mayores velocidades, un concepto asumido en la nueva cultura del acceso creada a partir del iPhone de Apple. Este factor aparentemente simple permitió ahorrar a las operadoras cuantiosas inversiones en márketing para trasladar a sus clientes la poderosa idea de que el 3G era más rápido que el 2G, el 4G que el 3G y, por lo tanto, el 5G seguirá esta tendencia.

No obstante, cuando se justifica la evolución de los sistemas móviles por la velocidad de acceso se genera un problema: que cualquier esfuerzo inversor de las operadoras por actualizar sus redes se interpreta al final como una forma de hacer la tubería más ancha y que circulen más bits. Esta visión reduccionista ha permitido situar la innovación justo encima de estas redes y en el dispositivo de acceso. Lo que quiere decir que son las empresas que proveen los servicios más populares (Google, Amazon, Netflix…) y los fabricantes de móviles, los agentes que se perciben externamente como los verdaderos innovadores del mercado.

Sin emitir un juicio arriesgado y sin duda complejo sobre quién innova más en Internet, sí se puede afirmar que, si no se alteran las condiciones actuales del mercado, con el 5G nos dirigimos de nuevo a un escenario donde los que más invierten en su desarrollo corren el riesgo de ser los que menos recojan los previsibles dividendos.

Mismo punto de partida

No obstante, en la progresiva implantación del 5G, operadoras y empresas de servicios en Internet comparten una misma necesidad de partida: ambos necesitan incrementar su número de usuarios y este incremento persigue a su vez dos objetivos. En primer lugar, cerrar la brecha mundial entre los que hoy usan redes móviles y aquellos que acceden a estas pero con sistemas de banda ancha. En segundo lugar, integrar ese remanente del 33 por ciento de la población mundial que permanece ausente de las redes móviles, lo que en términos absolutos equivaldría a integrar más de 2.400 millones de personas, la mayoría de ellos en países en desarrollo o regiones emergentes, sobre una población mundial de 7.500 millones de personas.

No obstante, detrás de estas cifras que llaman al optimismo hay que tener en cuenta que, de ese total de personas no conectadas, al menos un 35 por ciento son niños o ancianos (World Bank, 2017), lo que en principio reduce ese margen razonablemente alcanzable de usuarios desconectados a 1.500 millones.

El 5G supone una mejora en tres factores: la velocidad, la latencia y el número de dispositivos que se pueden conectar simultáneamente.

Para que estos 1.500 millones de adultos dieran un salto de la desconexión al 5G, no solo se tendría que producir un amplio y rápido despliegue de infraestructuras que aumentara la cobertura, sino que los costes de conexión (redes y dispositivos) tendrían que ser considerablemente más asequibles que los actuales, teniendo en cuenta la menor renta disponible en los países en desarrollo donde se sitúa esa brecha.

El tercer y determinante factor diferencial del 5G es la densidad o número de dispositivos que la red sería capaz de atender en condiciones óptimas por unidad de cobertura y tiempo, estimada en un incremento exponencial del 100 por ciento respecto a la generación anterior. Esto haría posible la comunicación efectiva en zonas con alta densidad de población o en situaciones puntuales como eventos masivos, pero también la transmisión simultánea entre cualquier objeto conectado sin mediación.

Triple impacto

La implantación de redes 5G en los principales mercados supondrá un triple impacto:

  • En las tecnologías y en los servicios disponibles.
  • En el propio mercado de las telecomunicaciones.
  • Y, por último, en la aparición de innovaciones inimaginables hasta ahora.

En el primer grupo encontraríamos tecnologías como la realidad virtual (VR) y la realidad aumentada (AR). El 5G mejorará la experiencia de usuario en las dos al proporcionar mayores velocidades y latencias mejoradas, este último un factor crítico en contenidos populares como los videojuegos.

El segundo impacto está relacionado con el inquietante statu quo actual de las operadoras que en pocos años vieron como las aplicaciones IP se comían literalmente el, durante décadas, cautivo mercado de las llamadas telefónicas y las nuevas formas de expresión personal multimedia (emojis, textos, clips de audio y vídeo) convertían los teléfonos fijos en “jarrones chinos” — valiosos pero sin utilidad—, las líneas fijas residenciales en soportes colectivos para wifi y los teléfonos móviles en computadoras portátiles.

El tercer impacto es a la vez el más amenazante y esperanzador ya que se refiere a todo lo nuevo y desconocido que un sistema global de banda ancha que promete llevarnos al nivel gigabit puede traer. No podemos olvidar que, a pesar de los recientes cuestionamientos de principios como la neutralidad de la red, Internet sigue siendo una red descentralizada donde la innovación no necesita permisos de núcleos centrales y donde las operadoras no tienen que establecer a priori qué usos se le van a dar a la red.

Al igual que un Snapchat o un Instagram eran inconcebibles cuando se pusieron en marcha las redes 3G, las posibilidades tecnológicas del 5G serán un incentivo para los emprendedores que ahora pueden acceder a la misma tecnología y a una creciente disponibilidad de capital menos alérgico al riesgo. Además, la incorporación de miles de objetos cotidianos hasta ahora virtualmente desconectados a la nueva Internet incrementa exponencialmente las posibilidades de aparición de nuevas aplicaciones que signifiquen una ruptura de los modelos comunicacionales que vimos en los sistemas anteriores.

Por su parte, los fabricantes de móviles serán en gran medida los responsables de la primera interpretación del 5G entre los usuarios, ya que sus aparatos son los receptores privilegiados de la primera tecnología de conexión que permite integrarse en esta red. Pero la necesidad que tienen estas empresas de acortar el ciclo de renovación de sus dispositivos, cuya prolongación ha generado un estancamiento de las ventas mundiales, no es un argumento consistente para convencer a esa franja de usuarios pioneros que ya pagan 1.000 dólares por los móviles más avanzados.

Para los usuarios, el factor diferencial del 5G respecto a los sistemas actuales tendrá que venir de nuevos usos tanto de aplicaciones ya existentes como de nuevos entrantes que podrían hacer una interpretación creativa de las potencialidades del 5G —latencia, densidad de conexión, velocidad— para ofrecer no solo una mejora de los servicios existentes, sino de otros cuya demanda es todavía desconocida.

En definitiva, el 5G está destinado a convertirse en el soporte preferente de un Internet que en su tercera fase no solo aspira a cerrar la brecha de las personas desconectadas, sino a generar sinergias con sectores industriales históricamente indiferentes o cuyos canales de venta y procesos de fabricación apenas han variado en estos 25 años de despliegue de redes móviles.

Por Francisco Vacas

Profesor Universidad, Consultor, Universidad Rey Juan Carlos

La versión original de este artículo ha sido publicada en la Revista Telos 111, de Fundación Telefónica.

Este artículo ha sido publicado originalmente en The Conversation

Miércoles, 02 Octubre 2019 06:19

Los descubrimientos son siempre políticos

Los descubrimientos son siempre políticos

Para destacar el 150 aniversario de Nature, David Kaiser rastrea los orígenes del apoyo gubernamental a la ciencia en el primero de una serie de ensayos sobre cómo los últimos 150 años han moldeado el sistema de investigación.

A finales de agosto de 1609, el astrónomo italiano Galileo Galilei escribió entusiasmado a su cuñado relatándole los rápidos acontecimientos de ese verano. Unas semanas antes, Galileo había escuchado rumores de que se había inventado un catalejo en Flandes (ahora parte de Bélgica). Rápidamente construyó una versión mejorada, lo que desencadenó una nueva ola de rumores. Al poco tiempo, el Senado veneciano le llamó para probar su dispositivo. Galileo se jactó ante su familia de los “numerosos caballeros y senadores” que habían “subido las escaleras de los campanarios más altos de Venecia para observar en el mar velas y embarcaciones tan lejanas que... se necesitaron dos horas o más antes de poderlas ver sin mi catalejo”. El Senado votó de inmediato que se le otorgara a Galileo un puesto de por vida en la Universidad de Padua en Italia, con un salario anual de 1.000 florines, cuando 1.000 florines significaban realmente algo [1] .

Galileo no había hecho más que empezar. Girando su nuevo telescopio hacia los cielos, descubrió (entre otras cosas) cuatro lunas orbitando alrededor de Júpiter. Astutamente, las nombró las Estrellas Mediceas en honor a Cosimo II de Medici, el Gran Duque de la Toscana. La táctica funcionó: al año de ese premio por su éxito veneciano, Galileo había conseguido un salario aún mayor (y se había despojado de sus deberes de enseñanza) como filósofo natural oficial de la corte de los Medici en Florencia [2] .

Galileo tenía una habilidad especial a la hora de convencer a los funcionarios del gobierno y mecenas de la corte para que apoyaran sus investigaciones. Si rastreamos sus proezas, mientras pasaba de un benefactor al siguiente, podríamos reconocer los destellos de los científicos emprendedores de hoy. Sin embargo, unos 250 años después de la época de Galileo, ha empezado a afianzarse una relación bastante diferente entre el gobierno y la ciencia.

Justo cuando el astrónomo Norman Lockyer estaba fundando Nature en 1869, se estaban produciendo cambios importantes en el nexo entre el gobierno y la ciencia en muchas partes del mundo.

Construyendo imperio

Durante las décadas intermedias del siglo XIX, el Imperio británico creció hasta incluir aproximadamente una cuarta parte de la Tierra y mantener el dominio sobre casi un cuarto de su población. En ese momento, varios políticos británicos prominentes, incluidos antiguos y futuros primeros ministros, trataron de apoyar la situación de la ciencia y la tecnología. En la década de 1840, Robert Peel, Benjamin Disraeli, William Gladstone y otros donaron fondos de sus propias arcas para ayudar a fundar el Royal College of Chemistry, convencidos de que la investigación centrada en este campo beneficiaría a la nación y sus ambiciones imperiales. En la década de 1860, muchos investigadores trabajaron duro para formalizar tales planes, empezándose a crear la estructura en una serie de laboratorios de las universidades de todo el Reino Unido, basando cada elemento en la promesa de que las mediciones de precisión de las cantidades físicas podrían hacer avanzar la comprensión científica fundamental y estimular el desarrollo industrial.

La electrificación, la telegrafía, la expansión de los ferrocarriles y la producción de acero a gran escala fueron los desarrollos característicos de lo que a menudo se llamó la segunda revolución industrial, que comenzó alrededor de 1870. Cada una exigía unidades y medidas estándar. Surgieron nuevas sinergias cuando los principales investigadores, incluidos James Clerk Maxwell y William Thomson (más tarde Lord Kelvin), como miembros de las comisiones gubernamentales de alto nivel, utilizaron su comprensión del electromagnetismo y la termodinámica con el objetivo de abordar los desafíos de las comunicaciones transatlánticas, los estándares eléctricos, la navegación oceánica y las máquinas de vapor [3] .

De alguna manera, los británicos estaban tratando de ponerse al día. Desde mediados del siglo XIX, las universidades locales en todos los Estados de habla alemana habían estado reclutando talentos académicos en concursos en base al prestigio: instituciones financiadas por el gobierno se dedicaron a incorporar a los Galileos del momento. El modelo se intensificó rápidamente después de la derrota prusiana de Francia y el establecimiento de una Alemania unificada a principios de 1871. Bajo un Ministerio de Educación centralizado, y con ambiciones aún mayores para una rápida industrialización, el gobierno alemán invirtió fuertemente en la investigación académica de las ciencias naturales [4] .

Sin embargo, incluso con todos esos apoyos, industriales prominentes como Werner von Siemens temían que Alemania estuviera perdiendo su supremacía. El cabildeo concertado condujo al establecimiento de una nueva institución financiada por el gobierno en 1887: el Physikalisch-Technische Reichsanstalt en Berlín. Dirigido por el físico Hermann von Helmholtz, su mandato consistía en acelerar el trabajo en la intersección de la ciencia básica, la investigación aplicada y el desarrollo industrial. En pocos años, los esfuerzos pioneros que allí se hicieron para evaluar propuestas competitivas para el alumbrado público a gran escala -que requerían mediciones cuidadosas de la producción de radiación en varios de los dispositivos- arrojaron grabaciones tan precisas del espectro de radiación de los cuerpos negros que las teorías físicas dominantes ya no podían ajustar los datos. Inspirado, el físico Max Planck rompió a regañadientes con la teoría electromagnética de Maxwell y dio sus primeros pasos tentativos hacia la teoría cuántica [5] .

Mientras tanto, una guerra diferente con Prusia provocó cambios significativos en el gobierno y la ciencia en el este, cuando el imperio austrohúngaro se formó en 1867. Muy rápidamente, las autoridades imperiales lanzaron esfuerzos épicos en meteorología y climatología. El objetivo era crear redes institucionales amplias que pudieran fomentar un sentido común nuevo de propósitos a través del batiburrillo de las tradiciones legales, religiosas y lingüísticas locales. Las universidades, los museos y otras instituciones respaldadas por el gobierno comenzaron a recopilar y estandarizar registros meteorológicos con el objetivo de comprender cómo los patrones locales se relacionan con fenómenos a mayor escala. El imperativo de unificar el extenso imperio favoreció la investigación de vanguardia sobre conceptos modernos, como son las interacciones e interdependencias regionales a través de escalas que van desde los microclimas a los continentes [6] .

En esa época, el zar Alejandro II en Rusia estaba inmerso en la búsqueda de un proyecto de modernización propio. A partir de 1861, emitió una serie de proclamas que se conocieron como las Grandes Reformas. La emancipación de los siervos fue seguida rápidamente por la reforma de las universidades estatales, así como por cambios en los gobiernos regionales y el sistema judicial. La inmensa burocracia que se creó significó nuevas oportunidades para los intelectuales ambiciosos, incluido el químico Dmitrii Mendeleev. Después de dos años de estudio en Heidelberg, Alemania, Mendeleev regresó a su San Petersburgo natal en 1861 para enseñar química en la universidad local, publicando su versión ahora famosa de la tabla periódica de los elementos en 1869, el mismo año en que se lanzó Nature.

Los pasos siguientes en la notable carrera de Mendeleev son emblemáticos de los roles ampliados de la ciencia y la tecnología en esa era. En poco tiempo, el Ministerio de Finanzas y la Armada rusa estaban consultándole, y finalmente ocupó el puesto de director de la Oficina de Pesos y Medidas del país, lo que ayudó a introducir el sistema métrico en Rusia. Al igual que Otto von Bismarck y otros constructores de naciones en Alemania, el zar Alejandro II estaba ansioso por impulsar el desarrollo industrial en todo su país. Un aspecto fundamental de esos esfuerzos fue el de invertir considerablemente en la metrología de precisión; el zar supo encontrar naturalistas entusiastas y hábiles como Mendeleev para conseguir tal objetivo [7] .

En la misma década, Japón experimentó también cambios enormes. La Restauración Meiji de 1868 marcó un período de apertura para un país anteriormente aislado. El juramento de la Carta del Emperador proclamó que: “Se buscará el conocimiento en todo el mundo y, con ello, se fortalecerán los logros del gobierno imperial”. El gobierno comenzó a invertir en las manufacturas y otras reformas industriales. Instituyó nuevas escuelas públicas y financió becas para enviar estudiantes al extranjero a estudiar los avances científicos. El gobierno central llevó a Japón científicos de alto nivel de otros países, como Gran Bretaña y Estados Unidos, para desarrollar la capacitación en instalaciones financiadas por el Estado. Sus líderes comenzaron también allí a priorizar las instituciones de investigación patrocinadas por el gobierno como parte del esfuerzo moderno de construcción del Estado [8] .

Irrupción de Estados Unidos

Estados Unidos seguía siendo un obstinado caso aparte. El momento estaba lejos de resultar prometedor para nuevas inversiones. El conflicto más sangriento en la historia de Estados Unidos no terminó hasta 1865, marcado por el asesinato del presidente Abraham Lincoln. (Murieron más soldados estadounidenses durante la guerra civil de 1861-1865 que durante la Primera y Segunda Guerra Mundial y las guerras en Corea, Vietnam, Afganistán e Iraq juntas.) El apoyo a la investigación científica y a las instituciones a nivel federal fue escaso hasta finales del siglo XIX. De hecho, varios políticos importantes se escandalizaron por la carencia comparada de preparación científica y técnica de la nación durante la Primera Guerra Mundial.

Los esfuerzos de los reformadores en Estados Unidos para apuntalar el apoyo a la investigación por parte del gobierno se vieron obstaculizados por la larga tradición estadounidense de que la educación debía permanecer en manos de las autoridades estatales y locales en lugar del gobierno federal. Por todo Estados Unidos y a nivel individual, los colegios y universidades pusieron gradualmente mayor énfasis en la investigación original y en la construcción de infraestructura para los laboratorios. Pero, en el mejor de los casos, el impacto siguió siendo desigual. Ya en 1927, cuando el joven físico Isidor Rabi viajó a Alemania para estudiar la teoría cuántica, descubrió que las bibliotecas universitarias tendían a pedir la revista Physical Review de año en año. Parecía no haber razón para recibir copias con mayor frecuencia teniendo en cuenta su mediocre contenido [9] . La ciencia fue incluso ignorada en gran medida durante la Gran Depresión de la década de 1930, cuando el gobierno federal centralizó tantas otras cosas bajo el New Deal del presidente Franklin D. Roosevelt.

Solo a principios de la década de 1940, en medio de una movilización de emergencia en tiempos de guerra, el gobierno federal estadounidense asumió el apoyo a la investigación y desarrollo a gran escala. El radar, las armas nucleares, el fusible de proximidad y docenas de otros proyectos militares requirieron miles de millones de dólares y una estrecha coordinación entre los estudios abstractos y el desarrollo práctico.

La efectividad de los planes en tiempos de guerra impresionó a políticos, planificadores militares y administradores universitarios por igual. Cuando llegó la paz, se apresuraron a construir una nueva infraestructura que pudiera mantener las relaciones forjadas por la guerra. Los presupuestos para las ciencias físicas y la ingeniería continuaron aumentando a partir de entonces, provenientes casi en su totalidad del gobierno federal. En 1949, el 96% de todos los fondos en Estados Unidos para la investigación básica en ciencias físicas provenían de agencias federales relacionadas con la defensa. En 1954 -cuatro años después de la creación de la Fundación Nacional civil de Ciencias de EE. UU.-, esa proporción había aumentado al 98% [10] .

A partir de entonces, los políticos estadounidenses encontraron nuevas razones para apoyar la investigación: ayudaba a cumplir los objetivos nacionales para el desarrollo industrial y la defensa militar, y era un elemento clave en las relaciones internacionales. La inversión federal en instituciones científicas en toda la Europa devastada por la guerra, podía evitar, según se pensaba, los flirteos de los científicos con el comunismo en países como Francia, Italia y Grecia. Las reformas importantes del sistema universitario japonés bajo la ocupación estadounidense después de la Segunda Guerra Mundial también ayudaron a difundir el modelo estadounidense. Gastar en ciencia se convirtió en una inversión en los corazones y en las mentes [11] , [12] .

En Estados Unidos, la constante inversión federal ha impulsado un crecimiento sin precedentes en la investigación e infraestructura científicas. Durante los 25 años posteriores al final de la Segunda Guerra Mundial, se capacitó a más jóvenes en ciencias naturales que en toda la historia humana anterior. El gobierno estadounidense desarrolló un sistema de laboratorios nacionales y apoyó un amplio espectro de investigación en las universidades, la mayoría de ellas con poca conexión directa con proyectos militares. Los gastos se justificaban a menudo en términos de una “preparación” más amplia: crear un gran grupo de personal capacitado que estuviera disponible para trabajar en determinados proyectos militares en caso de que la guerra fría se volviera caliente [13] .

Mientras tanto, los científicos emprendedores aprovecharon las oportunidades que surgían de los estrechos lazos con patrocinadores militares. Las preocupaciones de la Marina de los EE. UU. sobre la guerra submarina impulsaron una intensa exploración del fondo del océano. Los geocientíficos, aprovechando los nuevos datos e instrumentos, encontraron evidencias convincentes de la tectónica de las placas [14] . Del mismo modo, las consultas a los físicos sobre proyectos clasificados de defensa antimisiles estimularon el desarrollo de nuevas áreas de estudio, como la óptica no lineal [15] .

Diversificación de carteras

Esa “nueva normalidad” se mantuvo aproximadamente a lo largo de un cuarto de siglo. Justo cuando Nature celebró su centésimo aniversario en 1969, los auditores militares estadounidenses publicaron un extenso análisis, denominado Project Hindsight. En él se sostenía que las agencias federales de defensa habían recibido escasos rendimientos de su inversión en ciencia abierta. Ese año, el senador demócrata Michael Mansfield (Montana) -quien pronto se convertiría en el líder de la mayoría del Senado con mayor antigüedad en la historia de Estados Unidos- introdujo una enmienda de último minuto a la Ley Federal de Autorización Militar de 1970. Estipulaba que no podría utilizarse ningún fondo del Departamento de Defensa “para llevar a cabo cualquier proyecto o estudio de investigación” que no tuviera “una relación directa y evidente con una función militar específica”.

En los campus universitarios de todo el país, el debate sobre el papel del gobierno en el apoyo a la investigación científica se hizo aún más bronco. En medio de la escalada de la guerra de Vietnam, científicos y estudiantes lidiaron respecto al peso adecuado que debían tener los gastos de defensa en la educación superior. En la Universidad de Columbia, en la ciudad de Nueva York, y en la Universidad de Wisconsin-Madison, grupos de radicales atacaron con explosivos los laboratorios de investigación financiados por el ejército. En muchos otros campus, la policía recurrió a gases lacrimógenos y porras para dispersar a los enojados manifestantes [16] .

Durante los años setenta y ochenta, los científicos forjaron asociaciones con industrias privadas, así como con filantropías. Estas relaciones se aceleraron por los fuertes recortes en el gasto federal en defensa y educación en Estados Unidos y en muchas otras partes del mundo. La biotecnología y la nanotecnología surgieron en esos años impulsadas por sistemas de apoyo que eran diferentes del gasto gubernamental que había financiado la investigación en física nuclear después de la Segunda Guerra Mundial [17] .

En estos últimos tiempos, los modelos híbridos de apoyo todavía dependen en gran medida de la financiación del gobierno central; solo tienen que considerar cuán de cerca siguen los científicos el ciclo de asignaciones de cada año en el Congreso de los EE. UU. y en otras instituciones. Pero el apoyo a la investigación rara vez se sustenta hoy en día en el modelo de saturación que parecía tan natural al principio de la era nuclear. Actualmente, menos de 20 países invierten más del 2% de su producto interno bruto en investigación y desarrollo, según datos de la Organización para la Cooperación y el Desarrollo Económico y el Banco Mundial. Mientras tanto, en varios de esos países, la naturaleza del apoyo del gobierno ha cambiado, priorizando a menudo proyectos con objetivos a corto plazo y aplicaciones prácticas en lugar de investigaciones a escalas mayores.

Cuando Lockyer estaba enviando el primer número de Nature a la prensa, muchos elementos de la empresa científica moderna se estaban forjando en Gran Bretaña, el continente europeo y partes de Asia. Pero para captar por completo el alcance de las relaciones monetarias en que los científicos se mueven ahora -rastreando los equivalentes actuales del Senado veneciano en busca de fondos, al mismo tiempo que se corteja a los donantes privados en los Institutos Kavli y en los centros de la Fundación Simons que no son menos brillantes que un palacio Medici-, haríamos bien en tener presente a Galileo.

Traducido del inglés para Rebelión por Sinfo Fernández

Notas:

[1] Drake, S. Isis 50 , 245–254 (1959).

[2] Biagioli, M. Galileo, Courtier: The Practice of Science in the Culture of Absolutism Ch. 2 (Univ. Chicago Press, 1992).

[3] Morus, I. R. When Physics Became King (Univ. Chicago Press, 2005).

[4] Clark, W. Academic Charisma and the Origins of the Research University (Univ. Chicago Press, 2006).

[5] Cahan, D. An Institute for an Empire: The Physikalisch-Technische Reichsanstalt, 1871–1918 (Cambridge Univ. Press, 1989).

[6] Coen, D. R. Climate in Motion: Science, Empire, and the Problem of Scale (Univ. Chicago Press, 2018).

[7] Gordin, M. D. A Well-Ordered Thing: Dmitrii Mendeleev and the Shadow of the Periodic Table (Basic, 2004).

[8] Kikuchi, Y. Anglo-American Connections in Japanese Chemistry: The Lab as Contact Zone (Palgrave Macmillan, 2013).

[9] Rigden, J. S. Rabi: Scientist and Citizen 4 (Basic, 1987).

[10] Forman, P. Hist.Stud. Phys. Biol. Sci. 18 , 149–229 (1987).

[11] Krige, J. American Hegemony and the Postwar Reconstruction of Science in Europe (MIT Press, 2006).

[12] Kaiser, D. Drawing Theories Apart: The Dispersion of Feynman Diagrams in Postwar Physics Ch. 4 (Univ. Chicago Press, 2005).

[13] Kaiser, D. Hist. Stud. Phys. Biol. Sci.33, 131–159 (2002).

[14] Oreskes, N. Nature501, 27–29 (2013).

[15] Wilson, B. Hist. Stud. Nat. Sci.45, 758–804 (2015).

[16] Moore, K. Disrupting Science: Social Movements, American Scientists, and the Politics of the Military, 1945–1975 (Princeton Univ. Press, 2008).

[17] Mirowski, P. Science-Mart: Privatizing American Science (Harvard Univ. Press, 2011).

David Kaiser es profesor de Historia de la Ciencia y profesor de Física en el Massachusetts Institute of Technology, Cambridge, Massachusetts, USA.

 Fuente: https://www.nature.com/articles/d41586-019-02848-2   

Neuralink

Neuralink, la empresa de Elon Musk destinada a desarrollar interfaces entre el cerebro humano y las máquinas, ha presentado algunas de sus novedades al público.

En los dos años transcurridos desde la fundación del proyecto, la compañía ha desarrollado 'hilos' flexibles para ser implantados en el cerebro humano que permiten la transferencia de grandes cantidades de datos, además de un robot implantador y un circuito integrado que acelera el citado trasvase.

Neuralink

 

El informe presentado por la compañía y citado por The Verge asegura que los hilos son de entre 4 y 6 micrómetros de ancho, o lo que es lo mismo, un tercio del diámetro de un pelo humano. El robot neuroquirúrgico, parecido a la combinación de una máquina de coser y un microscopio, implanta 6 hilos con 192 electrodos por minuto evitando vasos sanguíneos y minimizando inflamaciones.

 

 

 
Un conjunto implantado podría contener hasta 3.072 electrodos repartidos en 96 hilos, señala el documento.

Según afirmó Musk en una presentación el pasado martes, el objetivo final es asegurar una simbiosis entre el intelecto artificial y el cerebro humano, con la lectura de los picos neurales del cerebro.

El circuito integrado desarrollado por la empresa permite mejorar el descifrado: refinar y amplificar la señales cerebrales. Actualmente es capaz de transmitir datos solo usando una conexión alámbrica (USB-C), pero el objetivo es utilizar las inalámbricas. Este sistema usará cuatro sensores implantados que se conectarán con un dispositivo externo con batería montado detrás de la oreja.

 

Neuralink


"Se controlará con una aplicación de iPhone", precisó el director de Neuralink, Max Hodak, que también participó en la presentación.

La tecnología de Neuralink permitirá a las personas con parálisis controlar computadoras y teléfonos. Actualmente la implantación de hilos requiere de perforaciones de cráneo y la instalación de dispositivos semejantes es traumática. La firma de Musk planea utilizar láseres para procedimientos de este tipo, y para ello ha atraído a investigadores de la Universidad de Stanford (EE.UU.). 

"Un mono ha logrado controlar una computadora con su cerebro", reveló Musk. La compañía está trabajando con ratas para asegurar la estabilidad de este nuevo sistema. Se espera que los primeros experimentos en humanos se lleven a cabo a para finales de 2020.

Si te ha gustado, ¡compártelo con tus amigos!

Rusia lanza su ley de la soberanía del Internet: balcanización global de las redes

En la Cumbre Económica Internacional de San Petersburgo, el zar VladyPutin fustigó el veto de EU contra Huawei que catalogó de Primera Guerra Tecnológica de la Era Digital: “Nos preocupan las prácticas destructivas que afectan a los mercados tradicionales –energía, productos básicos, bienes de consumo– y que están virando hacia nuevos mercados en desarrollo”.


Putin fue puntual: Huawei no sólo está siendo desplazada, sino forzada sin contemplaciones a abandonar el mercado global.


Agregó que “el modelo actual de las relaciones económicas internacionales está en crisis hoy en día y que se trata de una ‘crisis integral’” ya que “EU está tratando de ‘imponer su poder legal’ en todo el planeta ”(https://bbc.in/2Ixsb5U)”.


Durante la visita del mandarín Xi a Moscú llamó la atención que Putin permitiera un acuerdo con la firma rusa de telecomunicaciones MTS para que Huawei desarrolle su tecnología 5G y su lanzamiento piloto de redes de la quinta generación en Rusia.


La rusófoba dupla anglosajona de EU y Gran Bretaña (GB), en la fase del Brexit/Trumpismo, repite la misma propaganda negra que le dio resultado durante la guerra fría mediante su trivial maniqueísmo: la dualidad ultrareduccionista de libertad/derechos humanos contra los antónimos abultados de autoritarismo/sofocación de libertades de sus contrincantes. Como si la libertad y los derechos humanos fueran radiantes y plenos en EU y GB…


Justin Sherman, del portal Wired, alega que Rusia e Irán planean fundamentalmente aislar al Internet: encabezan un nuevo nivel de fragmentación del Internet que amenaza la arquitectura de la red global (cables, servidores) y permite a los gobiernos controlar mayormente los flujos de información y someter las libertades, lo cual podría ser imitado con implicaciones geopolíticas (https://bit.ly/2wH1N40).


Irán anunció en mayo que su Red de Información Nacional –su Internet doméstico– está 80 por ciento completo, mientras que Rusia lanzó su ley de la soberanía del Internet, también doméstico, para defenderse de las amenazas a su ciberseguridad.


Justin Sherman arremete contra China que “ha apretado el control de su Internet y que pasó de su Proyecto de Escudo Dorado (Golden Shield Project), como vigilancia de la base de datos de carácter policiaco, y ahora ha pasado a un nivel más sofisticado como un Gran Cortafuegos (Great Firewall) que filtra los flujos de información que entran al país.


James Reston, feroz crítico de la ley de la soberanía del Internet de Rusia –que juzga en forma unidimensional como persecución de la disidencia y la oposición–, señala que el Kremlin desea invertir 50 mil millones de dólares o 17 por ciento del presupuesto federal anual de Rusia para crear un Internet soberano en los próximos cinco años con “20 mil 800 millones de dólares, específicamente dedicados al equipamiento que garantice la seguridad del segmento ruso del Internet (https://bit.ly/2Ze9Uku).


Rusia se dispone a crear un “Internet soberano (Financial Times; 01/05/19 y 04/06/19)” que constituye una red paralela manejada enteramente en los servidores rusosque permite a Moscú mantener la operación del Internet durante un discapacitante ciberataque foráneo.


En su diatriba, más que un extenso artículo de corte vulgarmente rusófobo, el globalista Financial Timesfustiga que la dependencia rusa en los sistemas foráneos sería ampliamente reducida, acelerando una balcanización global del Internet, donde la influencia de Occidente (sic) es fragmentada.


Refiere que en 2014,“Putin declaró al Internet como un proyecto de la CIA capaz de debilitar la soberanía de Rusia”.


Hace seis años, lo cual quizá tuvo mucho que ver con la destrucción de un Brasil soberano por el evangelismo sionista ( https://sptnkne.ws/kx7p ), los BRICS, hoy una agrupación alicaída, pregonaron la balcanización del Internet para contrarrestar el espionaje del NSA (National Security Agency; https://bit.ly/2XzedGE).


Ahora resulta que si los gobiernos no se dejan espiar por la dupla NSA/CIA, pues son vilipendiados por la prensa libre como autoritarios.


AlfredoJalife.com
Twitter: @AlfredoJalifeR_
Facebook: AlfredoJalife
Vk: id254048037

Publicado enInternacional
Los puntos débiles de China en la competencia con EEUU

Cuando se analiza la realidad geopolítica y, en particular, la decadencia de la dominación estadounidense, tienden a simplificarse tanto la rapidez de su caída como la velocidad de ascenso de sus competidores. Como si el deseo de un cambio en la relación de fuerzas global, sustituyera el análisis sereno de los hechos.


Así, se destaca la idea de la superioridad tecnológica de China frente a Silicon Valley, algo que la realidad contradice. Aunque es cierto que el dragón está alcanzando al águila en casi todos los terrenos, aún falta un tiempo para que esto se concrete.


Como ejemplo, colocaré algo que analicé meses atrás y se relaciona con la rápida construcción y despliegue de portaviones por parte de China, lo que podría llevarla a equipararse con la flota estadounidense en un par de décadas.


Aunque China está fabricando su cuarto portaviones, recientes informes destacan que el navío, el primero construido íntegramente en el país, tiene limitaciones de combustible que le otorgan autonomía de apenas seis días de navegación, en contraste con la extensa capacidad de los portaviones de EEUU dotados de energía nuclear.


Pretendo indagar en algunas de las debilidades de China, que se suman a la contraofensiva de la Casa Blanca y que pueden retrasar aunque no impedir que se convierta en el nuevo hegemón mundial.


La primera es la cuestión demográfica. La población china envejece de forma muy rápida, al punto que en 2030, el 25% tendrá más de 65 años. Según estimaciones, la fuerza de trabajo alcanzó su pico en 2011 y comenzó a decaer, en tanto la población total disminuirá en 400 millones hasta el fin del siglo.


La cuestión demográfica es un problema mayor, ya que China ancló su impresionante crecimiento económico en una mano de obra abundante y barata que ahora comienza a ralear. Algunos especialistas estiman que China tendrá uno de los peores perfiles demográficos del mundo, cuando llegó a tener uno de los mejores.


La segunda es la existencia de una estructura política muy centralizada, algo que parece haberse agudizado desde la llegada de Xi Jinping a la cúspide del Estado y del Partido Comunista. El centralismo excesivo, un mal que padeció la Unión Soviética, tiende a sofocar la iniciativa de personas e instituciones y a socavar la innovación, un aspecto decisivo en la fortaleza actual de las naciones.


El mandato de Xi se inició en 2012 y supuso el viraje más importante desde el fin de la Revolución Cultural y la apertura de la economía impulsada por Deng Xiaoping.


"A Xi se le atribuye una predilección por el control estatal de la economía que marque de cerca la impronta del sector privado", señala Xulio Ríos, director del Observatorio de la Política China.


El problema es que el control puede asfixiar la creación por la rigidez de las instituciones, como ha sucedido en tantas experiencias históricas.


De hecho, Xi ha sido elevado al nivel de Mao Tse Tung, algo impensable tiempo atrás. En efecto, el XIX Congreso del partido celebrado en 2017 ha reforzado su liderazgo, pero, como señala Ríos, su ascenso ha estado acompañado de un creciente culto a la personalidad, la eliminación del límite de los dos mandatos, el cuestionamiento de las reglas del proceso sucesorio y el abandono del consenso.


Cuestiones que pusieron fin a una larga etapa de estabilidad institucional que "abre un horizonte de incertidumbre respecto al futuro político del Partido Comunista".


No pretendo apuntar que China entrará en crisis política o económica, sino que en el aspecto económico, como en el político, presenta alguna debilidades que no debemos pasar por alto, a riesgo de subestimar la capacidad de EEUU de contraatacar en los puntos más frágiles del que definió como su principal adversario estratégico.


A los elementos señalados podrían sumarse otros. Uno de ellos son las élites económicas chinas, que estarían buscando salir del país y que no necesariamente apuestan por el actual Gobierno y sus objetivos nacionales.


Otra incógnita que habrá de dilucidarse en los próximos meses, es la capacidad de Huawei de afrontar el desafío de la Administración Trump. Al respecto, abundan los análisis más contradictorios, pero los datos fríos señalan que la guerra tecnológica puede no tener un ganador claro en el corto plazo.


"Washington no parece haber considerado que los principales diseñadores de chips dependen del mercado asiático. El 20% de los ingresos de Intel provienen de China, Singapur y Taiwán. El 52% de los ingresos de Qualcomm vienen de sus ventas en China y otro 16% a Corea del Sur. Nvidia obtiene el 38% de sus ventas en Taiwán, el 16% en China y un 15% en el resto de Asia", señala el economista David P. Goldman en Asia Times.


En este sentido, un dato que puede ayudar a comprender dónde estamos, es el 'ranking T0P500', de los superordenadores con mayor rendimiento del mundo, que se emite dos veces al año.


En junio de 2013 una supercomputadora china pasó a ocupar el primer lugar de la clasificación, desplazando por primera vez a sus pares de EEUU y Japón. Pero en junio de 2018, los ordenadores de EEUU volvieron a ocupar las primeras posiciones, desplazando a los chinos.


El panorama actual dice que China crece de forma exponencial como fabricante de superordenadores, alcanzando el 45% de los 500 más eficientes con el doble de los que presenta EEUU. Pero los chinos son menos eficientes y los fabricantes estadounidenses, como Intel, llevan ventaja en las tecnologías más avanzadas y en particular en la estratégica fabricación de semiconductores.


Con lo anterior quiero enfatizar que ambas naciones tienen vulnerabilidades, que la inevitable ascensión del dragón será más lenta de lo previsible y que la competencia entre ellas se está convirtiendo en la seña de identidad del siglo XXI. Ambas potencias no se engañan acerca de las debilidades de la otra, e incluso de las propias, como lo revelan los informes de las agencias seguridad de EEUU y los análisis del Gobierno chino. Claridad de análisis que hará más cerrada la rivalidad y más incierto su desenlace.

Publicado enInternacional