La NASA instalará taller robotizado de reparaciones afuera de la Estación Espacial Internacional

La NASA diseñó un garaje acondicionado para robots, denominado RiTS (siglas en inglés de Robotic Tool Stowage), que será instalado en el exterior de la Estación Espacial Internacional (EEI).

Es una unidad de almacenamiento de protección para herramientas robóticas críticas, cuyo envío estaba previsto en la misión de reabastecimiento de Space X, fijada para ayer.

Sus primeros residentes serán dos robots diseñados para buscar fugas de la estación, que son capaces de detectar la presencia de gases como el amoníaco. Las herramientas robóticas están a bordo de la estación en este momento, informa la NASA.

“Para cada una de sus herramientas almacenadas, RiTS proporcionará protección térmica y física contra la radiación y los micrometeroides o pequeños objetos de alta velocidad que se precipitan por el espacio”, dijo Mark Neuman, gerente de hardware de RiTS.

El sistema térmico de la unidad de alojamiento mantiene temperaturas ideales para los instrumentos, ayudándolos a mantenerse funcionales, según Neuman. Además, ayudará al brazo robótico de la estación espacial Dextre a localizar, tomar y volver a colocar fácilmente esas herramientas.

La implementación de robots de detección suele llevar mucho más tiempo cuando la herramienta no está almacenada externamente. Una vez fuera de la estación, esos detectores necesitan esperar 12 horas para limpiarse del vapor de agua y otros gases del interior de la terminal.

“Este hardware reducirá significativamente el tiempo y el costo para que la tripulación de la estación implemente capacidades de detección de fugas utilizando Dextre”, dijo Chris Craw, líder de Integración de Sistemas de la NASA.

La misión Parker Solar Probe comienza a desvelar los secretos del Sol

Ondas gigantes solitarias en el viento solar, campos magnéticos que se doblan, vientos lentos que surgen en las zonas ecuatoriales de nuestra estrella y nuevos datos sobre sus energéticas partículas. Estos son algunos de los primeros resultados que ofrece la misión Parker Solar Probe de la NASA tras sus primeras aproximaciones al Sol.

 

La misión Parker Solar Probe de la NASA despegó en agosto de 2018 rumbo al Sol. En noviembre de aquel mismo año y en abril de 2019 realizó dos acercamientos a nuestra estrella, aproximándose a unos 24 millones de kilómetros. Hasta ahora, la mayoría de las mediciones se habían realizado a una distancia de una unidad astronómica (la que separa la Tierra del Sol, unos 150 millones de kilómetros).

Los instrumentos de la nave han registrado ahora nuevos datos sobre la corona (la atmósfera exterior del Sol, mil veces más caliente que su superficie), sus energéticas partículas y el viento solar, una información que se publica esta semana en cuatro artículos de la revista Nature.

Los científicos tratan de entender cómo se calienta la corona a temperaturas de millones de grados centígrados, y cómo produce las ondas de partículas y campo magnético que constituye el viento solar. Este fluye y transporta energía hacia el espacio a enorme velocidad, desde cientos a miles de kilómetros por segundo.

 “Para nuestra sorpresa, cuando nos acercamos al Sol, no solo estas pequeñas ondas fueron más fuertes, sino que también vimos olas gigantes solitarias, como las del océano; y cuando una de ellas pasaba por la sonda, la velocidad del viento podía saltar más de 500.000 km/h en segundos”, explica a Sinc el investigador Justin Kasper de la Universidad de Michigan (EE UU), autor principal del primer estudio.

El equipo vio miles de estas ondas solitarias en los diez días que la sonda Parker estuvo cerca del Sol, y ahora los investigadores se preguntan si son las que calientan la corona. “En el paper describimos cómo estas grandes ondas tienen un pico en la velocidad y una inversión en la dirección del campo magnético (que se dobla en forma de 'S' sobre sí mismo por algún tipo de perturbación en el viento solar)”, apunta Kasper tras observar en detalle los datos sobre los iones de plasma y los haces de electrones del Sol.

“Además, en cuanto a la velocidad del viento solar hubo otra sorpresa”, destaca el investigador: “Cuando estábamos cerca de nuestra estrella, descubrimos que el viento giraba alrededor del Sol en la misma dirección en que gira alrededor de su eje. Esto se había predicho, pero la rotación que encontramos es de 10 a 20 veces más rápida de lo que decían los modelos estándar del Sol. De hecho, siguió aumentando a medida que nos acercamos a él y alcanzamos un máximo de aproximadamente 50 km/s”.

"Así que estamos descubriendo que a nuestros modelos del Sol les falta algo de física muy fundamental, pero la misión Parker Solar Probe tiene una gran oportunidad de revelar lo que realmente está sucediendo", apunta Parker, que subraya: "Esto podría tener implicaciones para cualquier bola giratoria de plasma que se pueda imaginar, como estrellas jóvenes, discos de acreción de agujeros negros y algunos dispositivos de fusión de plasma".

El investigador también destaca la importancia que tienen todos estos datos para la Tierra: "Esta nueva información sobre cómo ocurre el calentamiento y cómo fluye el viento solar mejorará en gran medida nuestra capacidad de predecir si una eyección de masa coronal (una erupción de material del Sol) podría golpear la Tierra o los astronautas en su camino a Marte".

Otros tres nuevos estudios sobre la corona solar

Por su parte, el segundo estudio, dirigido por el investigador Stuart Bale de la Universidad de California en Berkeley (EE UU), se centra en el llamado viento solar lento (se mueve a menos de 500 km/s), cuyos orígenes han sido menos claros que el del viento rápido (a más de 500 km/s). Los autores han encontrado que este viento lento se origina en agujeros en la corona que se encuentran cerca del ecuador del Sol.

Otro equipo internacional liderado desde la Universidad de Princeton (EE UU) también analiza en un tercer artículo el entorno de las partículas energéticas que se mueven cerca del nuestra estrella, y un grupo internacional coordinado desde el Laboratorio de Investigación Naval de los Estados Unidos ha analizado las observaciones de la luz solar dispersada por los electrones (la llamada corona K) y el polvo (la corona F o luz zodiacal).

La sonda Parker se acercará tres veces más al Sol en los próximos cinco años, llegando finalmente a poco más de seis millones de kilómetros de su superficie. Esto permitirá a los científicos medir la potencia de las ondas solitarias, comprobar si están calentando la corona, analizar si la rotación del viento alrededor del Sol sigue aumentando y otros nuevos descubrimientos.

Durante este tiempo, el Sol entrará en una fase más activa de su ciclo de once años, "por lo que podemos esperar resultados aún más emocionantes en los próximos años", apunta el investigador Daniel Verscharen del University College de Londrés en una valoración que acompaña a los cuatro artículos de Nature.

 

05/12/2019 10:26 Actualizado: 05/12/2019 10:26

ENRIQUE SACRISTÁN/SINC

 @agencia_sinc

Sábado, 02 Noviembre 2019 17:30

Hacia una teoría general del sujeto

Hacia una teoría general del sujeto

¿Es posible una teoría general del sujeto?, de no serlo ¿puede la demarcación de esa imposibilidad constituir una teoría general? Si con toda seguridad es necesario un empeño transdisciplinar para contestar estas preguntas, ¿puede la postura hegeliano-lacaniana de Slavoj Žižek pintar algo en ese asunto? O ¿es necesario realizar una purga bungeana para que la ciencia pueda hacer el trabajo? Este libro propone hacer frente al problema en un recorrido a través del cual la postura de Žižek se verá constantemente interpelada hasta extraer lo que quede de ella, que tal vez sea todo, o como dice él: Menos que Nada.

Publicado enCiencia y Sociedad
Martes, 08 Octubre 2019 06:20

5G, realidades y necesidades

5G, realidades y necesidades

La quinta generación de redes móviles (5G) no solo constituye una lógica y, por tanto, previsible evolución respecto a los sistemas precedentes como el 4G, sino que se ha convertido justo antes de su lanzamiento comercial en “el futuro de las comunicaciones tanto móviles como fijas”, en palabras de Richard Sutton.

En realidad, el desarrollo de muchas de las tecnologías que se consideran emergentes, como el internet de las cosas (IoT), la realidad virtual (VR), la realidad aumentada (AR), e incluso de otras cuyas formulaciones se conocen hace décadas, como la computación en la red (cloud computing), la inteligencia artificial (AI) o la gestión virtual de las propias redes (NFV), depende más del modelo de negocio adoptado que del soporte tecnológico, aunque con el 5G van a incrementar sus potencialidades.

Las lecciones aprendidas durante estos primeros 20 años de redes de banda ancha móviles, como el 3G y 4G, demuestran que un cambio profundo y económicamente rentable en las formas de uso y, sobre todo, en su asimilación como experiencia vital del usuario, no se produce únicamente añadiendo más kilobits de subida y bajada.

Otro factor determinante es el coste final de las subastas del espectro que las operadoras tienen que pagar para poder ofrecer el 5G. La exuberancia especulativa que a principios de siglo mostraron las subastas para las frecuencias 3G permitió comprender a los gobiernos que si las barreras de entrada son altas, las inversiones a largo plazo serán menores, lo que repercute en el desarrollo económico.

La norma general, hasta ahora, de las subastas nacionales de frecuencias para 5G es que los gobiernos han optado esta vez por costes más moderados, al poner sobre la mesa grandes porciones de espectro. Por el contrario, en aquellos países que optaron por la escasez artificial que supone trocear excesivamente el espectro (Italia) o reservar buena parte de este para otros servicios (Alemania), los costes aumentaron considerablemente.

Siendo conscientes de que el entusiasmo tecnológico constituye un buen punto de partida para la innovación, pero no siempre un aliado estratégico conveniente si se quieren crear bases sólidas para una reformulación tan profunda como la asociada al 5G, no se debe perder nunca de vista lo que la sociedad y el mercado realmente son en este primer tercio del siglo XXI.

Banda ancha para más

Cada nueva generación de telefonía móvil ha alcanzado un mayor número de usuarios que la anterior. Además, su adopción es muy similar a la observada en otras tecnologías y básicamente sigue la famosa curva de difusión formulada por Robert Everett hace más de 5 décadas. La diferencia fundamental entre los sistemas de telefonía móvil y el resto de las tecnologías no radica por tanto en su forma de adopción, sino en la dimensión alcanzada. Así, el total de usuarios únicos de redes móviles actualmente supone el 67 por ciento de la población mundial (GSMAIntelligence, 2019USCensusBureau, 2019) y el número total de conexiones supera un 4 por ciento al de la población del planeta (Ericcson, 2018).

Esto significa que cuando el 5G comience a ser una realidad para esa minoría de primeros usuarios pioneros (early adopters), algo que no va ocurrir de manera significativa al menos hasta 2020, este sistema de quinta generación tendrá ya un mercado potencial de 8.000 millones de usuarios, a lo que habría que añadir al menos 2.000 millones de conexiones celulares en el internet de las cosas. Por lo tanto, el 5G nace ya con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia, algo que podría ocurrir antes del final de la próxima década.

Un factor importante es que el ritmo de adopción de los sistemas móviles digitales se ha ido incrementado exponencialmente, de modo que cada sistema tarda menos que el anterior en convertirse en el de mayor número de usuarios. Así, el 3G tardó casi 14 años en alcanzar un 30 por ciento de difusión entre los usuarios de redes móviles, pero el 4G en siete años ya había superado ese porcentaje convirtiéndose en el sistema con mayor número de usuarios del mundo a finales de 2017.

El 5G nace con el objetivo de convertirse en el sistema de comunicación con mayor número de usuarios (humanos + máquinas) de la historia.

Las sucesivas generaciones de sistemas móviles han ofrecido básicamente al usuario mayores velocidades, un concepto asumido en la nueva cultura del acceso creada a partir del iPhone de Apple. Este factor aparentemente simple permitió ahorrar a las operadoras cuantiosas inversiones en márketing para trasladar a sus clientes la poderosa idea de que el 3G era más rápido que el 2G, el 4G que el 3G y, por lo tanto, el 5G seguirá esta tendencia.

No obstante, cuando se justifica la evolución de los sistemas móviles por la velocidad de acceso se genera un problema: que cualquier esfuerzo inversor de las operadoras por actualizar sus redes se interpreta al final como una forma de hacer la tubería más ancha y que circulen más bits. Esta visión reduccionista ha permitido situar la innovación justo encima de estas redes y en el dispositivo de acceso. Lo que quiere decir que son las empresas que proveen los servicios más populares (Google, Amazon, Netflix…) y los fabricantes de móviles, los agentes que se perciben externamente como los verdaderos innovadores del mercado.

Sin emitir un juicio arriesgado y sin duda complejo sobre quién innova más en Internet, sí se puede afirmar que, si no se alteran las condiciones actuales del mercado, con el 5G nos dirigimos de nuevo a un escenario donde los que más invierten en su desarrollo corren el riesgo de ser los que menos recojan los previsibles dividendos.

Mismo punto de partida

No obstante, en la progresiva implantación del 5G, operadoras y empresas de servicios en Internet comparten una misma necesidad de partida: ambos necesitan incrementar su número de usuarios y este incremento persigue a su vez dos objetivos. En primer lugar, cerrar la brecha mundial entre los que hoy usan redes móviles y aquellos que acceden a estas pero con sistemas de banda ancha. En segundo lugar, integrar ese remanente del 33 por ciento de la población mundial que permanece ausente de las redes móviles, lo que en términos absolutos equivaldría a integrar más de 2.400 millones de personas, la mayoría de ellos en países en desarrollo o regiones emergentes, sobre una población mundial de 7.500 millones de personas.

No obstante, detrás de estas cifras que llaman al optimismo hay que tener en cuenta que, de ese total de personas no conectadas, al menos un 35 por ciento son niños o ancianos (World Bank, 2017), lo que en principio reduce ese margen razonablemente alcanzable de usuarios desconectados a 1.500 millones.

El 5G supone una mejora en tres factores: la velocidad, la latencia y el número de dispositivos que se pueden conectar simultáneamente.

Para que estos 1.500 millones de adultos dieran un salto de la desconexión al 5G, no solo se tendría que producir un amplio y rápido despliegue de infraestructuras que aumentara la cobertura, sino que los costes de conexión (redes y dispositivos) tendrían que ser considerablemente más asequibles que los actuales, teniendo en cuenta la menor renta disponible en los países en desarrollo donde se sitúa esa brecha.

El tercer y determinante factor diferencial del 5G es la densidad o número de dispositivos que la red sería capaz de atender en condiciones óptimas por unidad de cobertura y tiempo, estimada en un incremento exponencial del 100 por ciento respecto a la generación anterior. Esto haría posible la comunicación efectiva en zonas con alta densidad de población o en situaciones puntuales como eventos masivos, pero también la transmisión simultánea entre cualquier objeto conectado sin mediación.

Triple impacto

La implantación de redes 5G en los principales mercados supondrá un triple impacto:

  • En las tecnologías y en los servicios disponibles.
  • En el propio mercado de las telecomunicaciones.
  • Y, por último, en la aparición de innovaciones inimaginables hasta ahora.

En el primer grupo encontraríamos tecnologías como la realidad virtual (VR) y la realidad aumentada (AR). El 5G mejorará la experiencia de usuario en las dos al proporcionar mayores velocidades y latencias mejoradas, este último un factor crítico en contenidos populares como los videojuegos.

El segundo impacto está relacionado con el inquietante statu quo actual de las operadoras que en pocos años vieron como las aplicaciones IP se comían literalmente el, durante décadas, cautivo mercado de las llamadas telefónicas y las nuevas formas de expresión personal multimedia (emojis, textos, clips de audio y vídeo) convertían los teléfonos fijos en “jarrones chinos” — valiosos pero sin utilidad—, las líneas fijas residenciales en soportes colectivos para wifi y los teléfonos móviles en computadoras portátiles.

El tercer impacto es a la vez el más amenazante y esperanzador ya que se refiere a todo lo nuevo y desconocido que un sistema global de banda ancha que promete llevarnos al nivel gigabit puede traer. No podemos olvidar que, a pesar de los recientes cuestionamientos de principios como la neutralidad de la red, Internet sigue siendo una red descentralizada donde la innovación no necesita permisos de núcleos centrales y donde las operadoras no tienen que establecer a priori qué usos se le van a dar a la red.

Al igual que un Snapchat o un Instagram eran inconcebibles cuando se pusieron en marcha las redes 3G, las posibilidades tecnológicas del 5G serán un incentivo para los emprendedores que ahora pueden acceder a la misma tecnología y a una creciente disponibilidad de capital menos alérgico al riesgo. Además, la incorporación de miles de objetos cotidianos hasta ahora virtualmente desconectados a la nueva Internet incrementa exponencialmente las posibilidades de aparición de nuevas aplicaciones que signifiquen una ruptura de los modelos comunicacionales que vimos en los sistemas anteriores.

Por su parte, los fabricantes de móviles serán en gran medida los responsables de la primera interpretación del 5G entre los usuarios, ya que sus aparatos son los receptores privilegiados de la primera tecnología de conexión que permite integrarse en esta red. Pero la necesidad que tienen estas empresas de acortar el ciclo de renovación de sus dispositivos, cuya prolongación ha generado un estancamiento de las ventas mundiales, no es un argumento consistente para convencer a esa franja de usuarios pioneros que ya pagan 1.000 dólares por los móviles más avanzados.

Para los usuarios, el factor diferencial del 5G respecto a los sistemas actuales tendrá que venir de nuevos usos tanto de aplicaciones ya existentes como de nuevos entrantes que podrían hacer una interpretación creativa de las potencialidades del 5G —latencia, densidad de conexión, velocidad— para ofrecer no solo una mejora de los servicios existentes, sino de otros cuya demanda es todavía desconocida.

En definitiva, el 5G está destinado a convertirse en el soporte preferente de un Internet que en su tercera fase no solo aspira a cerrar la brecha de las personas desconectadas, sino a generar sinergias con sectores industriales históricamente indiferentes o cuyos canales de venta y procesos de fabricación apenas han variado en estos 25 años de despliegue de redes móviles.

Por Francisco Vacas

Profesor Universidad, Consultor, Universidad Rey Juan Carlos

La versión original de este artículo ha sido publicada en la Revista Telos 111, de Fundación Telefónica.

Este artículo ha sido publicado originalmente en The Conversation

Miércoles, 02 Octubre 2019 06:19

Los descubrimientos son siempre políticos

Los descubrimientos son siempre políticos

Para destacar el 150 aniversario de Nature, David Kaiser rastrea los orígenes del apoyo gubernamental a la ciencia en el primero de una serie de ensayos sobre cómo los últimos 150 años han moldeado el sistema de investigación.

A finales de agosto de 1609, el astrónomo italiano Galileo Galilei escribió entusiasmado a su cuñado relatándole los rápidos acontecimientos de ese verano. Unas semanas antes, Galileo había escuchado rumores de que se había inventado un catalejo en Flandes (ahora parte de Bélgica). Rápidamente construyó una versión mejorada, lo que desencadenó una nueva ola de rumores. Al poco tiempo, el Senado veneciano le llamó para probar su dispositivo. Galileo se jactó ante su familia de los “numerosos caballeros y senadores” que habían “subido las escaleras de los campanarios más altos de Venecia para observar en el mar velas y embarcaciones tan lejanas que... se necesitaron dos horas o más antes de poderlas ver sin mi catalejo”. El Senado votó de inmediato que se le otorgara a Galileo un puesto de por vida en la Universidad de Padua en Italia, con un salario anual de 1.000 florines, cuando 1.000 florines significaban realmente algo [1] .

Galileo no había hecho más que empezar. Girando su nuevo telescopio hacia los cielos, descubrió (entre otras cosas) cuatro lunas orbitando alrededor de Júpiter. Astutamente, las nombró las Estrellas Mediceas en honor a Cosimo II de Medici, el Gran Duque de la Toscana. La táctica funcionó: al año de ese premio por su éxito veneciano, Galileo había conseguido un salario aún mayor (y se había despojado de sus deberes de enseñanza) como filósofo natural oficial de la corte de los Medici en Florencia [2] .

Galileo tenía una habilidad especial a la hora de convencer a los funcionarios del gobierno y mecenas de la corte para que apoyaran sus investigaciones. Si rastreamos sus proezas, mientras pasaba de un benefactor al siguiente, podríamos reconocer los destellos de los científicos emprendedores de hoy. Sin embargo, unos 250 años después de la época de Galileo, ha empezado a afianzarse una relación bastante diferente entre el gobierno y la ciencia.

Justo cuando el astrónomo Norman Lockyer estaba fundando Nature en 1869, se estaban produciendo cambios importantes en el nexo entre el gobierno y la ciencia en muchas partes del mundo.

Construyendo imperio

Durante las décadas intermedias del siglo XIX, el Imperio británico creció hasta incluir aproximadamente una cuarta parte de la Tierra y mantener el dominio sobre casi un cuarto de su población. En ese momento, varios políticos británicos prominentes, incluidos antiguos y futuros primeros ministros, trataron de apoyar la situación de la ciencia y la tecnología. En la década de 1840, Robert Peel, Benjamin Disraeli, William Gladstone y otros donaron fondos de sus propias arcas para ayudar a fundar el Royal College of Chemistry, convencidos de que la investigación centrada en este campo beneficiaría a la nación y sus ambiciones imperiales. En la década de 1860, muchos investigadores trabajaron duro para formalizar tales planes, empezándose a crear la estructura en una serie de laboratorios de las universidades de todo el Reino Unido, basando cada elemento en la promesa de que las mediciones de precisión de las cantidades físicas podrían hacer avanzar la comprensión científica fundamental y estimular el desarrollo industrial.

La electrificación, la telegrafía, la expansión de los ferrocarriles y la producción de acero a gran escala fueron los desarrollos característicos de lo que a menudo se llamó la segunda revolución industrial, que comenzó alrededor de 1870. Cada una exigía unidades y medidas estándar. Surgieron nuevas sinergias cuando los principales investigadores, incluidos James Clerk Maxwell y William Thomson (más tarde Lord Kelvin), como miembros de las comisiones gubernamentales de alto nivel, utilizaron su comprensión del electromagnetismo y la termodinámica con el objetivo de abordar los desafíos de las comunicaciones transatlánticas, los estándares eléctricos, la navegación oceánica y las máquinas de vapor [3] .

De alguna manera, los británicos estaban tratando de ponerse al día. Desde mediados del siglo XIX, las universidades locales en todos los Estados de habla alemana habían estado reclutando talentos académicos en concursos en base al prestigio: instituciones financiadas por el gobierno se dedicaron a incorporar a los Galileos del momento. El modelo se intensificó rápidamente después de la derrota prusiana de Francia y el establecimiento de una Alemania unificada a principios de 1871. Bajo un Ministerio de Educación centralizado, y con ambiciones aún mayores para una rápida industrialización, el gobierno alemán invirtió fuertemente en la investigación académica de las ciencias naturales [4] .

Sin embargo, incluso con todos esos apoyos, industriales prominentes como Werner von Siemens temían que Alemania estuviera perdiendo su supremacía. El cabildeo concertado condujo al establecimiento de una nueva institución financiada por el gobierno en 1887: el Physikalisch-Technische Reichsanstalt en Berlín. Dirigido por el físico Hermann von Helmholtz, su mandato consistía en acelerar el trabajo en la intersección de la ciencia básica, la investigación aplicada y el desarrollo industrial. En pocos años, los esfuerzos pioneros que allí se hicieron para evaluar propuestas competitivas para el alumbrado público a gran escala -que requerían mediciones cuidadosas de la producción de radiación en varios de los dispositivos- arrojaron grabaciones tan precisas del espectro de radiación de los cuerpos negros que las teorías físicas dominantes ya no podían ajustar los datos. Inspirado, el físico Max Planck rompió a regañadientes con la teoría electromagnética de Maxwell y dio sus primeros pasos tentativos hacia la teoría cuántica [5] .

Mientras tanto, una guerra diferente con Prusia provocó cambios significativos en el gobierno y la ciencia en el este, cuando el imperio austrohúngaro se formó en 1867. Muy rápidamente, las autoridades imperiales lanzaron esfuerzos épicos en meteorología y climatología. El objetivo era crear redes institucionales amplias que pudieran fomentar un sentido común nuevo de propósitos a través del batiburrillo de las tradiciones legales, religiosas y lingüísticas locales. Las universidades, los museos y otras instituciones respaldadas por el gobierno comenzaron a recopilar y estandarizar registros meteorológicos con el objetivo de comprender cómo los patrones locales se relacionan con fenómenos a mayor escala. El imperativo de unificar el extenso imperio favoreció la investigación de vanguardia sobre conceptos modernos, como son las interacciones e interdependencias regionales a través de escalas que van desde los microclimas a los continentes [6] .

En esa época, el zar Alejandro II en Rusia estaba inmerso en la búsqueda de un proyecto de modernización propio. A partir de 1861, emitió una serie de proclamas que se conocieron como las Grandes Reformas. La emancipación de los siervos fue seguida rápidamente por la reforma de las universidades estatales, así como por cambios en los gobiernos regionales y el sistema judicial. La inmensa burocracia que se creó significó nuevas oportunidades para los intelectuales ambiciosos, incluido el químico Dmitrii Mendeleev. Después de dos años de estudio en Heidelberg, Alemania, Mendeleev regresó a su San Petersburgo natal en 1861 para enseñar química en la universidad local, publicando su versión ahora famosa de la tabla periódica de los elementos en 1869, el mismo año en que se lanzó Nature.

Los pasos siguientes en la notable carrera de Mendeleev son emblemáticos de los roles ampliados de la ciencia y la tecnología en esa era. En poco tiempo, el Ministerio de Finanzas y la Armada rusa estaban consultándole, y finalmente ocupó el puesto de director de la Oficina de Pesos y Medidas del país, lo que ayudó a introducir el sistema métrico en Rusia. Al igual que Otto von Bismarck y otros constructores de naciones en Alemania, el zar Alejandro II estaba ansioso por impulsar el desarrollo industrial en todo su país. Un aspecto fundamental de esos esfuerzos fue el de invertir considerablemente en la metrología de precisión; el zar supo encontrar naturalistas entusiastas y hábiles como Mendeleev para conseguir tal objetivo [7] .

En la misma década, Japón experimentó también cambios enormes. La Restauración Meiji de 1868 marcó un período de apertura para un país anteriormente aislado. El juramento de la Carta del Emperador proclamó que: “Se buscará el conocimiento en todo el mundo y, con ello, se fortalecerán los logros del gobierno imperial”. El gobierno comenzó a invertir en las manufacturas y otras reformas industriales. Instituyó nuevas escuelas públicas y financió becas para enviar estudiantes al extranjero a estudiar los avances científicos. El gobierno central llevó a Japón científicos de alto nivel de otros países, como Gran Bretaña y Estados Unidos, para desarrollar la capacitación en instalaciones financiadas por el Estado. Sus líderes comenzaron también allí a priorizar las instituciones de investigación patrocinadas por el gobierno como parte del esfuerzo moderno de construcción del Estado [8] .

Irrupción de Estados Unidos

Estados Unidos seguía siendo un obstinado caso aparte. El momento estaba lejos de resultar prometedor para nuevas inversiones. El conflicto más sangriento en la historia de Estados Unidos no terminó hasta 1865, marcado por el asesinato del presidente Abraham Lincoln. (Murieron más soldados estadounidenses durante la guerra civil de 1861-1865 que durante la Primera y Segunda Guerra Mundial y las guerras en Corea, Vietnam, Afganistán e Iraq juntas.) El apoyo a la investigación científica y a las instituciones a nivel federal fue escaso hasta finales del siglo XIX. De hecho, varios políticos importantes se escandalizaron por la carencia comparada de preparación científica y técnica de la nación durante la Primera Guerra Mundial.

Los esfuerzos de los reformadores en Estados Unidos para apuntalar el apoyo a la investigación por parte del gobierno se vieron obstaculizados por la larga tradición estadounidense de que la educación debía permanecer en manos de las autoridades estatales y locales en lugar del gobierno federal. Por todo Estados Unidos y a nivel individual, los colegios y universidades pusieron gradualmente mayor énfasis en la investigación original y en la construcción de infraestructura para los laboratorios. Pero, en el mejor de los casos, el impacto siguió siendo desigual. Ya en 1927, cuando el joven físico Isidor Rabi viajó a Alemania para estudiar la teoría cuántica, descubrió que las bibliotecas universitarias tendían a pedir la revista Physical Review de año en año. Parecía no haber razón para recibir copias con mayor frecuencia teniendo en cuenta su mediocre contenido [9] . La ciencia fue incluso ignorada en gran medida durante la Gran Depresión de la década de 1930, cuando el gobierno federal centralizó tantas otras cosas bajo el New Deal del presidente Franklin D. Roosevelt.

Solo a principios de la década de 1940, en medio de una movilización de emergencia en tiempos de guerra, el gobierno federal estadounidense asumió el apoyo a la investigación y desarrollo a gran escala. El radar, las armas nucleares, el fusible de proximidad y docenas de otros proyectos militares requirieron miles de millones de dólares y una estrecha coordinación entre los estudios abstractos y el desarrollo práctico.

La efectividad de los planes en tiempos de guerra impresionó a políticos, planificadores militares y administradores universitarios por igual. Cuando llegó la paz, se apresuraron a construir una nueva infraestructura que pudiera mantener las relaciones forjadas por la guerra. Los presupuestos para las ciencias físicas y la ingeniería continuaron aumentando a partir de entonces, provenientes casi en su totalidad del gobierno federal. En 1949, el 96% de todos los fondos en Estados Unidos para la investigación básica en ciencias físicas provenían de agencias federales relacionadas con la defensa. En 1954 -cuatro años después de la creación de la Fundación Nacional civil de Ciencias de EE. UU.-, esa proporción había aumentado al 98% [10] .

A partir de entonces, los políticos estadounidenses encontraron nuevas razones para apoyar la investigación: ayudaba a cumplir los objetivos nacionales para el desarrollo industrial y la defensa militar, y era un elemento clave en las relaciones internacionales. La inversión federal en instituciones científicas en toda la Europa devastada por la guerra, podía evitar, según se pensaba, los flirteos de los científicos con el comunismo en países como Francia, Italia y Grecia. Las reformas importantes del sistema universitario japonés bajo la ocupación estadounidense después de la Segunda Guerra Mundial también ayudaron a difundir el modelo estadounidense. Gastar en ciencia se convirtió en una inversión en los corazones y en las mentes [11] , [12] .

En Estados Unidos, la constante inversión federal ha impulsado un crecimiento sin precedentes en la investigación e infraestructura científicas. Durante los 25 años posteriores al final de la Segunda Guerra Mundial, se capacitó a más jóvenes en ciencias naturales que en toda la historia humana anterior. El gobierno estadounidense desarrolló un sistema de laboratorios nacionales y apoyó un amplio espectro de investigación en las universidades, la mayoría de ellas con poca conexión directa con proyectos militares. Los gastos se justificaban a menudo en términos de una “preparación” más amplia: crear un gran grupo de personal capacitado que estuviera disponible para trabajar en determinados proyectos militares en caso de que la guerra fría se volviera caliente [13] .

Mientras tanto, los científicos emprendedores aprovecharon las oportunidades que surgían de los estrechos lazos con patrocinadores militares. Las preocupaciones de la Marina de los EE. UU. sobre la guerra submarina impulsaron una intensa exploración del fondo del océano. Los geocientíficos, aprovechando los nuevos datos e instrumentos, encontraron evidencias convincentes de la tectónica de las placas [14] . Del mismo modo, las consultas a los físicos sobre proyectos clasificados de defensa antimisiles estimularon el desarrollo de nuevas áreas de estudio, como la óptica no lineal [15] .

Diversificación de carteras

Esa “nueva normalidad” se mantuvo aproximadamente a lo largo de un cuarto de siglo. Justo cuando Nature celebró su centésimo aniversario en 1969, los auditores militares estadounidenses publicaron un extenso análisis, denominado Project Hindsight. En él se sostenía que las agencias federales de defensa habían recibido escasos rendimientos de su inversión en ciencia abierta. Ese año, el senador demócrata Michael Mansfield (Montana) -quien pronto se convertiría en el líder de la mayoría del Senado con mayor antigüedad en la historia de Estados Unidos- introdujo una enmienda de último minuto a la Ley Federal de Autorización Militar de 1970. Estipulaba que no podría utilizarse ningún fondo del Departamento de Defensa “para llevar a cabo cualquier proyecto o estudio de investigación” que no tuviera “una relación directa y evidente con una función militar específica”.

En los campus universitarios de todo el país, el debate sobre el papel del gobierno en el apoyo a la investigación científica se hizo aún más bronco. En medio de la escalada de la guerra de Vietnam, científicos y estudiantes lidiaron respecto al peso adecuado que debían tener los gastos de defensa en la educación superior. En la Universidad de Columbia, en la ciudad de Nueva York, y en la Universidad de Wisconsin-Madison, grupos de radicales atacaron con explosivos los laboratorios de investigación financiados por el ejército. En muchos otros campus, la policía recurrió a gases lacrimógenos y porras para dispersar a los enojados manifestantes [16] .

Durante los años setenta y ochenta, los científicos forjaron asociaciones con industrias privadas, así como con filantropías. Estas relaciones se aceleraron por los fuertes recortes en el gasto federal en defensa y educación en Estados Unidos y en muchas otras partes del mundo. La biotecnología y la nanotecnología surgieron en esos años impulsadas por sistemas de apoyo que eran diferentes del gasto gubernamental que había financiado la investigación en física nuclear después de la Segunda Guerra Mundial [17] .

En estos últimos tiempos, los modelos híbridos de apoyo todavía dependen en gran medida de la financiación del gobierno central; solo tienen que considerar cuán de cerca siguen los científicos el ciclo de asignaciones de cada año en el Congreso de los EE. UU. y en otras instituciones. Pero el apoyo a la investigación rara vez se sustenta hoy en día en el modelo de saturación que parecía tan natural al principio de la era nuclear. Actualmente, menos de 20 países invierten más del 2% de su producto interno bruto en investigación y desarrollo, según datos de la Organización para la Cooperación y el Desarrollo Económico y el Banco Mundial. Mientras tanto, en varios de esos países, la naturaleza del apoyo del gobierno ha cambiado, priorizando a menudo proyectos con objetivos a corto plazo y aplicaciones prácticas en lugar de investigaciones a escalas mayores.

Cuando Lockyer estaba enviando el primer número de Nature a la prensa, muchos elementos de la empresa científica moderna se estaban forjando en Gran Bretaña, el continente europeo y partes de Asia. Pero para captar por completo el alcance de las relaciones monetarias en que los científicos se mueven ahora -rastreando los equivalentes actuales del Senado veneciano en busca de fondos, al mismo tiempo que se corteja a los donantes privados en los Institutos Kavli y en los centros de la Fundación Simons que no son menos brillantes que un palacio Medici-, haríamos bien en tener presente a Galileo.

Traducido del inglés para Rebelión por Sinfo Fernández

Notas:

[1] Drake, S. Isis 50 , 245–254 (1959).

[2] Biagioli, M. Galileo, Courtier: The Practice of Science in the Culture of Absolutism Ch. 2 (Univ. Chicago Press, 1992).

[3] Morus, I. R. When Physics Became King (Univ. Chicago Press, 2005).

[4] Clark, W. Academic Charisma and the Origins of the Research University (Univ. Chicago Press, 2006).

[5] Cahan, D. An Institute for an Empire: The Physikalisch-Technische Reichsanstalt, 1871–1918 (Cambridge Univ. Press, 1989).

[6] Coen, D. R. Climate in Motion: Science, Empire, and the Problem of Scale (Univ. Chicago Press, 2018).

[7] Gordin, M. D. A Well-Ordered Thing: Dmitrii Mendeleev and the Shadow of the Periodic Table (Basic, 2004).

[8] Kikuchi, Y. Anglo-American Connections in Japanese Chemistry: The Lab as Contact Zone (Palgrave Macmillan, 2013).

[9] Rigden, J. S. Rabi: Scientist and Citizen 4 (Basic, 1987).

[10] Forman, P. Hist.Stud. Phys. Biol. Sci. 18 , 149–229 (1987).

[11] Krige, J. American Hegemony and the Postwar Reconstruction of Science in Europe (MIT Press, 2006).

[12] Kaiser, D. Drawing Theories Apart: The Dispersion of Feynman Diagrams in Postwar Physics Ch. 4 (Univ. Chicago Press, 2005).

[13] Kaiser, D. Hist. Stud. Phys. Biol. Sci.33, 131–159 (2002).

[14] Oreskes, N. Nature501, 27–29 (2013).

[15] Wilson, B. Hist. Stud. Nat. Sci.45, 758–804 (2015).

[16] Moore, K. Disrupting Science: Social Movements, American Scientists, and the Politics of the Military, 1945–1975 (Princeton Univ. Press, 2008).

[17] Mirowski, P. Science-Mart: Privatizing American Science (Harvard Univ. Press, 2011).

David Kaiser es profesor de Historia de la Ciencia y profesor de Física en el Massachusetts Institute of Technology, Cambridge, Massachusetts, USA.

 Fuente: https://www.nature.com/articles/d41586-019-02848-2   

Neuralink

Neuralink, la empresa de Elon Musk destinada a desarrollar interfaces entre el cerebro humano y las máquinas, ha presentado algunas de sus novedades al público.

En los dos años transcurridos desde la fundación del proyecto, la compañía ha desarrollado 'hilos' flexibles para ser implantados en el cerebro humano que permiten la transferencia de grandes cantidades de datos, además de un robot implantador y un circuito integrado que acelera el citado trasvase.

Neuralink

 

El informe presentado por la compañía y citado por The Verge asegura que los hilos son de entre 4 y 6 micrómetros de ancho, o lo que es lo mismo, un tercio del diámetro de un pelo humano. El robot neuroquirúrgico, parecido a la combinación de una máquina de coser y un microscopio, implanta 6 hilos con 192 electrodos por minuto evitando vasos sanguíneos y minimizando inflamaciones.

 

 

 
Un conjunto implantado podría contener hasta 3.072 electrodos repartidos en 96 hilos, señala el documento.

Según afirmó Musk en una presentación el pasado martes, el objetivo final es asegurar una simbiosis entre el intelecto artificial y el cerebro humano, con la lectura de los picos neurales del cerebro.

El circuito integrado desarrollado por la empresa permite mejorar el descifrado: refinar y amplificar la señales cerebrales. Actualmente es capaz de transmitir datos solo usando una conexión alámbrica (USB-C), pero el objetivo es utilizar las inalámbricas. Este sistema usará cuatro sensores implantados que se conectarán con un dispositivo externo con batería montado detrás de la oreja.

 

Neuralink


"Se controlará con una aplicación de iPhone", precisó el director de Neuralink, Max Hodak, que también participó en la presentación.

La tecnología de Neuralink permitirá a las personas con parálisis controlar computadoras y teléfonos. Actualmente la implantación de hilos requiere de perforaciones de cráneo y la instalación de dispositivos semejantes es traumática. La firma de Musk planea utilizar láseres para procedimientos de este tipo, y para ello ha atraído a investigadores de la Universidad de Stanford (EE.UU.). 

"Un mono ha logrado controlar una computadora con su cerebro", reveló Musk. La compañía está trabajando con ratas para asegurar la estabilidad de este nuevo sistema. Se espera que los primeros experimentos en humanos se lleven a cabo a para finales de 2020.

Si te ha gustado, ¡compártelo con tus amigos!

Rusia lanza su ley de la soberanía del Internet: balcanización global de las redes

En la Cumbre Económica Internacional de San Petersburgo, el zar VladyPutin fustigó el veto de EU contra Huawei que catalogó de Primera Guerra Tecnológica de la Era Digital: “Nos preocupan las prácticas destructivas que afectan a los mercados tradicionales –energía, productos básicos, bienes de consumo– y que están virando hacia nuevos mercados en desarrollo”.


Putin fue puntual: Huawei no sólo está siendo desplazada, sino forzada sin contemplaciones a abandonar el mercado global.


Agregó que “el modelo actual de las relaciones económicas internacionales está en crisis hoy en día y que se trata de una ‘crisis integral’” ya que “EU está tratando de ‘imponer su poder legal’ en todo el planeta ”(https://bbc.in/2Ixsb5U)”.


Durante la visita del mandarín Xi a Moscú llamó la atención que Putin permitiera un acuerdo con la firma rusa de telecomunicaciones MTS para que Huawei desarrolle su tecnología 5G y su lanzamiento piloto de redes de la quinta generación en Rusia.


La rusófoba dupla anglosajona de EU y Gran Bretaña (GB), en la fase del Brexit/Trumpismo, repite la misma propaganda negra que le dio resultado durante la guerra fría mediante su trivial maniqueísmo: la dualidad ultrareduccionista de libertad/derechos humanos contra los antónimos abultados de autoritarismo/sofocación de libertades de sus contrincantes. Como si la libertad y los derechos humanos fueran radiantes y plenos en EU y GB…


Justin Sherman, del portal Wired, alega que Rusia e Irán planean fundamentalmente aislar al Internet: encabezan un nuevo nivel de fragmentación del Internet que amenaza la arquitectura de la red global (cables, servidores) y permite a los gobiernos controlar mayormente los flujos de información y someter las libertades, lo cual podría ser imitado con implicaciones geopolíticas (https://bit.ly/2wH1N40).


Irán anunció en mayo que su Red de Información Nacional –su Internet doméstico– está 80 por ciento completo, mientras que Rusia lanzó su ley de la soberanía del Internet, también doméstico, para defenderse de las amenazas a su ciberseguridad.


Justin Sherman arremete contra China que “ha apretado el control de su Internet y que pasó de su Proyecto de Escudo Dorado (Golden Shield Project), como vigilancia de la base de datos de carácter policiaco, y ahora ha pasado a un nivel más sofisticado como un Gran Cortafuegos (Great Firewall) que filtra los flujos de información que entran al país.


James Reston, feroz crítico de la ley de la soberanía del Internet de Rusia –que juzga en forma unidimensional como persecución de la disidencia y la oposición–, señala que el Kremlin desea invertir 50 mil millones de dólares o 17 por ciento del presupuesto federal anual de Rusia para crear un Internet soberano en los próximos cinco años con “20 mil 800 millones de dólares, específicamente dedicados al equipamiento que garantice la seguridad del segmento ruso del Internet (https://bit.ly/2Ze9Uku).


Rusia se dispone a crear un “Internet soberano (Financial Times; 01/05/19 y 04/06/19)” que constituye una red paralela manejada enteramente en los servidores rusosque permite a Moscú mantener la operación del Internet durante un discapacitante ciberataque foráneo.


En su diatriba, más que un extenso artículo de corte vulgarmente rusófobo, el globalista Financial Timesfustiga que la dependencia rusa en los sistemas foráneos sería ampliamente reducida, acelerando una balcanización global del Internet, donde la influencia de Occidente (sic) es fragmentada.


Refiere que en 2014,“Putin declaró al Internet como un proyecto de la CIA capaz de debilitar la soberanía de Rusia”.


Hace seis años, lo cual quizá tuvo mucho que ver con la destrucción de un Brasil soberano por el evangelismo sionista ( https://sptnkne.ws/kx7p ), los BRICS, hoy una agrupación alicaída, pregonaron la balcanización del Internet para contrarrestar el espionaje del NSA (National Security Agency; https://bit.ly/2XzedGE).


Ahora resulta que si los gobiernos no se dejan espiar por la dupla NSA/CIA, pues son vilipendiados por la prensa libre como autoritarios.


AlfredoJalife.com
Twitter: @AlfredoJalifeR_
Facebook: AlfredoJalife
Vk: id254048037

Publicado enInternacional
Los puntos débiles de China en la competencia con EEUU

Cuando se analiza la realidad geopolítica y, en particular, la decadencia de la dominación estadounidense, tienden a simplificarse tanto la rapidez de su caída como la velocidad de ascenso de sus competidores. Como si el deseo de un cambio en la relación de fuerzas global, sustituyera el análisis sereno de los hechos.


Así, se destaca la idea de la superioridad tecnológica de China frente a Silicon Valley, algo que la realidad contradice. Aunque es cierto que el dragón está alcanzando al águila en casi todos los terrenos, aún falta un tiempo para que esto se concrete.


Como ejemplo, colocaré algo que analicé meses atrás y se relaciona con la rápida construcción y despliegue de portaviones por parte de China, lo que podría llevarla a equipararse con la flota estadounidense en un par de décadas.


Aunque China está fabricando su cuarto portaviones, recientes informes destacan que el navío, el primero construido íntegramente en el país, tiene limitaciones de combustible que le otorgan autonomía de apenas seis días de navegación, en contraste con la extensa capacidad de los portaviones de EEUU dotados de energía nuclear.


Pretendo indagar en algunas de las debilidades de China, que se suman a la contraofensiva de la Casa Blanca y que pueden retrasar aunque no impedir que se convierta en el nuevo hegemón mundial.


La primera es la cuestión demográfica. La población china envejece de forma muy rápida, al punto que en 2030, el 25% tendrá más de 65 años. Según estimaciones, la fuerza de trabajo alcanzó su pico en 2011 y comenzó a decaer, en tanto la población total disminuirá en 400 millones hasta el fin del siglo.


La cuestión demográfica es un problema mayor, ya que China ancló su impresionante crecimiento económico en una mano de obra abundante y barata que ahora comienza a ralear. Algunos especialistas estiman que China tendrá uno de los peores perfiles demográficos del mundo, cuando llegó a tener uno de los mejores.


La segunda es la existencia de una estructura política muy centralizada, algo que parece haberse agudizado desde la llegada de Xi Jinping a la cúspide del Estado y del Partido Comunista. El centralismo excesivo, un mal que padeció la Unión Soviética, tiende a sofocar la iniciativa de personas e instituciones y a socavar la innovación, un aspecto decisivo en la fortaleza actual de las naciones.


El mandato de Xi se inició en 2012 y supuso el viraje más importante desde el fin de la Revolución Cultural y la apertura de la economía impulsada por Deng Xiaoping.


"A Xi se le atribuye una predilección por el control estatal de la economía que marque de cerca la impronta del sector privado", señala Xulio Ríos, director del Observatorio de la Política China.


El problema es que el control puede asfixiar la creación por la rigidez de las instituciones, como ha sucedido en tantas experiencias históricas.


De hecho, Xi ha sido elevado al nivel de Mao Tse Tung, algo impensable tiempo atrás. En efecto, el XIX Congreso del partido celebrado en 2017 ha reforzado su liderazgo, pero, como señala Ríos, su ascenso ha estado acompañado de un creciente culto a la personalidad, la eliminación del límite de los dos mandatos, el cuestionamiento de las reglas del proceso sucesorio y el abandono del consenso.


Cuestiones que pusieron fin a una larga etapa de estabilidad institucional que "abre un horizonte de incertidumbre respecto al futuro político del Partido Comunista".


No pretendo apuntar que China entrará en crisis política o económica, sino que en el aspecto económico, como en el político, presenta alguna debilidades que no debemos pasar por alto, a riesgo de subestimar la capacidad de EEUU de contraatacar en los puntos más frágiles del que definió como su principal adversario estratégico.


A los elementos señalados podrían sumarse otros. Uno de ellos son las élites económicas chinas, que estarían buscando salir del país y que no necesariamente apuestan por el actual Gobierno y sus objetivos nacionales.


Otra incógnita que habrá de dilucidarse en los próximos meses, es la capacidad de Huawei de afrontar el desafío de la Administración Trump. Al respecto, abundan los análisis más contradictorios, pero los datos fríos señalan que la guerra tecnológica puede no tener un ganador claro en el corto plazo.


"Washington no parece haber considerado que los principales diseñadores de chips dependen del mercado asiático. El 20% de los ingresos de Intel provienen de China, Singapur y Taiwán. El 52% de los ingresos de Qualcomm vienen de sus ventas en China y otro 16% a Corea del Sur. Nvidia obtiene el 38% de sus ventas en Taiwán, el 16% en China y un 15% en el resto de Asia", señala el economista David P. Goldman en Asia Times.


En este sentido, un dato que puede ayudar a comprender dónde estamos, es el 'ranking T0P500', de los superordenadores con mayor rendimiento del mundo, que se emite dos veces al año.


En junio de 2013 una supercomputadora china pasó a ocupar el primer lugar de la clasificación, desplazando por primera vez a sus pares de EEUU y Japón. Pero en junio de 2018, los ordenadores de EEUU volvieron a ocupar las primeras posiciones, desplazando a los chinos.


El panorama actual dice que China crece de forma exponencial como fabricante de superordenadores, alcanzando el 45% de los 500 más eficientes con el doble de los que presenta EEUU. Pero los chinos son menos eficientes y los fabricantes estadounidenses, como Intel, llevan ventaja en las tecnologías más avanzadas y en particular en la estratégica fabricación de semiconductores.


Con lo anterior quiero enfatizar que ambas naciones tienen vulnerabilidades, que la inevitable ascensión del dragón será más lenta de lo previsible y que la competencia entre ellas se está convirtiendo en la seña de identidad del siglo XXI. Ambas potencias no se engañan acerca de las debilidades de la otra, e incluso de las propias, como lo revelan los informes de las agencias seguridad de EEUU y los análisis del Gobierno chino. Claridad de análisis que hará más cerrada la rivalidad y más incierto su desenlace.

Publicado enInternacional
Adriana Gómez, Mortero de la serie “Tapia pisada”, 20 x 16 x 12 cm., cerámica, 2011 (Cortesía de la autora)

En dos ocasiones Colombia ha intentado crear políticas de ciencia y tecnología. La primera fue hace veinticinco años bajo el gobierno de César Gaviria, la segunda es ahora con el gobierno de Iván Duque. La primera vez no se logró nada; en esta ocasión existen promesas, pero ninguna acción específica: no hay un presupuesto asegurado, no existen políticas de educación en ciencia y tecnología, y el nuevo Ministerio del ramo existe apenas en el papel. El tiempo tiene la última palabra.

 

El 9 de febrero pasado el presidente Iván Duque tomó la decisión de relanzar la Misión de Ciencia y Tecnología (MCT), popularmente llamada como la Misión de Sabios, después de veinticinco años de su primera conformación por parte del expresidente Cesar Gaviria. En esta ocasión, la Misión está conformada por 28 hombres y 14 mujeres, 29 colombianos y 13 extranjeros.


En veinticinco años, mucho ha sucedido en el mundo, en especial en materia de ciencia y tecnología, sin dejar de mencionar la educación. Por ejemplo, uno de los acontecimientos importantes acaecidos en la gestión del conocimiento en general en este cuarto de siglo es que nació y se consolidó la cienciometría. El trabajo con toda clase de indicadores: bibliométricos, webométricos, de impacto, y otros, es parte de ello. Al mismo tiempo aparecieron numerosos rankings de todo tipo: de los mejores hospitales y aeropuertos; las mejores universidades y programas académicos; los mejores tanques de pensamiento (think tanks); en fin, los mejores profesores e investigadores. Todo atendiendo, grosso modo, a dos o tres indicadores: calidad, cantidad e impacto, por ejemplo. Vale la pena estudiar la Misión de Ciencia y Tecnología a la luz de los más recientes desarrollos y tendencias. Mensajes cruzados, ruido y ambivalencias aparecen de inmediato.


Las áreas de conocimiento de la Misión


La misión, eufemísticamente llamada también como Misión de los Sabios, en referencia a su antecesora, que fuera coordinada por C. E. Vasco y G. García Márquez, se articula en torno a los siguientes ocho grupos de conocimiento:

 

Ciencias básicas y del espacio;
Tecnologías convergentes e industrias 4.0;
Industrias creativas y culturales;
Biotecnología, bioeconomía y medioambiente;
Energía sostenible; o
Océano y recursos hidrobiológicos;
Ciencias sociales, desarrollo humano y equidad; y
Ciencias de la vida y la salud.

 

En paralelo y con referencia al 2018, Colciencias había identificado cinco áreas estratégicas del conocimiento: Colombia BIO; gestión territorial; mentalidad y cultura de la ciencia; fomento a la investigación, y unidad de política. Ahora bien, las áreas de conocimiento identificadas son seis: humanidades, ciencias sociales, ciencias agrícolas, ciencias médicas de la salud, ciencias naturales, e ingeniería y tecnología.


Pues bien, una comparación desprevenida entre los grupos de investigación de la (MCT) con las áreas de Colciencias muestra una apuesta fuerte con visión prospectiva, en términos de campos de investigación a futuro, que no están expresamente contempladas por Colciencias. Este pareciera un dato de optimismo.


Ante esta proyección y dado que Colciencias desaparecerá a raíz de la creación del Ministerio de Ciencia y Tecnología**, aparece ante la mirada reflexiva un problema: si son las políticas de Ciencia y Tecnología las que marcarán el rumbo, entonces las áreas establecidas por Colciencias deberán reajustarse y en muchos casos redefinirse por completo, lo cual, de ser así, termina afectando o llamando fuertemente la atención sobre las políticas de educación: desde la base, en los primeros grados, hasta la educación universitaria. La educación: un tema crucial sobre el cual la MCT no dice en absoluto ninguna palabra –en ciencia y en tecnología.


La ciencia no se hace solamente con científicos: un problema


Ya es prácticamente una costumbre por parte de las universidades considerar el índice h de sus profesores e investigadores. Por más que, en este y en otros planes, haya algunas de éstas que declaren, de boca para afuera, que no trabajan en función de los indicadores y los rankings. Pero la verdad es que todas ellas, más abierta o veladamente, le prenden cirios a los indicadores de todo tipo, por así decirlo. Un asunto más bien vergonzante, en verdad. Colciencias misma ha incorporado la importancia de estos indicadores en varios de sus documento oficiales. La cienciometría llegó para quedarse.


Teniendo este como un referente sustancial en el tipo de universidad que gana cuerpo en nuestro país, observemos la forma como se han considerado los miembros colombianos de la MCT. Hasta donde fue posible se identificó si trabajan en alguna Universidad –por derivación, en algunos casos, quizás en un Centro o Instituto de investigación. Y cuando se encontró la información correspondiente se identificó el índice h en cada caso.


Al relacionar los nombres y sitio de trabajo, es necesario observar varios aspectos. El índice h más amplio y más consultado es el Google Science Citations (GSC). Existen varias otras fuentes de índice h, pero el más incluyente y normalmente usado en la comunidad académica y científica es el de Google. Este es el incorporado en la Tabla en cuestión.
Para relacionar algunos datos, cruzamos información del CvLac (que es información pública), y del Google Académico (Google Scholar), para tratar de identificar si alguno de los miembros trabajan en universidades o no. Se identificaron varios nombres que no están directamente vinculados a una de ellas. Este rasgo no es, en absoluto, negativo. Es deseable que haya personajes de la cultura, o la industria, o del sector privado, por ejemplo, que se integren en planes, políticas y gestión del conocimiento.


En su labor, la Misión estará acompañada por las Universidades Nacional, Javeriana, de Antioquia, la UIS, los Andes, la Jorge Tadeo, la del Rosario, Eafit, lo que permite establecer un puente entre algunas de las más destacadas universidades del país y la Misión; verosímilmente, también entre la Misión y el posterior Ministerio de Ciencia y Tecnología.


Ahora, y como queda claro en la Tabla aludida, la mayoría de los miembros de la Misión no tienen un índice h. Así sucede porque el mismo fue creado apenas en el año 2005 (por parte de J. Hirsch, profesor de la Universidad de California), lo que conduce a dos reconocimientos expresos: el índice mide específicamente la producción científica a partir del año de su creación (en casos particulares es posible incorporar algunas fechas anteriores, no muy lejos del 2005). De esta manera, los investigadores de mayor edad se encuentran con que no tienen un índice h, o el suyo es demasiado bajo, con respecto a investigadores más (intelectualmente) jóvenes. El índice h es un indicador público. El GSC descarta índices h cuando son muy bajos.


En dos casos, investigadores prestantes aparecen en el GSC pero no hacen pública (decisión personal) su índice h. Para la elaboración de la Tabla adjunta también fue incorporado el ranking elaborado por la Unión Europea en el Proyecto Acumen, y gestionado por el CSIC de España de los investigadores colombianos más destacados de acuerdo con su perfil público en GSC: Ranking of Researchers in Colombia According to their GSC public profiles (2017), segunda semana de febrero: http://www.webometrics.info/es/node/70. Este ranking está actualizado hasta febrero del 2017.


Pues bien, la mayoría de miembros de la Misión carecen de un índice h, lo cual envía mensajes cruzados en distintas direcciones: al propio Gobierno, a las universidades, a la comunidad de profesores e investigadores. Jugando al lenguaje, si la Misión es de “Sabios” (en mayúscula) lo deseable es que hubieran tenido en cuenta, entre otros logros, el índice h. Al fin y al cabo es ya una política expresa en el país por parte de Rectores, Vicerrectores, Decanos. Un manto de preguntas emergen de inmediato, y por tanto de críticas.
Asimismo, aunque los miembros de la MCT representan a varias de las más prestigiosas universidades del país, otras, de mucho prestigio académico e investigativo, y que incluso figuran en lugares destacados en varios rankings para estos centros de estudio, no fueron incluidas en la conformación de la Misión. Bastaría con cotejar la lista de las mejores universidades del país con la Tabla relacionada. Asimismo, hay miembros que representan a algunos de estos centros de estudio que no precisamente se destacan por un espíritu investigativo y de libertad de cátedra e investigación.


Así las cosas: ¿el índice h finalmente sí cuenta en la selección de los mejores profesores e investigadores, o solamente es un adorno o un capricho? Hay que decir que el proceso de selección estuvo a cargo de Colciencias, Vicepresidencia de la República y el Colegio Máximo de las Academias.


El problema de siempre: el presupuesto


El presupuesto que Colombia designa para Ciencia y Tecnología es, de acuerdo con cifras oficiales, el 0.2 por ciento del PIB. En el anuncio de la creación de la Misión Duque declaró que desea llevarlo al 1.5 por ciento. Una promesa de político, porque la verdad es que desde que el Sistema Nacional de Ciencia y Tecnología fue creado en 1991, el presupuesto asignado jamás ha llegado ni siquiera al 0.5 por ciento. Por fin ¿a qué hemos de creer? Las propuestas y análisis de la MCT deberán tener impacto en el Ministerio de Ciencia y Tecnología. Pero este Ministerio será, por lo menos en el futuro inmediato, de presupuesto cero. ¿Cómo subirá el gobierno 1.3 por ciento de inversión para estás áreas atendiendo a las declaraciones hechas hasta la fecha?


Una verdad inobjetable. Es imposible sacar adelante políticas de Ciencia y Tecnología si, adicionalmente, en la base, no hay educación de calidad y excelencia y, precisamente, el tema de la educación ni siquiera aparece en la creación de la Misión ni tampoco del Ministerio. Se crea, así, un vacío grande entre la educación básica y la investigación de punta. Ningún país serio separa la educación de la Ciencia y la Tecnología. Basta con mirar los casos de Irlanda, Indonesia, Corea o Chile, por ejemplo. Existe una muy fuerte miopía del gobierno en este tema.


Es un problema de visión que no para ahí, pues el presidente Duque manifestó que la meta de los planes de la Misión apunta a los siguientes veinticinco años; esto es, con vistas en el 2044. Sin embargo, no hay ni una palabra en materia de prospectiva o de planeación financiera a veinticinco años. Duque parece un candidato presidencial antes que un gobernante. Por lo demás, dicho de pasada, políticamente es curioso que el mismo funcionario no de luz verde a la JEP porque su gobierno no la aprobó (sino el de Juan Manuel Santos), pero sí pretenda que la Misión se proyecte como política de Estado a 25 años. Lo menos que se le exige a un mandatario es consistencia en sus planes y programas, si no en sus declaraciones.


¿Qué futuro le espera a la Ciencia y la Tecnología en Colombia?


La MCT tendrá tres reuniones por grupo o comisión. Al final se redactará un documento con recomendaciones. Es deseable que el gobierno nacional, y mucho mejor aún, el Estado, atiendan a las recomendaciones formuladas, que seguramente serán al mismo tiempo propositivas y críticas.


Los gobiernos nacionales jamás han atendido con sistematicidad a la comunidad académica y científica local. Las distintas Academias tienen un carácter consultivo, pero sería tema de otro artículo estudiar sus estructuras y dinámicas, comparativamente con países semejantes o mejor situados en esta temática. Cabe desear que en esta ocasión sí haya un entendimiento de parte del Gobierno hacia la comunidad de investigadores. El gesto simbólico de acercamiento del presidente Duque y un grupo de sus asesores a la Academia Colombiana de Ciencias Exactas, Físicas y Naturales permiten desear que así suceda.


Aunque surgen dudas. Días antes del lanzamiento de la Misión de Ciencia y Tecnología, el 6 de febrero pasado, el actual inquilino de la Casa de Nariño presentó su Plan Nacional de Desarrollo (PND). Así, parece haber una incongruencia entre la Misión y el PND dado que no hay nexos explícitos y evidentes en materia presupuestaria, de gestión y de importancia política. Se trata de dos documentos incongruentes, hablando matemáticamente. Pero, al fin y al cabo, es cierto que en el pasado hemos padecido gobiernos que ni siquiera han tenido un PND.

No es casual, por tanto, que reinen dudas sobre el efecto real que pueda arrojar el trabajo por adelantar por la Misión. También sobre el potencial del Ministerio. Mucho más si se toma en cuenta el secreto a voces que circula por la comunidad académica y científica del país. que la creación del Ministerio de Ciencia y Tecnología, y este llamado a la MCT corresponde, en realidad, a “sugerencias” o “invitaciones” por parte de la Ocde (Organización para la Cooperación y el Desarrollo Económico). Según parece, las pocas cosas buenas, y malas, que suceden en el país en los últimos meses responden en buena parte a planes, políticas y exigencias de tal Organización.


Una realidad aplastante, por sus implicaciones y consecuencias, toda vez que las políticas de Ciencia y Tecnología en general lo son de conocimiento, y en el mundo actual este tipo de decisiones forman parte, en el sentido más incluyente de la palabra, de políticas sociales. Pues bien, las políticas sociales son, hoy por hoy, en Colombia y en el mundo, políticas de paz y de protección de la naturaleza. Digámoslo con tono claro y abierto: las políticas sociales son posibles también desde abajo, y no solamente desde arriba. En el marco de la sociedad de la información y de la sociedad, las universidades forman parte de la sociedad civil, incluso aunque sean privadas, incluso aunque reciban presupuestos de la nación.


Tenemos así un conjunto de observaciones e inquietudes que deben abrirse, incluso, a un marco más amplio de interrogantes, toda vez que en el país están en proceso decisiones que afectan al conocimiento y al saber desde distintas posibilidades. Por ello, ¿Cómo se corresponden los planes –porque aún no son políticas– de ciencia y tecnología de Duque con la forma como entiende la historia, especialmente en relación con lo sucedido con el Centro de Memoria Histórica; cómo entiende la cultura y el conocimiento, en relación con los sucedido con la Biblioteca Nacional; cómo entiende la sociedad y la memoria, en relación con los acontecimiento del Archivo General de la Nación; cómo entiende el manejo de los datos y la estadística como sucede actualmente en el Dane; en fin, por ejemplo, con lo que sucede en la educación, en relación con las propuesta de su partido, el Centro Democrático, de convertir a la educación en un espacio de adoctrinamiento y obediencia?


El tiempo dará su vaticinio. Por ahora recordemos que en ingeniería se distinguen tres tipos de ruidos: blanco, negro y rosado. Uno es el ruido producido por el emisor; otro es el generado por el receptor del mensaje; y otro más es el ruido generado por el canal de comunicación. Colombia parece querer pensar, por primera vez, como país, en Ciencia y Tecnología; esperemos lo mejor. Esperemos que se logre sin ruido; sin los ruidos generados por Iván Duque en materia de conocimiento en general; y por tanto, en materia de políticas sociales.

** Una reflexión importante. El presidente Duque afirmó reiteradamente que el de Ciencia y Tecnología será un ministerio de costo cero; es decir, trabajará con el mismo presupuesto y, verosímilmente, equipo humano que Colciencias. Dada la crisis fiscal del país, no se destinará presupuesto adicional para el nuevo Ministerio. El problema estriba en que, a la fecha, Colciencias ni siquiera se convertirá, por ejemplo, siguiendo el caso de México, en la Secretaría Técnica de MinCyT. Colciencias quedará, todo parece ser, como un apéndice del Departamento de Planeación Nacional (DNP). No parce existir mucha claridad por parte del Gobierno sobre este tema. Cfr. Le Monde diplomatique, año XVI, No. 181, Septiembre, 2018, pp. 8-9: “¿Habrá una política de ciencia en Colombia, por fin?”.

*Profesor. Integrante del Consejo de Redacción de Le Monde diplomatique, edición Colombia

Publicado enColombia
Alter 3, con rostro humanoide, es puesto en funcionamiento para promover una próxima exhibición en Londres.Foto Afp

Londres. Gestionar la salud del planeta, luchar contra la discriminación o innovar en las artes. Los terrenos en que la inteligencia artificial (IA) puede ayudar al ser humano son incontables, y una muy ambiciosa exposición en Londres se propone demostrarlo.

Con el título IA: más que humana, el Barbican, inmenso centro de arte moderno, reúne más de 200 instalaciones, muestras y proyectos de artistas, científicos e investigadores de todo el mundo.

Es un paseo global, desde el sueño ancestral de crear vida artificial hasta la más puntera evolución científica, que se puede realizar desde hoy y hasta el 26 de agosto.

Entre sus platos fuertes, un espacio inmersivo del colectivo japonés teamLab, donde arte y ciencia se dan la mano para permitir al visitante dejar su huella en una naturaleza digital proyectada en la pared que evoluciona en función de estas interacciones.

Robots de todas las formas y tamaños, desde el pequeño perro Aibo de Sony –cuya primera versión de 1999 evolucionó hacia un modelo con IA en 2018– hasta un gran brazo mecánico que prepara y sirve cocteles.

También, sistemas para gestionar la complejidad de una gran ciudad o contribuir a la investigación médica, desde el cáncer hasta la ceguera.

Para frenar el creciente declive de las abejas, el Instituto Tecnológico de Massachussets presenta una colmena sintética que reproduce las condiciones de una primavera perpetua.

La científica y activista estadunidense Joy Buolamwini analiza el sesgo racial en el software de reconocimiento de facial, mostrando que para ser reconocida debe ponerse una careta blanca. Un programa deficiente puede reproducir la discriminación que existe en nuestras sociedades, advierte la italiana Francesca Rossi, responsable de ética en IBM Research. Pero correctamente diseñada, señala, la IA puede ayudar a identificar y evitar los perjuicios humanos.

"Si la máquina puede entender este concepto de sesgo, entonces puede alertarnos si ve que hay discriminación en nuestra toma de decisiones", dice a Afp, asegurando que para ello es importante que los equipos creativos sean lo más diversos posible.

La IA nació en los años 50

Aunque la idea de descodificar el cerebro humano e imitar su funcionamiento nació a mediados de los años 50, la IA se disparó en la década de 2010 gracias a los rapidísimos procesadores de última generación que permiten analizar y clasificar ingentes cantidades de datos disponibles gracias a Internet.

Nació así AlphaGo, programa informático desarrollado por el equipo DeepMind de Google, que en 2016 ganó al Go –un complicadísmo juego de estrategia– contra el campeón del mundo Lee Sedol, siguiendo los pasos del Deep Blue de IBM que en 1997 había batido al ajedecrista Garry Kasparov.

Ambas están presentes en esta exposición, que esboza cómo la IA puede ayudar a resolver problemas de enorme complejidad, como el cambio climático.

Publicado enInternacional
Página 1 de 57