scáner mejorado digitalmente que muestra el cerebro y la médula espinal MARK LYTHGOE & CHLOE HUTTON / WELLCOME IMAGES / THE NEUROIMMUNOLOGY CONSORTIUM

- Varios estudios e investigaciones recientes están derribando la tradicional separación entre salud física y mental

- La inflamación podría estar profunda y enormemente implicada en desórdenes cerebrales y mentales, igual que lo está en las enfermedades del cuerpo

- Se están probando fármacos antinflamatorios contra enfermedades como depresión, Alzheimer y Parkinson, con potencial para derribar barreras de la práctica clínica

 

Aunque pueda parecer extraño, #inflamación se ha convertido en un hashtag. De pronto parece estar en todos lados, haciendo de las suyas. En lugar de simplemente estar de nuestro lado luchando contra las infecciones y curando heridas, resulta que también tiene un lado oscuro: es la causa de muchos de nuestros males.

Ahora no cabe duda de que la inflamación es parte del problema de muchas enfermedades del cuerpo –tal vez todas–. Y estudiar las causas inflamatorias o inmunes de las enfermedades ha resultado en una serie de descubrimientos: desde tratamientos nuevos para la artritis reumatoide y otras enfermedades autoinmunes en los años 90, hasta la llegada de la inmunoterapia para algunos tipos de cáncer a partir de 2010.

De forma más generalizada, cada vez más a menudo se considera que la inflamación de menor grado, que sólo se detecta mediante un análisis de sangre, forma parte de las razones por las que experiencias comunes de la vida como la pobreza, el estrés, la obesidad y el envejecimiento son malos para la salud pública.

Rápidamente, el cerebro se está presentando como una de las nuevas fronteras de la inflamación. A los médicos como yo, que estudiamos la carrera en el siglo XX, nos enseñaron que había una barrera impermeable entre el cerebro y el sistema inmunológico. Sin embargo, en el siglo XXI ha quedado claro que en realidad están muy interconectados y que les gusta conversar todo el tiempo.

Ahora, los médicos están abiertos a la idea de que la inflamación podría estar profunda y enormemente implicada en desórdenes cerebrales y mentales, igual que lo está en las enfermedades del cuerpo.

Los progresos en el tratamiento de la esclerosis múltiple han mostrado el camino. Muchos de los nuevos medicamentos para esta enfermedad han sido diseñados y probados para proteger el daño cerebral que provoca el propio sistema inmunológico.

La esperanza razonablemente bien fundamentada –y enfatizo esas palabras en este punto– es que si uno se enfoca en la inflamación cerebral, se pueden descubrir formas de prevención y tratamiento de la depresión, la demencia y la psicosis, así como el impacto comprobado de medicamentos de inmunoterapia para la artritis, el cáncer y la esclerosis múltiple. De hecho, una droga originalmente patentada para la esclerosis múltiple ya se está probando como un posible tratamiento de inmunoterapia contra la esquizofrenia.

¿Representa esto una esperanza realista para el tratamiento de la depresión? Es más que razonable dudar de que la inflamación y la depresión estén correlacionadas, o que posean comorbilidad [presencia de uno o más trastornos además de la enfermedad o trastorno primario], por utilizar otro término médico nada apreciado, pero igualmente importante. Las preguntas científicas clave son sobre causalidad, no sobre correlación.

¿La inflamación causa depresión? Y si es así, ¿cómo lo hace? Un experimento que los científicos han diseñado para intentar responder estas preguntas es realizar dos resonancias magnéticas del cerebro: una antes y otra después de provocar una respuesta inflamatoria a propósito mediante la inyección de la vacuna contra la fiebre tifoidea. Si hay alguna diferencia entre las dos resonancias, esto demuestra que una inflamación en el cuerpo puede generar cambios en la forma en que funciona el cerebro. Si no, sería un problema para la teoría de que la inflamación puede provocar depresión.

Un reciente análisis procesó datos de 14 versiones independientes de este experimento. En promedio, los datos demostraron un importante impacto de la inflamación en la actividad cerebral. Estos resultados confirman que la inflamación en el cuerpo puede generar cambios en la forma en que funciona el cerebro. De modo alentador, también localizaron el efecto que tiene la inflamación en partes específicas del cerebro que ya se sabía que están involucradas en el proceso de depresión y muchos otros problemas de salud mental.

Si la inflamación puede provocar depresión, entonces los medicamentos antinflamatorios deberían funcionar como antidepresivos. Varios estudios han analizado datos clínicos de miles de pacientes tratados con drogas antinflamatorias contra la artritis y otras enfermedades frecuentemente asociadas con los síntomas de la depresión.

En líneas generales, los pacientes tratados con drogas antinflamatorias, en lugar de un placebo, mejoraron significativamente sus índices de salud mental. Sin embargo, los datos vienen con una advertencia: los estudios más amplios y rigurosos del grupo analizado fueron diseñados para probar los efectos de los medicamentos en la salud física, y eso dificulta la interpretación de los resultados como evidencia de sus beneficios en la salud mental.

El siguiente paso es realizar estudios que desde su inicio estén diseñados para probar los medicamentos antinflamatorios como antidepresivos, o para probar antidepresivos ya existentes por sus efectos antinflamatorios. Al hacerlo, debemos evitar repetir uno de los errores más habituales en relación a la depresión, que es pensar que es todo una misma cosa, siempre con la misma causa. Por eso no deberíamos buscar el próximo "taquillazo" para poder recetarle automáticamente lo mismo a todo el mundo.

Deberíamos buscar formas de combinar el tratamiento elegido con la causa de los síntomas psiquiátricos de una forma más personalizada. Y utilizar análisis de sangre que midan la inflamación puede ayudarnos a tomar esas decisiones.

Por ejemplo, el consorcio fundado por el Wellcome Trust ha iniciado recientemente la prueba de un nuevo fármaco antinflamatorio para tratar la depresión. Es uno de los primeros estudios clínicos de un antidepresivo que utilizará análisis de sangre para detectar inflamación en potenciales participantes. Si los análisis de sangre no muestran rastros de inflamación, entonces la persona no será reclutada para el estudio porque si no tiene inflamación, no hay razón para pensar que obtendrían algún beneficio de un tratamiento antinflamatorio.

Un ejemplo alternativo podría ser la ketamina, que hace poco ha sido aceptada en el Reino Unido como tratamiento contra la depresión. La ketamina funciona bloqueando un receptor de glutamato en el cerebro, pero no funciona igual en todas las personas. Sabemos que la inflamación puede aumentar el nivel de glutamato en el cerebro, así que se podría predecir que pacientes con mayor inflamación serían más receptivos a los efectos bloqueantes de la ketamina.

En el futuro, podríamos utilizar análisis de sangre o biomarcadores de inflamación para predecir qué personas con depresión pueden responder mejor a los beneficios de la ketamina.

El alcance terapéutico de estas nuevas perspectivas potencialmente va más allá de la depresión o los medicamentos. La industria farmacéutica y de la biotecnología está invirtiendo en probar medicamentos antinflamatorios contra enfermadades como Alzheimer y el Parkinson.

También es interesante el papel que juegan la dieta, la obesidad, el estrés, las enfermedades de las encías, el microbioma digestivo y otros factores de riesgo en inflamaciones de menor grado que podrían controlarse sin medicamentos. Actualmente hay decenas de estudios que miden los efectos antinflamatorios de intervenciones psicológicas, como la meditación o los ejercicios de mindfulness, así como los cambios de estilo de vida, dietas y programas de ejercicios.

Mi favorito es un estudio estadounidense que pretende comprobar la idea de que la inflamación de menor grado puede acelerar disfunciones cognitivas asociadas al envejecimiento y que lavarnos los dientes con más cuidado puede controlar la inflamación leve de encías (periodontitis) y así protegernos en el futuro de la senilidad. Este estudio todavía no ha concluido, así que todavía no se conocen los resultados. ¿Quién hubiera pensado que una sonrisa más brillante y la memoria a corto plazo estaban relacionados tan directamente?

Todo esto nos aporta una nueva e interesante perspectiva sobre cómo se relacionan entre sí el cuerpo, el cerebro y la mente. Y esto puede ser importante a la hora de pensar cómo diseñar científicamente y ofrecer los sistemas de cuidados físicos y de salud mental más efectivos. Esto es esencial en un momento en que los problemas de salud mental y la demencia representan una proporción cada vez mayor de las causas de discapacidad y los costes sociales y de sanidad a nivel mundial.

Actualmente, los servicios de salud física y mental están marcadamente segregados y reflejan un prejuicio filosófico contra la noción de que el cuerpo y la mente están profundamente relacionados.

Los vínculos que muchos pacientes reconocen en su propia experiencia de la enfermedad tienden a ser menospreciados por la mayoría de los servicios públicos de salud mental y física en el Reino Unido.

En contraste, los nuevos estudios sobre la inflamación y el cerebro están claramente alineados con los argumentos que promueven derribar esas barreras de la práctica clínica. Y por encima de todo, tienen el potencial de modificar la forma en que pensamos las enfermedades. La barrera entre mente y cuerpo, que durante tanto tiempo ha sido una convicción dogmática, parece que se está derrumbando.

 

Por Edward Bullmore   - Departamento de Psiquiatría, Universidad de Cambridge

*El profesor Edward Bullmore dirige el departamento de Psiquiatría de la Universidad de Cambridge. Es autor de La Mente Inflamada.

Traducido por Lucía Balducci

Publicado enSociedad
¿Qué es la educación y esa cosa llamada ciencia?

Dentro de las aulas donde se imparte el método científico, el análisis crítico es bienvenido, siempre y cuando no supere los límites establecidos por los departamentos de investigación, la financiación privada y los intereses del mercado.

Un día una persona reflexionó sobre el papel de la enseñanza en la sociedad moderna. Llegó a esta conclusión: “La adultez no es un estado natural de los seres humanos. No nacemos adultas y adultos, aprendemos a representar ese papel a fuerza de imitar de mejor o peor grado a los adultos que nos rodean”. Desde los primeros pasos, los más pequeños son insertados en aulas, donde van aprendiendo cómo obedecer y memorizar, hasta que dan el primer empujón a las puertas mercantilizadas de la universidad, en ese camino sufrimos el deterioro hacia “la adultez”. Este proceso destructivo es implementado en gran medida por el sistema educativo, y es el mecanismo más potente que ha desarrollado nuestra cultura para reproducir seres humanos que encarnen los modelos impuestos sin apenas rechistar.

En las aulas la enseñanza dista mucho de ser un terreno neutral. Los sistemas educativos no son entes aislados y autónomos, sino que ejercen un rol en la sociedad: el transmitir una serie de conocimientos, los cuales producen en nosotros (y reproducen mediante nosotros) los valores y esquemas de esta sociedad. Esto se percibe desde la arquitectura de los colegios y universidades a los contenidos de las materias y las herramientas pedagógicas para asegurar el conocimiento. Así cada primavera la escuela fabrica adultos para reemplazar en las universidades a las generaciones anteriores pasando por una serie de cribas. Cribas que empiezan ya con las condiciones domésticas, familiares, etc de cada uno (condiciones que son personales, pero a la vez sociales).

En la idealizada universidad se repite este mismo patrón; somos de nuevo víctimas de una educación alienante donde las expectativas de desarrollo personal se transforman en una amarga frustración… ¡sorpresa! La universidad es en gran medida un reflejo de la sociedad, y cada vez menos un microcosmos de educación colectiva y crítica como muchas esperábamos. Descubrimos que también ha sido absorbida y se encuentra inserta en los intereses y necesidades de una sociedad al servicio de las élites políticas y económicas. Así el alumnado es sometido día tras día a un sistema (educativo) de control y adoctrinamiento, algo que conoce y reproduce muy bien la todopoderosa Ciencia.

En la universidad, los aprendices de científicos son víctimas de una falsa impresión de libertad y pensamiento crítico. Pronto interiorizan que la ciencia es un cuerpo de conocimiento sistemático que da cuenta de problemas que pueden ser resueltos por el ejercicio de la razón, sin subjetividades de por medio, suprimiendo así la poca capacidad de auto-crítica que permanecía latente en nosotras mismas. Dentro de las aulas donde se imparte el método científico, el análisis crítico es bienvenido, siempre y cuando no supere los límites establecidos por los departamentos de investigación, la financiación privada y los intereses del mercado. Nos penalizan cuando pensamos por nosotras mismas, y acabamos convirtiéndonos en “sujetos vacíos” que se suman a la campana de cristal.

Una vez con el título bajo el brazo y con la sensación de no haber aprendido más que a ejercitar la memoria, tenemos la obligación de adaptar el currículum a las necesidades productivas, nuestras aspiraciones se ajustan paulatinamente a las de tipo empresarial, se prioriza lo tecnócrata y la llamada “eficiencia y calidad” sobre la democracia y la deliberación colectiva. En cuanto a las salidas profesionales, la gran mayoría de estudiantes nos vemos precarizados, sin oportunidades laborales y una minoría consigue becas y se ve empujada a competir, y pasa a ser esclava de un mundo donde eres alguien a partir de aspectos hegemónicos. Aspectos tales como el prestigio de la revista donde publicas, la capacidad de conseguir financiación para proyectos de investigación, la posibilidad de adquirir equipos, las carreras profesionales, la autoridad y el reconocimiento científico, la capacidad de influir en decisiones de política a nivel científico, etc.

En mis propias carnes he vivido todo este aparato burocrático lleno de intereses a los que se somete el mundo científico. Me gradué en Ciencias del Mar y, no satisfecha con la decepción, me volví a tropezar con una piedra todavía más grande al especializarme en el maravilloso campo de la Oceanografía, que de nuevo hundió mis expectativas en el campo de la investigación preestablecida. Ahora, inmersa en un doctorado con unas condiciones precarias, donde mi capacidad de actuación de nuevo debe ser revisada por los peces gordos, a los que pago con mi matrícula la cuantía de trescientos euros anuales por el mero hecho de “dirigirme” en un desierto en el que nadie escucha mis interrogantes. Y esto si tienes la suerte de tener un buen director/a (en la mayoría de los casos la figura del director/a es un ente fantasmagórico).

Cada mañana repito la misma operación: Me siento frente a la lupa a observar y estudiar el interior del océano, leo artículos científicos, escribo, analizo…todo bajo unas directrices ya marcadas. Y así hasta que nos permitimos descansar a la hora del almuerzo. Cuando llego a casa tengo que hacer sobreesfuerzos para no seguir modelizando como sacar adelante el trabajo, cómo publicar de manera constante –quiera o no quiera- para poder sobrevivir y optar a unas ridículas becas. Todo esto desencadena una constante competitividad entre compañeras, entre grupos de investigación y, finalmente, desemboca en un colapso personal del que cuesta sobreponerse. No obstante, nos hacen creer que todo esto es justificable, que todo merece la pena, porque nuestro trabajo es vocacional, porque nos apasiona lo que hacemos…aunque tengas que vivir del aire. Porque parece que los investigadores sufren lobotomías con cada sexenio y olvidan rápidamente sus orígenes. En otro paralelismo, se bajaron de las ramas para echar andar y no supieron volver a ellas.

En definitiva, parece que estamos dispuestas a seguir aceptando y apoyando estas prácticas, que generalmente consideramos necesarias. Sin embargo, alguien podría preguntarse por qué a unas criaturas supuestamente inteligentes y sensibles, unas monedas, una explotación humana y medioambiental en nombre de la vocación, les pueden empujar a esta forma de pensamiento auto-destructivo. ¿Cuánto estamos dispuestas a sacrificar en nombre de una educación/domesticación? y de una ciencia degradante, monótona y destructiva con la vida y el medio ambiente? La educación debe enseñar a sus pasajeros a no obviar la naturaleza de la investigación científica; los conceptos de complejidad, incertidumbre, caos y entropía, efectos a varios niveles... así como la intervención de la subjetividad, las representaciones, los imaginarios o la afectividad en ese proceso que llamamos “producción de conocimiento”.

Termino con una propuesta: preguntémonos.

Por El Sacapuntas


publicado

2020-01-22 04:29

Jueves, 19 Diciembre 2019 06:37

Los seis avances científicos del decenio

 El vehículo de exploración espacial Curiosity Mars se tomó una selfi el 12 de mayo de 2019.Foto Afp

La inmunoterapia contra el cáncer, el hallazgo del Homo denisova, la detección de ondas gravitacionales y la inteligencia artificial, entre otros, dieron el carácter a esta década

Washington. Astronomía, genética, medicina, paleontología, informática: Afp seleccionó seis avances o hallazgos científicos de la década (que en realidad terminará el 31 de diciembre de 2020) que han comenzado a cambiar los libros de texto escolares. Científicos entrevistados por la agencia de noticias también se aventuran a hacer predicciones sobre lo que el próximo decenio podría aportar al conocimiento.

Los ingredientes de la vida en Marte

Todavía no sabemos si Marte albergó vida, pero gracias a un pequeño robot estadunidense de seis ruedas (llamado rover o astromóvil) sabemos que el planeta rojo ha sido habitable.

Poco después de posarse sobre la superficie marciana el 6 de agosto de 2012, el astromóvil Curiosity descubrió piedras, una nueva evidencia de que por allí fluyeron ríos hace miles de millones de años. Las pruebas se han multiplicado: hubo mucha agua en Marte, en fuentes termales, lagos y tal vez océanos.

Curiosity también encontró lo que la NASA llama componentes básicos para la vida, moléculas orgánicas complejas, en 2014.

Los científicos pasarán ahora a la siguiente pregunta: ¿ha habido realmente vida en Marte? Dos nuevos robots se lanzarán hacia mediados de 2020 (el estadunidense Mars 2020 y el europeo Rosalind Franklin) para, quizás, desenterrar microbios antiguos.

La ciencia espacial de la próxima década estará dominada por la Luna, Marte y los asteroides, asegura Emily Lakdawalla, de la Planetary Society. Ella espera que las agencias espaciales decidan ir a explorar los confines olvidados del Sistema Solar, Venus, Urano y Neptuno para la década de 2030.

El cosmos se revela

Durante largo tiempo, la humanidad creyó que habitaba un sistema solar apartado. Un telescopio espacial llamado Kepler, lanzado en 2009, ha permitido descubrir 2 mil 300 planetas en sistemas vecinos, conocidos como exoplanetas, y los astrónomos estiman que probablemente haya uno por estrella, o sea, miles de millones. El sucesor de Kepler, Tess, fue lanzado por la NASA en 2018.

¿Qué esperar de la década que está por empezar? Análisis finos de las atmósferas de estos exoplanetas para descubrir quizás cuáles de ellos albergan vida, sugiere Tim Swindle, director del laboratorio de estudios planetarios de la Universidad de Arizona.

Los terrícolas también tuvieron acceso este año a la primera imagen de un agujero negro, producida por el proyecto Event Horizon Telescope. Su director, Shep Doeleman, promete para la próxima década la primera película de uno de estos fenómenos. Imaginen ver evolucionar un agujero negro en tiempo real, señala.

Pero un evento ha marcado sin duda la década más que el resto: la primera detección, el 14 de septiembre de 2015, de ondas gravitacionales. Dos agujeros negros se fusionaron en un remolino hace mil 300 millones de años, una colisión tan poderosa que propagó en el resto del cosmos ondas que contraen y expanden el espacio, viajando a la velocidad de la luz, y que finalmente llegaron a la Tierra esa mañana. Einstein tenía razón. Tres pioneros de las instalaciones Ligo y Virgo fueron galardonados con un Nobel en 2017 por esta y una decena de otras detecciones desde entonces.

En cuanto al origen y la composición del Universo, los cosmólogos continúan debatiendo. La materia oscura, invisible, que constituye la gran mayoría del Universo, sigue siendo uno de los mayores enigmas. Nos morimos de ganas de saber qué es, explicó en octubre el cosmólogo James Peebles, ganador del Nobel de física 2019.

Tijeras moleculares Crispr

En biomedicina, hay un antes y un después de Crispr. La modificación genética por Crispr está por muy lejos a la cabeza, sostuvo el premio Nobel de Medicina 2019, William Kaelin, cuando se le preguntó sobre los descubrimientos de la década.

Antes de que Emmanuelle Charpentier y Jennifer Doudna descubrieran y manejaran un mecanismo molecular llamado Crispr/Cas9, modificar el genoma era una tarea laboriosa y costosa. El sistema que ellas describieron en la revista Science en junio de 2012 es más simple, más eficiente y programable para cortar el ADN en un lugar determinado. Imbatible, resume Kiran Musunuru, de la Universidad de Pensilvania.

Las dos investigadoras han sido ampliamente galardonadas con los premios Breakthrough (2015), el Princesa de Asturias de Investigación Científica (2015) y el Kavli para las Nanociencias en Noruega (2018).

La técnica aún está lejos de ser infalible y hace temer por los aprendices de brujo, como el científico chino que causó un escándalo al probarlo en embriones humanos que se convirtieron en gemelos, a pesar de los riesgos.

Pero Crispr ahora está en todos los laboratorios. Kaelin prevé una explosión de su utilización para curar enfermedades.

Inmunoterapia contra el cáncer

Durante décadas, los médicos tuvieron tres opciones para atacar un tumor: la cirugía, el veneno (quimioterapia) y la radiación (radioterapia).

La década de 2010 ha validado una cuarta idea que ha sido cuestionada durante mucho tiempo: la inmunoterapia. El principio es tratar los glóbulos blancos que forman el sistema inmunitario para que detecten y ataquen las células cancerosas, dado que el cáncer es experto en permanecer de incógnito en el organismo. La técnica más avanzada se llama CAR-T y modifica genéticamente los linfocitos T antes de reintroducirlos en grandes cantidades en el cuerpo, mejor armados.

Una ola de medicamentos ha sido autorizada en el mercado desde mediados de la década para más y más cánceres, como melanoma, linfomas, leucemias y cáncer de pulmón. La inmunoterapia no funciona en todos los pacientes y puede tener efectos secundarios importantes, pero las remisiones son impresionantes en una minoría.

Para William Cance, director científico de la American Cancer Society, la próxima década traerá inmunoterapias mejores y más baratas.

Otras especies humanas

La década comenzó con la adición de una nueva especie importante en la raza Homo: en una caverna en Denisova, en las montañas de Altai en Siberia, fragmentos de huesos de dedos, que fueron analizados genéticamente, revelaron que el individuo pertenecía a una especie de homínidos hasta ese momento desconocidos, y que bautizaron Homo denisova o denisovianos.

La especie se une así a las otras conocidas de Homo que poblaron diferentes continentes del planeta: Homo neanderthalensis en Europa, Homo erectus en Asia, Homo soloensis en la isla de Java, los pigmeos de Homo floresiensis en la isla de Flores (anunciado en 2004), Homo naledi en Sudáfrica (2015) y la última especie, descubierta en la isla de Luçon, Filipinas, y clasificada este año: Homo luzonensis.

Con respecto a los neandertales, la imagen conocida durante años de una especie primitiva y atrasada definitivamente se hizo añicos con el hallazgo en España de cuevas pintadas y el descubrimiento de que estos humanos llevaban joyas y enterraban a sus muertos con flores.

La humanidad moderna (Homo sapiens), por tanto, completa un árbol genealógico que muestra claramente que la evolución humana no ha sido lineal y que, hasta tiempos recientes, diferentes especies humanas coexistían, se cruzaban y se reproducían entre sí. Hace sólo 10 mil años que ganaron los sapiens.

Las nuevas técnicas para el análisis genético del ADN antiguo han abierto el espectro de posibilidades a los antropólogos, que ahora pueden secuenciar fósiles de decenas de miles de años. Este avance supuso una revolución en nuestra capacidad de estudiar la evolución humana y explicar de dónde venimos, subraya Vagheesh Narasimhan, genetista de Harvard.

Para la próxima década, un camino a seguir es el análisis no del ADN, sino de las proteínas de esqueletos de millones de años. Con esta técnica podremos remplazar una serie de fósiles cuya posición en la evolución es desconocida, dice Aida Gómez-Robles, antropóloga del University College London.

Inteligencia artificial en todas partes

La inteligencia artificial –el aprendizaje automático de las máquinas o machine learning– llegó a la madurez en la década de 2010. Es el motor de los asistentes de voz y de las recomendaciones de Netflix, una eficiencia que resulta del procesamiento de montañas de datos con el enorme poder de cálculo de las computadoras modernas.

La etapa siguiente es el aprendizaje profundo, el deep learning, que trata de imitar el funcionamiento neuronal del cerebro humano y resuelve tareas más complejas. La tecnología ha acompañado avances espectaculares en esta década, desde el primer robot que le ganó al campeón mundial de Go –un juego de mesa oriental– en 2017 (Google AlphaGo) a los software de traducción en tiempo real o de reconocimiento facial en Facebook.

Los mundos de la medicina (para hacer diagnósticos más exactos que los humanos), de las finanzas, del automóvil e incluso de los recursos humanos para clasificar currículos y evaluar candidatos se apoyan en la tecnología.

En 2016, Google dio un salto en la calidad de sus traducciones automáticas gracias a la inteligencia artificial (IA).

“El mayor avance de la década de 2010 fue el deep learning, el descubrimiento de que las redes neuronales artificiales pueden adaptarse a muchas tareas del mundo real”, estima Henry Kautz, profesor de ciencias informáticas en la Universidad de Rochester. La IA tiene el potencial de alimentar muchos descubrimientos científicos en los campos de los materiales, de los medicamentos e incluso de la física fundamental.

El ruido de la colisión de dos agujeros negros se escucha ahora mucho mejor

Exprimidor cuántico. Un nuevo instrumento desarrollado en Europa y otras mejoras aumentan espectacularmente el ritmo de detección de ondas gravitacionales.

Un exprimidor, estados del vacío, fenómenos cuánticos, murmullos del espacio-tiempo, todas estas palabras que parece difícil relacionar entre sí aparecen en la descripción de cómo se ha conseguido aumentar la capacidad de detección de las muy buscadas y ya detectadas ondas gravitacionales en los enormes observatorios LIGO y Virgo, que inauguran una nueva era astronómica. Desde 2016, cuando se anunció la primera detección de la perturbación causada por violentos fenómenos que se producen en el Universo, como la fusión de dos agujeros negros, la detección de ondas gravitacionales se ha convertido en rutina, explican ahora los responsables de los detectores.

Aunque sus impulsores recibieran un año después el premio Nobel de Física, cada nueva detección ya no es noticia, porque se está produciendo casi una por semana en LIGO, el gigantesco sistema de detectores situado en Estados Unidos pero que incluye una amplia colaboración internacional. Esto es una buenísima noticia para la física porque despeja cualquier duda sobre la ciencia que está detrás de los detectores. Uno de los responsables de la mejora es un aparato denominado exprimidor cuántico, que está funcionando desde abril pasado en LIGO y en Virgo, y cuyos resultados se presentan ahora en la revista científica Physical Review Letters. El instrumento, que se ha desarrollado fundamentalmente en Europa, en el detector alemán-británico GEO600, consigue reducir el ruido cuántico en el vacío, que enmascara las débiles señales que llegan a la Tierra de las ondas gravitacionales.

La situación puede progresar todavía más porque en noviembre pasado empezaron a funcionar nuevamente los tres detectores (los dos de LIGO y el Virgo en Italia) tras un mes de parón para labores de mejora y mantenimiento en estas máquinas de alta ingeniería, en las que la precisión es indispensable, labores que incluyen nuevas medidas para aumentar su sensibilidad y alcance.

Los detectores se basan en la interferencia de haces perpendiculares de luz láser que recorren varios kilómetros en el vacío para detectar los murmullos en el espacio-tiempo (como los llaman a veces los físicos) cuando pasa una onda gravitacional. Los violentos fenómenos que las producen son de varios tipos, pero la detección de algunos también depende de la sensibilidad del detector. Con el exprimidor cuántico se cree que se ha detectado la fusión explosiva de dos estrellas de neutrones y posiblemente la de un agujero negro y una estrella de neutrones. Las primeras y ya históricas detecciones fueron de la fusión de dos agujeros negros, según las ideas enunciadas hace más de 100 años por Einstein, pero las ondas gravitacionales también pueden proceder de explosiones estelares en forma de supernova y de otros fenómenos cataclísmicos.

Según los datos publicados ahora, la mejora de sensibilidad en LIGO ha permitido aumentar en un 15% su radio de detección, lo que significa aumentar en un 50% el número de sucesos que se espera detectar. En Virgo la mejora ha sido menor, de un 8% y un 26% máximos respectivamente. “Tenemos este extraño vacío cuántico que podemos manipular sin violar las leyes de la naturaleza y entonces logramos obtener mejores medidas”, señala Nergis Mavalvala, del equipo del MIT en LIGO. “Cuando aumenta el ritmo de detección, no solo comprendemos mejor las fuentes porque tenemos más casos que estudiar sino que nuestra capacidad potencial de hallar cosas desconocidas aumenta también”.

Además, el exprimidor cuántico consigue aumentar la detección de ondas gravitacionales de alta frecuencia, con lo que resulta más fácil que hasta su introducción localizar la fuente en el Universo e inmediatamente enfocar hacia allí todo un ejército de telescopios para estudiarla en detalle. El astrofísico Kirk McKenzie, de la Universidad Nacional de Australia en Canberra, señala en la web Physics que estos resultados representan “una nueva era para los detectores de ondas gravitacionales”. La ingeniería cuántica “ha pasado de ser una mejora teórica a ser un instrumento para detectar fusiones de agujeros negros cada vez más lejanos”, dice.

MADRID

10/12/2019 07:49 Actualizado: 10/12/2019 07:49


Por MALEN RUIZ DE ELVIRA

Después de más de 40 años de viaje y casi 18 mil millones de kilómetros, la nave abandonó la burbuja protectora del Sol para ingresar a la región entre las estrellas, haciendo observaciones valiosas sobre el límite entre estos dos mundos.Foto Afp

Es el segundo aparato humano en hacerlo desde el espacio interestelar

 

Nueva York. La Administración Nacional de la Aeronáutica y del Espacio (NASA, por sus siglas en inglés) recibió el primer mensaje enviado por la sonda Voyager 2 desde el exterior del sistema solar; es el segundo aparato humano que consigue hacerlo desde el espacio interestelar, aunque con datos mucho más detallados que los de su predecesora y nave gemela, la Voyager 1. La señal tardó más de 16 horas en llegar a la Tierra.

"¡Dos señales del espacio interestelar! Un nuevo estudio revela lo que los instrumentos de la nave han hallado tras cruzar la frontera cósmica donde termina el entorno creado por nuestro Sol y comienza el vasto océano del espacio", explicó la NASA a través de su cuenta en Twitter.

Paradas en Urano y Neptuno

La frontera de la heliosfera se encuentra a unos 20 mil millones de kilómetros de la Tierra y el Voyager 2 la alcanzó más de 40 años después de su lanzamiento. La nave partió un mes antes que su gemela, pero salió de la "burbuja solar" seis años después debido a que su ruta tenía paradas en Urano y Neptuno.

"No sabíamos cómo era de grande la burbuja y evidentemente ni si la nave podría sobrevivir lo suficiente para alcanzar la frontera de la burbuja y penetrar en el espacio interestelar", señaló Ed Stone, profesor del Instituto de Tecnología de California (CalTech), quien trabaja en la misión desde antes de su lanzamiento, en 1977.

Tras salir de la heliosfera se dejan atrás las partículas cargadas procedentes del Sol para quedar en un vacío en el que sólo se nota el frío viento interestelar procedente de una supernova que explosionó hace millones de años. Antes se creía que este viento solar se disiparía gradualmente con la distancia, pero la Voyager 1 confirmó que había una frontera definida por una súbita reducción de la temperatura y un incremento de la densidad en las partículas cargadas, el plasma.

La Voyager 2 dará muchos más datos que su gemela, porque un instrumento clave diseñado para indagar las cualidades del plasma que se rompió en 1980 en la sonda pionera. Los resultados se publican en cinco artículos distintos en la revista Nature Astronomy y revelan una frontera de la heliosfera mucho más definida de lo que se pensaba.

Además, apuntan a que "la heliosfera es simétrica, al menos en los dos puntos de cruce de las sondas", según Bill Kurth, coautor de uno de los cinco artículos, lo que alimentaría la hipótesis de una forma esférica frente a los que creen que es más como la estela de un cometa. "Es como observar a un elefante con un microscopio", relató.

El plutonio que alimenta las sondas Voyager se agotará previsiblemente a mediados de la década de 2020, pero seguirán con sus trayectorias. "Las dos naves sobrevivirán a la Tierra. Están en órbita en torno a la galaxia y durarán 5 mil millones de años, o más. La probabilidad de que se estrellen contra algo es prácticamente cero", concluyó Kurth.

La sociedad vive una época de infoxicación informativa: pedagogo

La sociedad vive una época de infoxicación, de intoxicación por un exceso de información que la gente no puede procesar, señaló el licenciado Juan Miguel Muñoz Micolau, pedagogo español, quien impartió en la Universidad Iberoamericana Ciudad de México la conferencia ‘Educar en el siglo del conocimiento’.

En la ponencia de dictó, por invitación de la Dirección de Enseñanza y Aprendizaje Mediados por Tecnología (DEAMeT) de la IBERO, Muñoz, codirector del Observatorio de Innovación Tecnológica y Educativa (ODITE), dijo que en esa sobreabundancia de información en la que la sociedad está inmersa lo importante no es recordar la información, porque es imposible; sino que lo relevante es saber dónde encontrar la información, “saber cómo filtrarla, cómo procesarla, relacionarla, y en definitiva, convertirla en conocimiento”.

-¿Qué consecuencias tiene para la adquisición de conocimientos de las y los estudiantes esa intoxicación?

-Pues, como hay tanta información, es difícil encontrar lo que es relevante y separarlo de lo que no lo es. Por lo tanto, lo que hay es una gran dispersión de trabajos, de investigaciones de los alumnos, que se pierden. Entonces, al estar perdidos, no saben distinguir el grano de la paja, les cuesta separar. Esto que hace que pierdan tiempo y que se acaben cansando y desmotivando.

-Usted considera que la motivación hace que el alumnado tenga interés por aprender. ¿Entonces qué deben hacer las y los profesores para que los estudiantes quieran aprender?

-Encender la llama de la emoción, de la pasión, de la motivación, de la curiosidad; que son los motores que activan las neuronas para que los aprendizajes se conviertan en algo atractivo, en algo agradable, en algo emocionante. Eso es ponerse en la piel del alumno, es hacer actividades que les resulten interesantes, en las que los alumnos descubran, a través de retos, soluciones a problemas reales.

Pasar de la memoria

En su disertación en la IBERO, el también asesor técnico docente de la Generalitat de Cataluña y del Consorcio de Educación de Barcelona, mencionó que no se puede educar a las nuevas generaciones con la mentalidad del siglo XIX, y en ese sentido, “la memoria debe de pasar ya a la historia”; mas no como algo innecesario, porque la memoria es imprescindible, sino que lo que debe dejar de ser es que la enseñanza sea exclusivamente memorística.

Así pue, para Muñoz Micolau, cuando se habla de aprendizaje basado en competencias, cada vez más lo que tiene realmente valor son las competencias útiles para la vida, como el trabajo en equipo, el ser flexibles, la capacidad de síntesis y la comprensión profunda de los cambios que se van sucediendo de manera irremediable e imparable.

-¿Y qué método educativo hace que el estudiantado aprenda?

-Prácticamente, todos los que suponen aprendizajes activos y construcción de conocimiento: aprendizaje basado en problemas, aprendizaje basado en eventos, aprendizaje basado en proyectos, aprendizaje basado en retos, el aula invertida; todas estas son metodologías que ponen al alumno en el centro del aprendizaje y lo hacen el protagonista del aprendizaje. Pero éstas requieren que el docente sea capaz de entender al alumno, para que se ponga en su piel y le ayude a descubrir la pasión por aprender.

-Si aprender es hacer, ¿por qué la academia se ha encerrado a sí misma en la teoría?

-Porque es más fácil. Tú como docente repites lo que sabes, y lo puedes repetir durante 50 años si quieres. Lo realmente difícil es buscar aprendizajes significativos, buscar que el alumno aprenda de manera significativa, intentar cambiar tu metodología prácticamente cada año, cada curso, cuando lo necesite un alumno. Por el contrario, impartir una clase magistral es muy fácil, es lo que tú ya sabes y lo explicas, y por eso no se cambia, fundamentalmente, por comodidad, por falta de compromiso y de responsabilidad como docente.

El diario de clase

Desde luego las y los alumnos también pueden y deben poner de su parte. La clave nuevamente está en hacer que las cosas resulten atractivas para ellas y ellos, y algo que propone el licenciado Muñoz es que el estudiantado lleve un diario de clase.

-¿Qué debe registrarse en este diario de clase?

-Fundamentalmente, respuestas a estas preguntas básicas: qué he aprendido hoy, qué no he entendido, qué no me ha quedado claro, qué podría mejorar y en qué me gustaría profundizar.

-¿Este diario es una forma de evaluación que favorece el aprendizaje?

-Hay bastantes herramientas, y el diario de clase es la más sencilla, porque lo llevas cada día y lo conviertes en hábito; y cuando lo conviertes en hábito, los alumnos lo hacen de manera natural y sin darse cuenta. Después, si a los diarios les sumas los trabajos y las evaluaciones formales, y las integras en un portafolio, ahí queda recogido todo el compendio de lo que tú estás aprendiendo.

Hay portafolios de actividades; pero los que interesan son los portafolios de aprendizajes, donde, cuando tú has aprendido algo, todo el material que has utilizado para aprender eso queda recogido en un portafolio. Por eso, un portafolio es una herramienta muy interesante.

Otra herramienta son las rúbricas, que pueden ser de evaluación, de autoevaluación y de coevaluación. Estas últimas las hacen los propios alumnos entre ellos.

-¿Esta evaluación entre pares, entre alumnos, sería como un seguimiento uno a uno?, donde el aprendizaje es más significativo.

-Sí tú alumno, y yo alumno, compartimos lo que hemos hecho y lo comentamos, por ejemplo, diciendo: yo creo que esto está equivocado; o yo creo que esto lo podrías mejorar así; o yo creo que ésta es una falta de ortografía o de sintaxis o la semántica aquí no es correcta; o este vocabulario podrías mejorarlo; en este igual entre igual los alumnos muchas veces se sienten más cómodos que con el docente.

Como el docente no deja de ser la autoridad, a veces da miedo preguntarle, por lo tanto, el alumno se calla y la duda se le queda. Entre iguales es más fácil, porque a tu amigo o a tu compañero le consultas y él te explica, y entre los dos buscan la solución si no la tienen, o preguntan a un tercero, o lo buscan en internet o los tres van a preguntarle al profesor.

Tecnología y enseñanza

Juan Miguel Muñoz Micolau, al hablar de ‘Educar en el siglo del conocimiento’, mencionó que estamos en un cambio de época, no en una época de cambios; en la que pasamos del no data, al big data; y con el mundo inmerso en la Cuarta Revolución Industrial, caracterizada por la existencia de la inteligencia artificial, la robótica, etcétera.

-¿Cómo usar la tecnología para el proceso de enseñanza-aprendizaje?

-Pues de manera natural. O sea, la tecnología tiene que ser invisible, es decir, cuando usamos tecnología tenemos que pensar que no usamos tecnología, que estamos usando una herramienta. Si estamos haciendo una investigación, un aprendizaje basado en retos, y tú necesitas descubrir algo en internet, lo buscas en tu smartphone, en tu tablet, en tu computadora de casa, en tu portátil.

Lo importante es que la tecnología es invisible, cuando se hace invisible se utiliza de manera natural; esa es la clave. Que se vea como una herramienta ligada a tu trabajo de día a día, como cuando se utilizaban el lápiz y el papel, pero ahora se utilizan las computadoras o cualquier dispositivo electrónico que nos facilite llegar allá a donde no llegamos.

-¿Cómo escolarizar la tecnología?

Bajo la tendencia BYOD, bring your own device, trae tu propio dispositivo. Eso que tú utilizas en tu casa y que cuando estás en el patio lo llevas en el bolsillo, tráelo. Pero si un niño de primaria no tiene un Smartphone; que en las aulas tengan una dotación mínima de dispositivos, de tabletas, de ipads, de computadoras portátiles, para que cualquier niño los pueda utilizar en cualquier momento, en cualquier situación académica.

-¿Carecer de dispositivos electrónicos o conexión a internet supone un retraso en el aprendizaje y la adquisición de conocimiento de los alumnos?

No necesariamente, pero es más difícil. Hoy en día la tecnología está omnipresente y una escuela del siglo XXI no la puede ignorar. Sin tecnología se puede aprender, pero de otra manera diferente y menos eficaz. La tecnología nos da facilidades, es más ágil, es más rápida, es más amplia, nos da acceso a saberes de toda la historia de la humanidad, a la Biblioteca del Congreso de los Estados Unidos, a la biblioteca de la IBERO, a la biblioteca pública de tu localidad, de tu ciudad. Es impresionante.

23 octubre 2019 

Publicado enSociedad
Premian con el Nobel de Física el aporte de tres científicos a la cosmología

El trabajo de James Peebles reveló que sólo se conoce 5 por ciento del universo // Michel Mayor y Didier Queloz descubrieron en 1995 el primer planeta fuera del sistema solar

 

El canadiense-estadunidense James Peebles y los suizos Michel Mayor y Didier Queloz ganaron este martes el Premio Nobel de Física de la Academia Sueca de Ciencias por sus trabajos en cosmología.

El premio "es mitad para el físico James Peebles por descubrimientos teóricos en cosmología" relativos a los inicios del universo y la otra mitad para el físico y astrónomo Michel Mayor y el astrónomo Didier Queloz por el descubrimiento del primer exoplaneta, anunció Göran Hansson, secretario general de la Academia Real de Ciencias de Suecia.

Los tres investigadores contribuyeron a "una nueva comprensión de la estructura y la historia del universo. Sus trabajos han cambiado para siempre nuestras concepciones", añadió la academia.

Las investigaciones de Peebles, de 84 años y titular de la cátedra Albert Einstein en Princenton, nos remontan "a la infancia del universo" mediante la observación de los primeros rayos luminosos, casi 400 mil años después del Big Bang, ocurrido hace 13 mil 800 millones de años.

"Sus trabajos revelaron un universo en el cual sólo se conoce 5 por ciento de su composición, la materia que forma las estrellas, los planetas, los árboles y nosotros. El resto, o sea 95 por ciento, está constituido de materia y energía oscuras. Es un misterio y un desafío para la física moderna", subrayó la Academia.

Pese a teoría comprobada, siguen los misterios

"Aunque la teoría esté completamente probada, hay que admitir que la materia y la energía oscuras siguen siendo misteriosas", señlaló Peebles en una entrevista poco después del anuncio del galardón.

"Podemos estar seguros de que esta teoría no es la respuesta final", afirmó.

Por su lado, Mayor, de 77 años, profesor honorario del Observatorio de la Universidad de Ginebra, y su doctorante Queloz, de 53, descubrieron en 1995 el primer planeta en órbita alrededor de otra estrella, concretamente de 51 Pegasi B, a 50 años luz de la Tierra.

"No estoy preparado para esto. Esta mañana era un profesor de Cambridge, y de repente mi vida sufrió un vuelco", declaró Queloz a periodistas en Londres, donde estaba para dictar una conferencia.

Bautizado luego como Dimidio, el primer exoplaneta –en la actualidad son más de 3 mil 500– es de un tipo llamado "Júpiter caliente": planeta de gran tamaño, como Júpiter, pero que orbita muy cerca de su estrella.

"Nadie sabía si los exoplanetas existían", recordó Mayor, según un comunicado difundido por la Universidad de Ginebra. “Los astrónomos los buscaban en vano.

“De repente, hemos enriquecido nuestro ‘zoológico’ con otros sistemas planetarios: es como la medicina cuando miramos a otros animales para comprender mejor al ser humano. Fue una revolución”, explicó François Forget, planetólogo del Centro Nacional de Investigación Científica (CNRS) de Francia.

Ese primer exoplaneta conocido "nadie imaginó que podría albergar vida, pero fue el primero de un amplio grupo, del cual algunos están en la zona habitable alrededor de su estrella", señaló Vincent Coude du Foresto, astrónomo del Observatorio de París.

El hallazgo enriqueció el panorama y extendió la búsqueda de vida en el universo.

Antes de 1995, "se habían hallado otros exoplanetas, pero giraban alrededor de púlsares, estrellas muertas", sostuvo Du Foresto.

"Estimamos que en la galaxia hay al menos tantos planetas como estrellas, es decir, alrededor de 100 mil millones", según el astrónomo.

Dimidio es gaseoso e hirviente (alrededor de mil 200 grados Celsius). Orbita alrededor de una estrella de tipo solar.

"Era muy extraño y para nada situado donse habría esperado", recordó el suizo Queloz.

Se halla más cerca de su estrella de lo que lo está Mercurio del Sol y tarda un poco más de cuatro días en dar la vuelta.

"Hasta entonces, creíamos que para que un planeta gigante se creara, tendría que hacer frío y, por tanto, estar lejos de su estrella", explicó François Forget, planetólogo del Centro Nacional de Investigaciones Científicas de Francia.

Es difícil observar un planeta cercano a una estrella debido a su fuerte luminosidad.

Mayor desarrolló una técnica que no permite ver directamente el planeta, pero sí detectar su presencia a través de la perturbación que su gravedad inflige a la estrella.

Este instrumento ultrapreciso, llamado Elodie, detectó el planeta desde el Observatorio de Alta Provenza del CNRS. "Los datos recolectados explicaban la historia que sólo podía ser la de un planeta", señaló Queloz.

El hallazgo fue una sorpresa, porque no pensaban lograrlo tan rápido. El anuncio tuvo lugar el 6 de octubre de 1995 en Florencia.

"El hallazgo cambió la visión que teníamos de nuestro lugar en el universo", según David Clements, del Colegio Imperial de Londres. “Inauguró una nueva era para la cosmología", subrayó Stephen Toope, de la Universidad de Cambridge.

Es, por tanto, "un nuevo paso hacia el aspecto fascinante sobre la detección de pruebas de vida", según Martin Rees, de la Universidad de Cambridge.

Los investigadores recibirán el premio el 10 de diciembre, aniversario de la muerte de Alfred Nobel.

Miércoles, 02 Octubre 2019 06:19

Los descubrimientos son siempre políticos

Los descubrimientos son siempre políticos

Para destacar el 150 aniversario de Nature, David Kaiser rastrea los orígenes del apoyo gubernamental a la ciencia en el primero de una serie de ensayos sobre cómo los últimos 150 años han moldeado el sistema de investigación.

A finales de agosto de 1609, el astrónomo italiano Galileo Galilei escribió entusiasmado a su cuñado relatándole los rápidos acontecimientos de ese verano. Unas semanas antes, Galileo había escuchado rumores de que se había inventado un catalejo en Flandes (ahora parte de Bélgica). Rápidamente construyó una versión mejorada, lo que desencadenó una nueva ola de rumores. Al poco tiempo, el Senado veneciano le llamó para probar su dispositivo. Galileo se jactó ante su familia de los “numerosos caballeros y senadores” que habían “subido las escaleras de los campanarios más altos de Venecia para observar en el mar velas y embarcaciones tan lejanas que... se necesitaron dos horas o más antes de poderlas ver sin mi catalejo”. El Senado votó de inmediato que se le otorgara a Galileo un puesto de por vida en la Universidad de Padua en Italia, con un salario anual de 1.000 florines, cuando 1.000 florines significaban realmente algo [1] .

Galileo no había hecho más que empezar. Girando su nuevo telescopio hacia los cielos, descubrió (entre otras cosas) cuatro lunas orbitando alrededor de Júpiter. Astutamente, las nombró las Estrellas Mediceas en honor a Cosimo II de Medici, el Gran Duque de la Toscana. La táctica funcionó: al año de ese premio por su éxito veneciano, Galileo había conseguido un salario aún mayor (y se había despojado de sus deberes de enseñanza) como filósofo natural oficial de la corte de los Medici en Florencia [2] .

Galileo tenía una habilidad especial a la hora de convencer a los funcionarios del gobierno y mecenas de la corte para que apoyaran sus investigaciones. Si rastreamos sus proezas, mientras pasaba de un benefactor al siguiente, podríamos reconocer los destellos de los científicos emprendedores de hoy. Sin embargo, unos 250 años después de la época de Galileo, ha empezado a afianzarse una relación bastante diferente entre el gobierno y la ciencia.

Justo cuando el astrónomo Norman Lockyer estaba fundando Nature en 1869, se estaban produciendo cambios importantes en el nexo entre el gobierno y la ciencia en muchas partes del mundo.

Construyendo imperio

Durante las décadas intermedias del siglo XIX, el Imperio británico creció hasta incluir aproximadamente una cuarta parte de la Tierra y mantener el dominio sobre casi un cuarto de su población. En ese momento, varios políticos británicos prominentes, incluidos antiguos y futuros primeros ministros, trataron de apoyar la situación de la ciencia y la tecnología. En la década de 1840, Robert Peel, Benjamin Disraeli, William Gladstone y otros donaron fondos de sus propias arcas para ayudar a fundar el Royal College of Chemistry, convencidos de que la investigación centrada en este campo beneficiaría a la nación y sus ambiciones imperiales. En la década de 1860, muchos investigadores trabajaron duro para formalizar tales planes, empezándose a crear la estructura en una serie de laboratorios de las universidades de todo el Reino Unido, basando cada elemento en la promesa de que las mediciones de precisión de las cantidades físicas podrían hacer avanzar la comprensión científica fundamental y estimular el desarrollo industrial.

La electrificación, la telegrafía, la expansión de los ferrocarriles y la producción de acero a gran escala fueron los desarrollos característicos de lo que a menudo se llamó la segunda revolución industrial, que comenzó alrededor de 1870. Cada una exigía unidades y medidas estándar. Surgieron nuevas sinergias cuando los principales investigadores, incluidos James Clerk Maxwell y William Thomson (más tarde Lord Kelvin), como miembros de las comisiones gubernamentales de alto nivel, utilizaron su comprensión del electromagnetismo y la termodinámica con el objetivo de abordar los desafíos de las comunicaciones transatlánticas, los estándares eléctricos, la navegación oceánica y las máquinas de vapor [3] .

De alguna manera, los británicos estaban tratando de ponerse al día. Desde mediados del siglo XIX, las universidades locales en todos los Estados de habla alemana habían estado reclutando talentos académicos en concursos en base al prestigio: instituciones financiadas por el gobierno se dedicaron a incorporar a los Galileos del momento. El modelo se intensificó rápidamente después de la derrota prusiana de Francia y el establecimiento de una Alemania unificada a principios de 1871. Bajo un Ministerio de Educación centralizado, y con ambiciones aún mayores para una rápida industrialización, el gobierno alemán invirtió fuertemente en la investigación académica de las ciencias naturales [4] .

Sin embargo, incluso con todos esos apoyos, industriales prominentes como Werner von Siemens temían que Alemania estuviera perdiendo su supremacía. El cabildeo concertado condujo al establecimiento de una nueva institución financiada por el gobierno en 1887: el Physikalisch-Technische Reichsanstalt en Berlín. Dirigido por el físico Hermann von Helmholtz, su mandato consistía en acelerar el trabajo en la intersección de la ciencia básica, la investigación aplicada y el desarrollo industrial. En pocos años, los esfuerzos pioneros que allí se hicieron para evaluar propuestas competitivas para el alumbrado público a gran escala -que requerían mediciones cuidadosas de la producción de radiación en varios de los dispositivos- arrojaron grabaciones tan precisas del espectro de radiación de los cuerpos negros que las teorías físicas dominantes ya no podían ajustar los datos. Inspirado, el físico Max Planck rompió a regañadientes con la teoría electromagnética de Maxwell y dio sus primeros pasos tentativos hacia la teoría cuántica [5] .

Mientras tanto, una guerra diferente con Prusia provocó cambios significativos en el gobierno y la ciencia en el este, cuando el imperio austrohúngaro se formó en 1867. Muy rápidamente, las autoridades imperiales lanzaron esfuerzos épicos en meteorología y climatología. El objetivo era crear redes institucionales amplias que pudieran fomentar un sentido común nuevo de propósitos a través del batiburrillo de las tradiciones legales, religiosas y lingüísticas locales. Las universidades, los museos y otras instituciones respaldadas por el gobierno comenzaron a recopilar y estandarizar registros meteorológicos con el objetivo de comprender cómo los patrones locales se relacionan con fenómenos a mayor escala. El imperativo de unificar el extenso imperio favoreció la investigación de vanguardia sobre conceptos modernos, como son las interacciones e interdependencias regionales a través de escalas que van desde los microclimas a los continentes [6] .

En esa época, el zar Alejandro II en Rusia estaba inmerso en la búsqueda de un proyecto de modernización propio. A partir de 1861, emitió una serie de proclamas que se conocieron como las Grandes Reformas. La emancipación de los siervos fue seguida rápidamente por la reforma de las universidades estatales, así como por cambios en los gobiernos regionales y el sistema judicial. La inmensa burocracia que se creó significó nuevas oportunidades para los intelectuales ambiciosos, incluido el químico Dmitrii Mendeleev. Después de dos años de estudio en Heidelberg, Alemania, Mendeleev regresó a su San Petersburgo natal en 1861 para enseñar química en la universidad local, publicando su versión ahora famosa de la tabla periódica de los elementos en 1869, el mismo año en que se lanzó Nature.

Los pasos siguientes en la notable carrera de Mendeleev son emblemáticos de los roles ampliados de la ciencia y la tecnología en esa era. En poco tiempo, el Ministerio de Finanzas y la Armada rusa estaban consultándole, y finalmente ocupó el puesto de director de la Oficina de Pesos y Medidas del país, lo que ayudó a introducir el sistema métrico en Rusia. Al igual que Otto von Bismarck y otros constructores de naciones en Alemania, el zar Alejandro II estaba ansioso por impulsar el desarrollo industrial en todo su país. Un aspecto fundamental de esos esfuerzos fue el de invertir considerablemente en la metrología de precisión; el zar supo encontrar naturalistas entusiastas y hábiles como Mendeleev para conseguir tal objetivo [7] .

En la misma década, Japón experimentó también cambios enormes. La Restauración Meiji de 1868 marcó un período de apertura para un país anteriormente aislado. El juramento de la Carta del Emperador proclamó que: “Se buscará el conocimiento en todo el mundo y, con ello, se fortalecerán los logros del gobierno imperial”. El gobierno comenzó a invertir en las manufacturas y otras reformas industriales. Instituyó nuevas escuelas públicas y financió becas para enviar estudiantes al extranjero a estudiar los avances científicos. El gobierno central llevó a Japón científicos de alto nivel de otros países, como Gran Bretaña y Estados Unidos, para desarrollar la capacitación en instalaciones financiadas por el Estado. Sus líderes comenzaron también allí a priorizar las instituciones de investigación patrocinadas por el gobierno como parte del esfuerzo moderno de construcción del Estado [8] .

Irrupción de Estados Unidos

Estados Unidos seguía siendo un obstinado caso aparte. El momento estaba lejos de resultar prometedor para nuevas inversiones. El conflicto más sangriento en la historia de Estados Unidos no terminó hasta 1865, marcado por el asesinato del presidente Abraham Lincoln. (Murieron más soldados estadounidenses durante la guerra civil de 1861-1865 que durante la Primera y Segunda Guerra Mundial y las guerras en Corea, Vietnam, Afganistán e Iraq juntas.) El apoyo a la investigación científica y a las instituciones a nivel federal fue escaso hasta finales del siglo XIX. De hecho, varios políticos importantes se escandalizaron por la carencia comparada de preparación científica y técnica de la nación durante la Primera Guerra Mundial.

Los esfuerzos de los reformadores en Estados Unidos para apuntalar el apoyo a la investigación por parte del gobierno se vieron obstaculizados por la larga tradición estadounidense de que la educación debía permanecer en manos de las autoridades estatales y locales en lugar del gobierno federal. Por todo Estados Unidos y a nivel individual, los colegios y universidades pusieron gradualmente mayor énfasis en la investigación original y en la construcción de infraestructura para los laboratorios. Pero, en el mejor de los casos, el impacto siguió siendo desigual. Ya en 1927, cuando el joven físico Isidor Rabi viajó a Alemania para estudiar la teoría cuántica, descubrió que las bibliotecas universitarias tendían a pedir la revista Physical Review de año en año. Parecía no haber razón para recibir copias con mayor frecuencia teniendo en cuenta su mediocre contenido [9] . La ciencia fue incluso ignorada en gran medida durante la Gran Depresión de la década de 1930, cuando el gobierno federal centralizó tantas otras cosas bajo el New Deal del presidente Franklin D. Roosevelt.

Solo a principios de la década de 1940, en medio de una movilización de emergencia en tiempos de guerra, el gobierno federal estadounidense asumió el apoyo a la investigación y desarrollo a gran escala. El radar, las armas nucleares, el fusible de proximidad y docenas de otros proyectos militares requirieron miles de millones de dólares y una estrecha coordinación entre los estudios abstractos y el desarrollo práctico.

La efectividad de los planes en tiempos de guerra impresionó a políticos, planificadores militares y administradores universitarios por igual. Cuando llegó la paz, se apresuraron a construir una nueva infraestructura que pudiera mantener las relaciones forjadas por la guerra. Los presupuestos para las ciencias físicas y la ingeniería continuaron aumentando a partir de entonces, provenientes casi en su totalidad del gobierno federal. En 1949, el 96% de todos los fondos en Estados Unidos para la investigación básica en ciencias físicas provenían de agencias federales relacionadas con la defensa. En 1954 -cuatro años después de la creación de la Fundación Nacional civil de Ciencias de EE. UU.-, esa proporción había aumentado al 98% [10] .

A partir de entonces, los políticos estadounidenses encontraron nuevas razones para apoyar la investigación: ayudaba a cumplir los objetivos nacionales para el desarrollo industrial y la defensa militar, y era un elemento clave en las relaciones internacionales. La inversión federal en instituciones científicas en toda la Europa devastada por la guerra, podía evitar, según se pensaba, los flirteos de los científicos con el comunismo en países como Francia, Italia y Grecia. Las reformas importantes del sistema universitario japonés bajo la ocupación estadounidense después de la Segunda Guerra Mundial también ayudaron a difundir el modelo estadounidense. Gastar en ciencia se convirtió en una inversión en los corazones y en las mentes [11] , [12] .

En Estados Unidos, la constante inversión federal ha impulsado un crecimiento sin precedentes en la investigación e infraestructura científicas. Durante los 25 años posteriores al final de la Segunda Guerra Mundial, se capacitó a más jóvenes en ciencias naturales que en toda la historia humana anterior. El gobierno estadounidense desarrolló un sistema de laboratorios nacionales y apoyó un amplio espectro de investigación en las universidades, la mayoría de ellas con poca conexión directa con proyectos militares. Los gastos se justificaban a menudo en términos de una “preparación” más amplia: crear un gran grupo de personal capacitado que estuviera disponible para trabajar en determinados proyectos militares en caso de que la guerra fría se volviera caliente [13] .

Mientras tanto, los científicos emprendedores aprovecharon las oportunidades que surgían de los estrechos lazos con patrocinadores militares. Las preocupaciones de la Marina de los EE. UU. sobre la guerra submarina impulsaron una intensa exploración del fondo del océano. Los geocientíficos, aprovechando los nuevos datos e instrumentos, encontraron evidencias convincentes de la tectónica de las placas [14] . Del mismo modo, las consultas a los físicos sobre proyectos clasificados de defensa antimisiles estimularon el desarrollo de nuevas áreas de estudio, como la óptica no lineal [15] .

Diversificación de carteras

Esa “nueva normalidad” se mantuvo aproximadamente a lo largo de un cuarto de siglo. Justo cuando Nature celebró su centésimo aniversario en 1969, los auditores militares estadounidenses publicaron un extenso análisis, denominado Project Hindsight. En él se sostenía que las agencias federales de defensa habían recibido escasos rendimientos de su inversión en ciencia abierta. Ese año, el senador demócrata Michael Mansfield (Montana) -quien pronto se convertiría en el líder de la mayoría del Senado con mayor antigüedad en la historia de Estados Unidos- introdujo una enmienda de último minuto a la Ley Federal de Autorización Militar de 1970. Estipulaba que no podría utilizarse ningún fondo del Departamento de Defensa “para llevar a cabo cualquier proyecto o estudio de investigación” que no tuviera “una relación directa y evidente con una función militar específica”.

En los campus universitarios de todo el país, el debate sobre el papel del gobierno en el apoyo a la investigación científica se hizo aún más bronco. En medio de la escalada de la guerra de Vietnam, científicos y estudiantes lidiaron respecto al peso adecuado que debían tener los gastos de defensa en la educación superior. En la Universidad de Columbia, en la ciudad de Nueva York, y en la Universidad de Wisconsin-Madison, grupos de radicales atacaron con explosivos los laboratorios de investigación financiados por el ejército. En muchos otros campus, la policía recurrió a gases lacrimógenos y porras para dispersar a los enojados manifestantes [16] .

Durante los años setenta y ochenta, los científicos forjaron asociaciones con industrias privadas, así como con filantropías. Estas relaciones se aceleraron por los fuertes recortes en el gasto federal en defensa y educación en Estados Unidos y en muchas otras partes del mundo. La biotecnología y la nanotecnología surgieron en esos años impulsadas por sistemas de apoyo que eran diferentes del gasto gubernamental que había financiado la investigación en física nuclear después de la Segunda Guerra Mundial [17] .

En estos últimos tiempos, los modelos híbridos de apoyo todavía dependen en gran medida de la financiación del gobierno central; solo tienen que considerar cuán de cerca siguen los científicos el ciclo de asignaciones de cada año en el Congreso de los EE. UU. y en otras instituciones. Pero el apoyo a la investigación rara vez se sustenta hoy en día en el modelo de saturación que parecía tan natural al principio de la era nuclear. Actualmente, menos de 20 países invierten más del 2% de su producto interno bruto en investigación y desarrollo, según datos de la Organización para la Cooperación y el Desarrollo Económico y el Banco Mundial. Mientras tanto, en varios de esos países, la naturaleza del apoyo del gobierno ha cambiado, priorizando a menudo proyectos con objetivos a corto plazo y aplicaciones prácticas en lugar de investigaciones a escalas mayores.

Cuando Lockyer estaba enviando el primer número de Nature a la prensa, muchos elementos de la empresa científica moderna se estaban forjando en Gran Bretaña, el continente europeo y partes de Asia. Pero para captar por completo el alcance de las relaciones monetarias en que los científicos se mueven ahora -rastreando los equivalentes actuales del Senado veneciano en busca de fondos, al mismo tiempo que se corteja a los donantes privados en los Institutos Kavli y en los centros de la Fundación Simons que no son menos brillantes que un palacio Medici-, haríamos bien en tener presente a Galileo.

Traducido del inglés para Rebelión por Sinfo Fernández

Notas:

[1] Drake, S. Isis 50 , 245–254 (1959).

[2] Biagioli, M. Galileo, Courtier: The Practice of Science in the Culture of Absolutism Ch. 2 (Univ. Chicago Press, 1992).

[3] Morus, I. R. When Physics Became King (Univ. Chicago Press, 2005).

[4] Clark, W. Academic Charisma and the Origins of the Research University (Univ. Chicago Press, 2006).

[5] Cahan, D. An Institute for an Empire: The Physikalisch-Technische Reichsanstalt, 1871–1918 (Cambridge Univ. Press, 1989).

[6] Coen, D. R. Climate in Motion: Science, Empire, and the Problem of Scale (Univ. Chicago Press, 2018).

[7] Gordin, M. D. A Well-Ordered Thing: Dmitrii Mendeleev and the Shadow of the Periodic Table (Basic, 2004).

[8] Kikuchi, Y. Anglo-American Connections in Japanese Chemistry: The Lab as Contact Zone (Palgrave Macmillan, 2013).

[9] Rigden, J. S. Rabi: Scientist and Citizen 4 (Basic, 1987).

[10] Forman, P. Hist.Stud. Phys. Biol. Sci. 18 , 149–229 (1987).

[11] Krige, J. American Hegemony and the Postwar Reconstruction of Science in Europe (MIT Press, 2006).

[12] Kaiser, D. Drawing Theories Apart: The Dispersion of Feynman Diagrams in Postwar Physics Ch. 4 (Univ. Chicago Press, 2005).

[13] Kaiser, D. Hist. Stud. Phys. Biol. Sci.33, 131–159 (2002).

[14] Oreskes, N. Nature501, 27–29 (2013).

[15] Wilson, B. Hist. Stud. Nat. Sci.45, 758–804 (2015).

[16] Moore, K. Disrupting Science: Social Movements, American Scientists, and the Politics of the Military, 1945–1975 (Princeton Univ. Press, 2008).

[17] Mirowski, P. Science-Mart: Privatizing American Science (Harvard Univ. Press, 2011).

David Kaiser es profesor de Historia de la Ciencia y profesor de Física en el Massachusetts Institute of Technology, Cambridge, Massachusetts, USA.

 Fuente: https://www.nature.com/articles/d41586-019-02848-2   

De izquierda a derecha: Jack Ma, presidente de Alibaba, y Elon Musk, consejero delegado de Tesla, en una conferencia en Shanghai, este jueves. En vídeo, las declaraciones. Foto: AFP | Vídeo: REUTERS

El empresario chino ha mantenido un debate con Elon Musk, quien ha recalcado que las máquinas van a superar a la raza humana

 

El multimillonario Jack Ma, un defensor abierto de la cultura del trabajo extremo de China, ha afirmado esta madrugada en la Conferencia Mundial de Inteligencia Artificial (IA) celebrada en Shanghái, que espera que las personas puedan trabajar solo 12 horas a la semana con los beneficios de la inteligencia artificial. El cofundador de Alibaba sostuvo que la gente podrá trabajar cuatro horas durante tres días a la semana, con la ayuda de los avances tecnológicos y una reforma en los sistemas educativos.

Ma citó a la electricidad como un ejemplo de cómo los desarrollos tecnológicos pueden liberar tiempo para el ocio. “El poder de la electricidad es que le pudimos dar más tiempo a las personas para que puedan ir al karaoke o a bailar por la noche. Creo que gracias a la inteligencia artificial, las personas tendrán más tiempo para disfrutar de las relaciones humanas", ha recalcado. 

"Durante los próximos 10 o 20 años, cada ser humano, país y gobierno debería concentrarse en reformar el sistema educativo, para asegurar que nuestros hijos puedan encontrar un trabajo que solo requiera tres días a la semana, cuatro horas al día". dijo. "Si no cambiamos el sistema educativo, todos estaremos en problemas". 

Las declaraciones del empresario se producen pocos meses después de que respaldara la polémica rutina del sector tecnológico de China, que consiste en trabajar las 12 horas al día, seis días a la semana. El apoyo fue tan público que le valió el apodo 996 (trabajo de nueve a nueve, seis días a la semana). En una publicación en un blog, el hombre más rico de China criticó a aquellos trabajadores que esperaban un típico estilo de vida de ocho horas laborales, lo que despertó una ola de crítica en su contra. 

"No me preocupan los trabajos", ha añadido Ma, en referencia a si la inteligencia artificial ayudará a los humanos o eliminará los puestos de trabajo. “Las computadoras solo tienen chips, los hombres tienen el corazón. Es el corazón de donde proviene la sabiduría ".

Elon Musk apuesta por la exploración de Marte

En el mismo debate en la Conferencia Mundial de Shanghái, el consejero delegado de Tesla, Elon Musk, ha afirmado que la IA pronto superará a la raza humana, que la civilización puede terminar y que, por lo tanto, la humanidad necesita explorar el cosmos (específicamente Marte)

"No tenemos mucho tiempo", ha advertido el empresario estadounidense. "Esta es la primera vez en los 4.500 millones de años de la historia de la Tierra, en la que podremos extender la vida más allá de la Tierra", ha agregado. "Aseguremos el futuro para que la luz de la conciencia no se extinga".

A diferencia de la postura de Ma, que presenta a la IA como algo positivo, capaz de ayudar a los seres humanos, Musk se mantiene en la postura de que las máquinas podrán superar a la raza humana. "El error más grande que veo que la gente comete es asumir que son inteligentes ", ha afirmado el empresario, y ha añadido: "La gente subestima la capacidad de la IA. Piensan que es un humano inteligente. [Pero va a ser] mucho más inteligente que el humano más inteligente que puedan conocer". 


Colapso demográfico y desarrollo de la IA: Musk señala los principales problemas de la humanidad en el futuro

 

Este jueves, el fundador y director ejecutivo de Tesla y SpaceX, Elon Musk, expuso su visión sobre los peligros que amenazan a la humanidad. Lo hizo durante un debate público con el fundador de la compañía china Alibaba, Jack Ma, en el marco de la conferencia World Artificial Intelligence, que se celebra en Shanghái.

En particular, advirtió que el problema demográfico real no es el exceso —como se suele considerar—, sino la falta de población.

"La mayoría de la gente cree que tenemos demasiadas personas en el planeta. Esta es una visión anticuada. Suponiendo que haya una IA [inteligencia artificial] benévola, el mayor problema que enfrentará el mundo en 20 años es el colapso de la población. No es una explosión. Colapso", explicó el empresario.

Por su parte Ma, quien había afirmado antes que "los mejores recursos en la Tierra no son el carbón, ni el petróleo, ni la electricidad, sino los cerebros humanos", expresó su acuerdo con esa noción y opinó que China podría hacer frente a "grandes problemas" demográficos en las próximas dos décadas.

En otro momento de la discusión, Musk se quejó de que se suelen sobreestimar las habilidades mentales del hombre en comparación con la inteligencia de las computadoras.

"La gente subestima la capacidad de la IA. Piensan que es un humano inteligente. [Pero va a ser] mucho más inteligente que el humano más inteligente que puedas conocer", dijo el fundador de Tesla y sugirió que un día la tecnología "llegará a un punto donde casi completamente simula a una persona, muchas personas simultáneamente".

"Somos muy tontos y […] definitivamente podemos hacer cosas más inteligentes que nosotros mismos", reiteró en desacuerdo con Ma, quien es mucho más optimista sobre el futuro de la IA y piensa que "los humanos nunca podrán crear otra cosa que sea más inteligente que ellos mismos"

Publicado: 29 ago 2019 22:35 GMT

Fuente, Rusia Today

Publicado enSociedad
Ingenieros ponen el telescopio Webb en posición momentos antes del ensamblaje. Foto: NASA.

Ingenieros han ensamblado por primera vez el telescopio espacial más potente hasta ahora construido, lo que podría ser un hito para la ciencia espacial, informa la NASA.

Una vez en el espacio, se espera que el James Webb (JWST por sus siglas en inglés) explore el universo utilizando luz infrarroja. Su objetivo es estudiar desde planetas y lunas que se encuentran en nuestro sistema solar hasta las más antiguas y distantes galaxias.

Para ensamblar las dos mitades del JWST, los ingenieros utilizaron una grúa para posicionar el telescopio sobre una nave espacial que cuenta con un escudo solar, asegurándose de que todos los componentes y puntos de contacto estuvieran perfectamente alineados.

En palabras de Bill Ochs, director del proyecto JWST, el ensamblaje del telescopio y sus instrumentos científicos, el escudo solar y la nave espacial en un solo observatorio, representa un logro increíble para el equipo del Webb y simboliza el esfuerzo de miles de personas dedicadas durante más de 20 años.

Para las siguientes pruebas, los ingenieros desplegarán el intrincado escudo solar de cinco capas, mismo que mantendrá a salvo los espejos y el equipo científico de la radiación infrarroja producida por la Tierra, la Luna y el Sol. El éxito de la misión depende en gran medida de que el escudo se despliegue correctamente.

Los componentes principales del JWST han sido probados individualmente en los posibles escenarios a los cuales se enfrentará durante el viaje en cohete y la misión en órbita a casi 1.610.000 kilómetros de distancia de la Tierra.

El telescopio Webb es producto de un esfuerzo conjunto de la NASA, la ESA (Agencia Espacial Europea) y la Agencia Espacial Canadiense. Se espera que sea el principal observatorio de ciencias espaciales a nivel mundial y ayude a desentrañar las misteriosas estructuras y orígenes de nuestro universo, así como nuestro lugar en él.

29 agosto 2019