Cómo criar y cómo matar la gallina de los huevos de oro

Discurso Doctorado «Honoris Causa» en la Universidad de Salamanca, 15 de mayo de 2003

«Ante todo, agradezco al claustro de doctores salmantinos, así como al señor Rector y los señores Vicerrectores, el haber aceptado la propuesta de mi querido amigo, el Profesor Miguel Ángel Quintanilla, de honrarme con un doctorado honoris causa.

La Universidad de Salamanca ha sido una de las luminarias europeas durante ocho siglos. Suele olvidarse, injustamente, sus contribuciones a la cultura universal. Baste recordar que fue aquí donde Francisco de Vitoria echó las bases del derecho internacional, instrumento indispensable para la convivencia de los pueblos. Cada vez que se lo aplica, se rinde homenaje tácito a la Universidad salmantina, y cada vez que se lo viola se atenta contra la civilización moderna.

Me propongo defender dos tesis. La primera es que la investigación científica es la gallina de los huevos de oro. La segunda es que hay maneras de criarla, y otras tantas de matarla.

[1] La investigación básica es el motor de la cultura intelectual y la madre de la técnica

La investigación básica consiste en la búsqueda de la verdad independientemente de su posible uso práctico, el que acaso jamás llegue. Es la investigación que hacen los matemáticos, físicos, químicos, biólogos, científicos sociales y humanistas. Es sabido que la investigación básica alimenta a la técnica sin ser técnica, porque la técnica diseña medios para cambiar el mundo en lugar de estudiarlo.

El distintivo de la American Association for the Advancement of Science es un par de círculos concéntricos. El círculo central es dorado y simboliza la ciencia básica, mientras que el anillo que lo rodea es azul y simboliza la técnica. La idea es que la ciencia nutre a la técnica. Esta idea podría ampliarse, inscribiendo el círculo en un cuadrado que simbolice la cultura moderna.

En efecto, nuestra cultura, a diferencia de las demás, se caracteriza por su dependencia de la investigación básica. Si ésta se detuviera, ya por falta de vocaciones, ya por falta de fondos, ora por censura ideológica, ora por decreto, nuestra civilización se estancaría, y pronto decaería hasta convertirse en barbarie. Baste recordar lo que sucedió con la ciencia básica bajo el fascismo, y con la biología, la psicología y las ciencias sociales bajo el estalinismo.

Las mejoras, los avances menudos, la elaboración de ideas básicas, pueden planearse y encargarse. Los grandes inventos, como los grandes descubrimientos, no pueden planearse ni encargarse, porque son producto del ingenio estimulado por la curiosidad.

Es posible programar una máquina, pero es imposible programar un cerebro original. Lo que sí es posible es educar un cerebro receptivo e inquieto. Esto es lo que hace todo intelectual disciplinado: va esculpiendo su propio cerebro a medida que va aprendiendo y creando.

Puesto que la espontaneidad no es programable, hay que darle oportunidades antes que órdenes: hay que fomentar la curiosidad, y con ella la creatividad científica o artística sin esperar resultados inmediatos. La exigencia de resultados inmediatos garantiza la mediocridad y el desaliento, e incluso el fracaso.

Por ejemplo, ciertos gobiernos actuales pretenden hacer la guerra al terrorismo, sin entender que es imposible hacer la guerra a células secretas, y sin entender que los terroristas, como los cruzados, no lo son de nacimiento, sino que son productos de ciertas circunstancias y de una educación fanática.

El terrorismo, tanto el de abajo como el de arriba, no terminará si no se transforman esas circunstancias y si no se hace un esfuerzo por entender la psicología y la sociología del terrorista. Tanto en política como en medicina, más vale prevenir que curar. Y cuando se trata de curar hay que buscar y emplear remedios eficaces en lugar de grasa de culebra. Y eso requiere investigación seria antes que receta ideológica. A su vez, los resultados de la investigación se hacen esperar.

Siempre hay que esperar para cosechar frutos, sean comestibles, sean conceptuales. Por ejemplo, Apolonio describió las secciones cónicas unos 200 años a.C., pero nadie las usó con provecho hasta que Galileo empleó la parábola para describir la trayectoria de las balas, y Kepler la elipse para describir las trayectorias planetarias.

Las investigaciones desinteresadas de Ampère y Faraday no rindieron frutos prácticos sino cuando Henry inventó el motor eléctrico. Las ecuaciones de Maxwell y las mediciones de Hertz sólo sirvieron para entender el electromagnetismo, hasta que Marconi las usó para inventar la radio. Thomson, el descubridor del electrón, no pudo anticipar la industria electrónica. Rutherford, el padre de la física nuclear, nunca creyó que sus trabajos darían lugar a la ingeniería nuclear ni las plantas nucleares.

Otro ejemplo: los inventores de la física cuántica no soñaron que ella serviría para diseñar ordenadores y, con ellas, un nuevo sector de la industria. Crick y Watson no previeron la emergencia de poderosas firmas biotécnicas pocas décadas después de anunciar la estructura del ADN.

La unión de la ciencia con la técnica es tan íntima, que no se pueden mantener facultades de ingeniería al día sin el concurso de departamentos de matemática, física, química, biología y psicología. Por ejemplo,el bioingeniero que se ocupa de diseñar prótesis tiene que aprender bastante anatomía y fisiología humanas, y el experto en administración de empresas tiene que aprender bastante psicología, sociología y economía.

La historia de la ciencia y de la técnica sugieren algunas moralejas de interés para quienquiera que se interese en políticas culturales. He aquí tres de ellas.

Primera: Es deseable fomentar la ciencia básica, no sólo para enriquecer la cultura, sino también para nutrir la técnica, y con ella la economía y el gobierno.

Segunda: Puesto que el conocimiento humano es un sistema, en el que toda componente interactúa con otros constituyentes, es preciso fomentar todas las ramas de la cultural intelectual, así como promover la construcción de puentes entre ellas.

Tercera: La ciencia y la técnica no avanzan automáticamente, a despecho de las políticas culturales, sino que son muy sensibles a éstas. Por este motivo, hay que averiguar cuáles son sus estímulos y sus inhibidores. Empecemos por estos últimos.

[2] Los 7 enemigos de la investigación básica

Sugiero que los principales enemigos de la ciencia básica son los siguientes.

  1. Mala enseñanza de la ciencia: autoritaria, datista, memorista, y tediosa.
  2. Educadores y administradores miopes, que ignoran que no se puede descuidar ninguna rama importante del conocimiento, porque todas estas ramas interactúan entre sí, por lo cual las especialidades estrechas son efímeras.
  3. Pragmatismo: creencia de que se puede conseguir huevos sin criar gallina. Los gobiernos norteamericanos más retrógrados recortaron los subsidios a la investigación en ciencias sociales, pero conservaron o aumentaron los subsidios a las ciencias naturales. Se estima que cerca de la mitad de los aumentos sensacionales de la productividad industrial norteamericana desde el fin de la segunda guerra mundial se deben a que los gastos en investigación básica ascienden al 3 % del producto interno bruto, o sea, varias veces lo que gasta España.
  4. Neoliberalismo y el consiguiente debilitamiento de las organizaciones estatales, en particular las universidades nacionales. El ejemplo canadiense es elocuente: el gobierno conservador de la década del 80 decretó que los científicos tendrían que buscar fondos en el sector privado. Dado que no los encontraron, el resultado neto de esta política utilitarista es que los gastos por estudiante han disminuido en un 20%, en tanto que los gastos norteamericanos han aumentado en un 30% durante el mismo período. El gobierno liberal inició una rectificación de este curso desastroso, pero obró tarde e insuficientemente. Mientras tanto, centenares de investigadores emigraron, y miles de estudiantes desistieron de estudiar ciencias.
  5. Oscurantismo tradicional: fundamentalismo religioso, ciencias ocultas, homeopatía, psicoanálisis, etc., y la censura ideológica concomitante. Por ejemplo, el gobierno actual de la India, comprometido con la religión hindú, ha promovido los estudios de astrología y de medicina védica. Otro ejemplo es la restricción a la investigación de las células totipotentes para complacer a unos teólogos retrógrados.
  6. Oscurantismo posmoderno: “pensamiento débil”, retorismo, deconstruccionismo, existencialismo, y la filosofía femenina que considera la ciencia, y en general la racionalidad y la objetividad, como “falocéntricas”.
  7. Constructivismo-relativismo en filosofía, sociología e historia de la ciencia, doctrina que niega la posibilidad de hallar verdades objetivas e imagina trampas políticas tras los teoremas más inocentes, con lo cual desanima la búsqueda de la verdad, lo que a su vez empobrece la cultura.

Dejemos ahora estas reflexiones y admoniciones pesimistas, y veamos qué puede hacerse para promover la búsqueda de la verdad por la verdad.

[3] Qué hacer para promover la investigación básica

Propongo que una manera de promover el avance del conocimiento básico es adoptar, elaborar y poner en práctica las medidas siguientes:

  1. Enseñar más ciencia, y enseñarla mejor, en todos los niveles, así como montar museos y espectáculos científicos.
  2. Aumentar los subsidios a la investigación básica, particularmente en los sectores más descuidados.
  3. Ofrecer becas a estudiantes interesados en ramas descuidadas o emergentes de la ciencia básica, tales como matemática, física de líquidos, química teórica, neurociencia cognitiva, socio-economía, sociología política, economía del desarrollo, investigación operativa, sociolingüística, y filosofía exacta.
  4. Reforzar la participación de investigadores en el diseño de políticas culturales y planes de enseñanza.
  5. Aliviar a los investigadores de tareas administrativas.
  6. Denunciar las imposturas intelectuales, tales como el “creacionismo científico”, las medicinas alternativas, y fomentar en cambio el pensamiento crítico, el debate racional y la divulgación científica.
  7. Resistir el movimiento de privatización de las universidades. Las funciones específicas de la Universidad son producir y difundir conocimiento, no dinero; por consiguiente, la Universidad debe seguir siendo dirigida por académicos, no por empresarios ni por comisarios, así como las empresas deben seguir siendo dirigidas por empresarios, no por investigadores ni por comisarios.

Termino. De todos los sistemas que constituyen una sociedad, el cultural es el más vulnerable a los choques económicos y políticos. Por esto es el que hay que manejar con mayor cuidado y alimentar con mayor dedicación, sin esperar otros rendimientos inmediatos que su propio enriquecimiento

Dada la centralidad de la ciencia en la cultura y la economía modernas, es aconsejable adoptar la política del gobierno surcoreano. Cuando la economía surcoreana entró en crisis, hace pocos años, en lugar de recortar los subsidios a la investigación básica, el gobierno resolvió incrementarlos hasta alcanzar el 5% del PIB. El resultado está a la vista: la producción científica surcoreana sobrepasa hoy a la india, pese a que la ciencia india empezó un siglo antes que la coreana.

No es que el dinero genere ciencia, sino que sin él, la ciencia languidece. Quien quiera comer huevos, que alimente a su gallina. Y quien quiera preservar una buena tradición deberá enriquecerla, porque la permanencia sólo se consigue a fuerza de cambios».

Mario Augusto Bunge (Florida Oeste, Provincia de Buenos Aires, 21 de septiembre de 1919-Montreal, 24 de febrero de 2020) fue un filósofo, físico y epistemólogo argentino. Bunge se declaró como un filósofo realista, cientificista, materialista y sistemista; además de defensor del realismo científico y de la filosofía exacta (…) Expresó públicamente su postura contraria a las pseudociencias, entre las que incluyó al psicoanálisis, la praxeología, la homeopatía, la microeconomía neoclásica (u ortodoxa), entre otras. En términos económicos y políticos, Bunge proponía una defensa del «socialismo como cooperativismo»,  diferenciándolo de y haciendo fuertes críticas al socialismo de tipo soviético y al populismo. Ejerció docencia en filosofía en Argentina, Uruguay, México, EE.UU., Alemania, Dinamarca, Suiza y Australia. Ocupó también la Cátedra Frothingham de Lógica y Metafísica en la Universidad McGill, de Montreal, Canadá.

 

Por Mario Bunge | 28/02/2020 

El Orbitador Solar, al despegar de Cabo Cañaveral el domingo, transportado por un Atlas V.Foto Ap

Operará junto con Parker, de la NASA, para dilucidar los misterios del astro

 

Cabo Cañaveral., La nave Orbitador Solar, diseñada por Europa y la NASA, salió el domingo para emprender una misión sin precedente y tomar las primeras imágenes de los polos del astro.

La sonda de la Agencia Espacial Europea (AEE) despegó sin problemas, a bordo de un cohete Atlas V-411. Siguieron unos minutos de incertidumbre en el Centro Europeo de Operaciones Espaciales (ESOC, por sus siglas en inglés), desde donde se controla el satélite. Más de una hora después del lanzamiento llegó el alivio: la sonda estaba enviando señales, por tanto, los módulos solares y la fuente de alimentación de energía estaban funcionando.

El director del ESOC, Ralf Densing, lo calificó como un "lanzamiento perfecto".

“Estamos camino del Sol. ¡Adelante, Orbitador Solar!”, expresó César García Marirrodriga, director de programa de la AEE. "Es un momento fantástico..."

La nave, de mil 500 millones de dólares, se sumará a la sonda Parker, de la NASA, lanzada hace año y medio, al acercarse al Sol para desvelar sus secretos.

Aunque el Orbitador Solar no se acercará tanto como para penetrar en la corona del astro, una atmósfera exterior, maniobrará hasta una órbita que la llevará sobre los dos polos, que nunca han sido fotografiados. Junto con las observaciones desde la Tierra, las dos naves funcionarán como una orquesta, indicó Gunther Hasinger, director científico de la AEE.

"Cada instrumento toca algo diferente, pero juntas interpretan la sinfonía del Sol", sostuvo Hasinger.

Orbitador Solar se fabricó en Europa, al igual que nueve de sus instrumentos científicos. La NASA proporcionó el décimo y organizó el lanzamiento desde Cabo Cañaveral.

Casi mil científicos

Casi mil científicos e ingenieros de toda Europa se reunieron con sus colegas estadunidenses para ver bajo la Luna llena cómo el cohete Atlas V despegaba iluminando el cielo en kilómetros a la redonda. También había gente reunida en carreteras y playas cercanas para observar el lanzamiento.

La sonda, de mil 800 kilos, pasará junto a Venus en diciembre y de nuevo el año que viene antes de pasar cerca de la Tierra y aprovechar su gravedad para modificar su ruta. Las operaciones científicas funcionarán a pleno rendimiento a finales de 2021, con el primer encuentro solar cercano en 2022 y más cada seis meses a partir de entonces.

La nave podría ofrecer por fin una vista completa tridimensional del Sol, a 150 millones de kilómetros de la Tierra.

“Con el Orbitador Solar mirando directamente a los polos, podremos ver estas enormes estructuras de agujeros coronales”, explicó Nicola Fox, director de la división de heliofísica de la NASA. "De ahí proceden todos los rápidos vientos solares (...) es de verdad una visión completamente diferente".

Las observaciones de la Orbitador Solar darán información sobre otras estrellas, así como pistas de la posible habitabilidad de mundos en otros sistemas solares.

Además, ayudarán a los expertos a predecir mejor el tiempo espacial, que puede afectar a las comunicaciones en la Tierra.

"Estamos muy aliviados. Todos los sistemas están funcionando", afirmó Paolo Ferri, jefe de operaciones de la misión de AEE y director adjunto del centro ESOC.

Explicó que con el despliegue de los módulos solares se había superado la fase crítica. "Si algo sale mal ahora, tenemos tiempo para corregirlo", añadió.

A finales de 2021, en su órbita final

La sonda alcanzará su órbita final hacia finales del próximo año.

Uno de los instrumentos científicos a bordo de la nave es el doble telescopio PHI (Polarimetric and Helioseismic Imager), que cuesta alrededor de 100 millones de euros y cuyas imágenes permitirán sacar conclusiones sobre el campo magnético de la superficie solar. Según el Instituto Max Planck para la Investigación del Sistema Solar en Göttingen, este campo magnético impulsa todo lo demás: erupciones, corona solar, vientos solares. Las tormentas geomagnéticas o solares pueden desactivar satélites, interrumpir el suministro de energía, la navegación satelital GPS y la señal de teléfonos móviles.

El satélite tiene un largo viaje por delante. Se espera que se acerque al Sol a una distancia de hasta 42 millones de kilómetros. Según la AEE, allí su intensidad es 13 veces mayor que en la Tierra. Para protegerse de temperaturas de varios cientos de grados, la sonda tiene un escudo térmico de titanio. En la superficie del Sol hay temperaturas de alrededor de 5 mil 500 grados, en su interior éstas llegan a los 15 o 16 millones de grados. En su trayectoria, la mayor distancia entre la sonda y la Tierra será de 300 millones de kilómetros. Una señal de radio tardará 16.5 minutos en alcanzar nuestro planeta. "Los equipos (de investigadores) todavía tienen que trabajar duro. Los instrumentos a bordo todavía tienen que ser ajustados", acotó Ferri.

"Ha sido un largo viaje para llegar hasta aquí" y transcurrieron entre 15 y 20 años desde la idea inicial hasta la implementación, agregó.

Ferri precisó que la fase de desarrollo del proyecto comenzó hace ocho años. "Estimamos que, si todo funciona bien, la misión llevará 10 años", concluyó.

Los grandes misterios que la misión ambiciona dilucidar son en torno a la heliosfera, que aunque protege de los rayos cósmicos, representa una amenaza, pues está impregnada de un flujo permanente de partículas solares potencialmente peligrosas.

Uno de los principales objetivos es comprender cómo el Sol controla la heliosfera y relacionarlo con lo que se detecta en la Tierra, lo que se denomina la meteorología espacial, disciplina reciente que todavía debe concretarse.

La sonda permitirá observar las regiones donde nacen directamente los vientos solares: las imágenes permitirán visualizar las erupciones del astro.

Asimismo, se intenta conocer la variabilidad de los vientos, unas veces lentos, otras rápidos, que cuando soplan fuerte, comprimen la magnetósfera.

ALMA está compuesto por 66 antenas de alta precisión ubicadas en el llano de Chajnantor, a 5.000 metros de altitud en el norte de Chile. ALMA

Los astrónomos inician una nueva era de descubrimientos en Chile gracias a una nueva configuración de las antenas situadas a kilómetros de distancia entre sí

Los astrónomos han comenzado a usar, por primera vez, la mayor separación posible entre las 66 antenas del radio telescopio ALMA, ubicado en el árido desierto de Atacama, en el norte de Chile, manteniéndolas a una distancia de 15 kilómetros entre sí. ¿El resultado? La mayor nitidez alcanzable con este observatorio capaz de investigar el universo frío, aquel que, a diferencia de estrellas y galaxias, no podemos ver con los telescopios convencionales.

Científicos del Instituto de Astrofísica de la Pontificia Universidad Católica (IA-PUC) y del Centro de Astrofísica y Tecnologías Afines (CATA), en Chile, han logrado con la nueva configuración obtener la imagen más nítida del gas frío ubicado la región central de un choque de galaxias, un gas que alimenta simultáneamente a dos monstruosos agujeros negros supermasivos a 360 millones años luz de nuestro planeta.

Se trata de dos galaxias –algunos expertos hablan de que serían tres- que se encuentran en proceso de colisión en la constelación de Ofiuco, dando origen a una nueva galaxia conocida como NGC 6240. Este proceso es un adelanto de lo que ocurrirá en nuestra propia Vía Láctea cuando se fusione con la vecina Andrómeda, en unos 5.000 millones de años de distancia. De ahí el interés por pasa en este sistema, donde el comportamiento de los agujeros negros es diferente al que había sido predicho desde hace un par de décadas, cuando se comenzó a observar esta formación.

Visión poderosa

Una técnica conocida como “interferometría”, similar a la que se utilizó para obtener la primera imagen del evento de horizonte de un agujero negro en 2019, es la que está permitiendo realizar todos estos hallazgos. La diferencia es que, en el caso del primer agujero negro fotografiado, se utilizaron observatorios en diversos lugares del mundo, con una separación no de decenas, sino de miles de kilómetros.

Ezequiel Treister, astrónomo IA-PUC que lideró la investigación, lo explica: “Sabíamos que utilizar esta técnica abriría la puerta a un universo de nuevos descubrimientos en astronomía. Cuando se combina la luz de más de un receptor, como es el caso de ALMA con 66 antenas, mayor separación entre ellos equivale a mayor nitidez”.

Para tener una idea, podemos comparar esta configuración de antenas con la apertura del espejo en un telescopio convencional como el Hubble. En estos telescopios ópticos, la apertura del espejo, o su diámetro, es la que define el detalle de las imágenes que se obtienen: cuanto más grande sea la apertura, mayor detalle. “La configuración en ALMA tenía antenas con una distancia máxima de 15 kilómetros. Eso permite obtener un detalle de imagen igual al que se conseguiría si tuviéramos un telescopio entero de 15 kilómetros de tamaño/apertura”, explica Hugo Messias, astrónomo de ALMA que participó de la investigación.

Ezequiel Treister cuenta que el trabajo comenzó en 2015, después de una reunión de astrónomos en el Instituto Tecnológico de California, Caltech, donde junto a otros colegas comenzaron a planear propuestas para ALMA. “Las observaciones recién se pudieron realizar en septiembre de 2017. No era fácil hacer coincidir la configuración correcta de las antenas con las condiciones climáticas adecuadas. Y después vino el análisis de los datos. Fueron dos años de intenso trabajo, codo con codo con expertos colaboradores de todas partes del mundo”, relata el astrónomo.

A comienzos del pasado enero, desde las remotas islas de Hawái, donde se desarrollaba la reunión número 235 de la sociedad astronómica estadounidense, se dieron a conocer los resultados de esta investigación, que arroja luces sobre el destino que correrá nuestra propia galaxia.

Turbulenta colisión

Un misterio que se pudo resolver fue el que existía en torno al tamaño de los agujeros negros. “Se pensaba que eran demasiado masivos en proporción a sus galaxias, ya que, al medir sus masas, era imposible separarlos de otro material en la región central, como gas y estrellas”, explica Treister. La investigación pudo medir directamente las masas de los agujeros, concluyendo que corresponden a entre 500 y 1.000 millones de veces la del Sol, unas 100 veces más grande que el que encontramos en el centro de la Vía Láctea, pero proporcionales a lo que se espera para el tamaño de sus galaxias.

También se pudo entender la configuración del gas que se ubica entre los dos agujeros negros: forman una especie de filamento de gas molecular que los une a una distancia similar a la de la Tierra con Próxima Centauri, (la estrella más cercana a nuestro planeta ubicada a cuatro años luz). “Lo que descubrimos sin duda nos sorprendió. En vez del disco rotante predicho hace 20 años, ahora veíamos claramente un filamento de gas uniendo los dos agujeros negros. Esta estructura parece estar estática, pero no lo está”, agrega Franz Bauer, astrónomo del Instituto de Astrofísica de la Universidad Católica que también participó de la investigación.

Estos revolucionarios datos nos indican que la mayor parte del gas detectado se localiza en la región entre los dos agujeros negros y que hay tal cantidad que equivaldría a 10.000 millones de masas solares o unas 15 veces más que todo el gas que encontramos en la Vía Láctea. Parte de este gas es expulsado por intensos vientos a velocidades de alrededor de 500 kilómetros por segundo o más. “Pensamos que, eventualmente, gran parte del gas será expulsado de la región central de la galaxia, mientras que una fracción relativamente pequeña caerá al interior del agujero negro, alimentándolo”, dice Franz Bauer.

A futuro, el potencial de esta técnica de observación es enorme. Una buena parte de las regiones del espacio que no hemos podido ver hasta ahora se hallan “ocultas”, debido al polvo existente en las regiones centrales de las galaxias: este absorbe la luz óptica, lo que explica por qué al observar hacia el centro de la galaxia se aprecia mayormente oscuridad. Una auténtica pared de polvo que hemos aprendido a atravesar y que comienza, de a poco, develar todos sus secretos.

Por Ricardo Acevedo

Santiago de Chile 27 ENE 2020 - 18:44 COT

scáner mejorado digitalmente que muestra el cerebro y la médula espinal MARK LYTHGOE & CHLOE HUTTON / WELLCOME IMAGES / THE NEUROIMMUNOLOGY CONSORTIUM

- Varios estudios e investigaciones recientes están derribando la tradicional separación entre salud física y mental

- La inflamación podría estar profunda y enormemente implicada en desórdenes cerebrales y mentales, igual que lo está en las enfermedades del cuerpo

- Se están probando fármacos antinflamatorios contra enfermedades como depresión, Alzheimer y Parkinson, con potencial para derribar barreras de la práctica clínica

 

Aunque pueda parecer extraño, #inflamación se ha convertido en un hashtag. De pronto parece estar en todos lados, haciendo de las suyas. En lugar de simplemente estar de nuestro lado luchando contra las infecciones y curando heridas, resulta que también tiene un lado oscuro: es la causa de muchos de nuestros males.

Ahora no cabe duda de que la inflamación es parte del problema de muchas enfermedades del cuerpo –tal vez todas–. Y estudiar las causas inflamatorias o inmunes de las enfermedades ha resultado en una serie de descubrimientos: desde tratamientos nuevos para la artritis reumatoide y otras enfermedades autoinmunes en los años 90, hasta la llegada de la inmunoterapia para algunos tipos de cáncer a partir de 2010.

De forma más generalizada, cada vez más a menudo se considera que la inflamación de menor grado, que sólo se detecta mediante un análisis de sangre, forma parte de las razones por las que experiencias comunes de la vida como la pobreza, el estrés, la obesidad y el envejecimiento son malos para la salud pública.

Rápidamente, el cerebro se está presentando como una de las nuevas fronteras de la inflamación. A los médicos como yo, que estudiamos la carrera en el siglo XX, nos enseñaron que había una barrera impermeable entre el cerebro y el sistema inmunológico. Sin embargo, en el siglo XXI ha quedado claro que en realidad están muy interconectados y que les gusta conversar todo el tiempo.

Ahora, los médicos están abiertos a la idea de que la inflamación podría estar profunda y enormemente implicada en desórdenes cerebrales y mentales, igual que lo está en las enfermedades del cuerpo.

Los progresos en el tratamiento de la esclerosis múltiple han mostrado el camino. Muchos de los nuevos medicamentos para esta enfermedad han sido diseñados y probados para proteger el daño cerebral que provoca el propio sistema inmunológico.

La esperanza razonablemente bien fundamentada –y enfatizo esas palabras en este punto– es que si uno se enfoca en la inflamación cerebral, se pueden descubrir formas de prevención y tratamiento de la depresión, la demencia y la psicosis, así como el impacto comprobado de medicamentos de inmunoterapia para la artritis, el cáncer y la esclerosis múltiple. De hecho, una droga originalmente patentada para la esclerosis múltiple ya se está probando como un posible tratamiento de inmunoterapia contra la esquizofrenia.

¿Representa esto una esperanza realista para el tratamiento de la depresión? Es más que razonable dudar de que la inflamación y la depresión estén correlacionadas, o que posean comorbilidad [presencia de uno o más trastornos además de la enfermedad o trastorno primario], por utilizar otro término médico nada apreciado, pero igualmente importante. Las preguntas científicas clave son sobre causalidad, no sobre correlación.

¿La inflamación causa depresión? Y si es así, ¿cómo lo hace? Un experimento que los científicos han diseñado para intentar responder estas preguntas es realizar dos resonancias magnéticas del cerebro: una antes y otra después de provocar una respuesta inflamatoria a propósito mediante la inyección de la vacuna contra la fiebre tifoidea. Si hay alguna diferencia entre las dos resonancias, esto demuestra que una inflamación en el cuerpo puede generar cambios en la forma en que funciona el cerebro. Si no, sería un problema para la teoría de que la inflamación puede provocar depresión.

Un reciente análisis procesó datos de 14 versiones independientes de este experimento. En promedio, los datos demostraron un importante impacto de la inflamación en la actividad cerebral. Estos resultados confirman que la inflamación en el cuerpo puede generar cambios en la forma en que funciona el cerebro. De modo alentador, también localizaron el efecto que tiene la inflamación en partes específicas del cerebro que ya se sabía que están involucradas en el proceso de depresión y muchos otros problemas de salud mental.

Si la inflamación puede provocar depresión, entonces los medicamentos antinflamatorios deberían funcionar como antidepresivos. Varios estudios han analizado datos clínicos de miles de pacientes tratados con drogas antinflamatorias contra la artritis y otras enfermedades frecuentemente asociadas con los síntomas de la depresión.

En líneas generales, los pacientes tratados con drogas antinflamatorias, en lugar de un placebo, mejoraron significativamente sus índices de salud mental. Sin embargo, los datos vienen con una advertencia: los estudios más amplios y rigurosos del grupo analizado fueron diseñados para probar los efectos de los medicamentos en la salud física, y eso dificulta la interpretación de los resultados como evidencia de sus beneficios en la salud mental.

El siguiente paso es realizar estudios que desde su inicio estén diseñados para probar los medicamentos antinflamatorios como antidepresivos, o para probar antidepresivos ya existentes por sus efectos antinflamatorios. Al hacerlo, debemos evitar repetir uno de los errores más habituales en relación a la depresión, que es pensar que es todo una misma cosa, siempre con la misma causa. Por eso no deberíamos buscar el próximo "taquillazo" para poder recetarle automáticamente lo mismo a todo el mundo.

Deberíamos buscar formas de combinar el tratamiento elegido con la causa de los síntomas psiquiátricos de una forma más personalizada. Y utilizar análisis de sangre que midan la inflamación puede ayudarnos a tomar esas decisiones.

Por ejemplo, el consorcio fundado por el Wellcome Trust ha iniciado recientemente la prueba de un nuevo fármaco antinflamatorio para tratar la depresión. Es uno de los primeros estudios clínicos de un antidepresivo que utilizará análisis de sangre para detectar inflamación en potenciales participantes. Si los análisis de sangre no muestran rastros de inflamación, entonces la persona no será reclutada para el estudio porque si no tiene inflamación, no hay razón para pensar que obtendrían algún beneficio de un tratamiento antinflamatorio.

Un ejemplo alternativo podría ser la ketamina, que hace poco ha sido aceptada en el Reino Unido como tratamiento contra la depresión. La ketamina funciona bloqueando un receptor de glutamato en el cerebro, pero no funciona igual en todas las personas. Sabemos que la inflamación puede aumentar el nivel de glutamato en el cerebro, así que se podría predecir que pacientes con mayor inflamación serían más receptivos a los efectos bloqueantes de la ketamina.

En el futuro, podríamos utilizar análisis de sangre o biomarcadores de inflamación para predecir qué personas con depresión pueden responder mejor a los beneficios de la ketamina.

El alcance terapéutico de estas nuevas perspectivas potencialmente va más allá de la depresión o los medicamentos. La industria farmacéutica y de la biotecnología está invirtiendo en probar medicamentos antinflamatorios contra enfermadades como Alzheimer y el Parkinson.

También es interesante el papel que juegan la dieta, la obesidad, el estrés, las enfermedades de las encías, el microbioma digestivo y otros factores de riesgo en inflamaciones de menor grado que podrían controlarse sin medicamentos. Actualmente hay decenas de estudios que miden los efectos antinflamatorios de intervenciones psicológicas, como la meditación o los ejercicios de mindfulness, así como los cambios de estilo de vida, dietas y programas de ejercicios.

Mi favorito es un estudio estadounidense que pretende comprobar la idea de que la inflamación de menor grado puede acelerar disfunciones cognitivas asociadas al envejecimiento y que lavarnos los dientes con más cuidado puede controlar la inflamación leve de encías (periodontitis) y así protegernos en el futuro de la senilidad. Este estudio todavía no ha concluido, así que todavía no se conocen los resultados. ¿Quién hubiera pensado que una sonrisa más brillante y la memoria a corto plazo estaban relacionados tan directamente?

Todo esto nos aporta una nueva e interesante perspectiva sobre cómo se relacionan entre sí el cuerpo, el cerebro y la mente. Y esto puede ser importante a la hora de pensar cómo diseñar científicamente y ofrecer los sistemas de cuidados físicos y de salud mental más efectivos. Esto es esencial en un momento en que los problemas de salud mental y la demencia representan una proporción cada vez mayor de las causas de discapacidad y los costes sociales y de sanidad a nivel mundial.

Actualmente, los servicios de salud física y mental están marcadamente segregados y reflejan un prejuicio filosófico contra la noción de que el cuerpo y la mente están profundamente relacionados.

Los vínculos que muchos pacientes reconocen en su propia experiencia de la enfermedad tienden a ser menospreciados por la mayoría de los servicios públicos de salud mental y física en el Reino Unido.

En contraste, los nuevos estudios sobre la inflamación y el cerebro están claramente alineados con los argumentos que promueven derribar esas barreras de la práctica clínica. Y por encima de todo, tienen el potencial de modificar la forma en que pensamos las enfermedades. La barrera entre mente y cuerpo, que durante tanto tiempo ha sido una convicción dogmática, parece que se está derrumbando.

 

Por Edward Bullmore   - Departamento de Psiquiatría, Universidad de Cambridge

*El profesor Edward Bullmore dirige el departamento de Psiquiatría de la Universidad de Cambridge. Es autor de La Mente Inflamada.

Traducido por Lucía Balducci

Publicado enSociedad
¿Qué es la educación y esa cosa llamada ciencia?

Dentro de las aulas donde se imparte el método científico, el análisis crítico es bienvenido, siempre y cuando no supere los límites establecidos por los departamentos de investigación, la financiación privada y los intereses del mercado.

Un día una persona reflexionó sobre el papel de la enseñanza en la sociedad moderna. Llegó a esta conclusión: “La adultez no es un estado natural de los seres humanos. No nacemos adultas y adultos, aprendemos a representar ese papel a fuerza de imitar de mejor o peor grado a los adultos que nos rodean”. Desde los primeros pasos, los más pequeños son insertados en aulas, donde van aprendiendo cómo obedecer y memorizar, hasta que dan el primer empujón a las puertas mercantilizadas de la universidad, en ese camino sufrimos el deterioro hacia “la adultez”. Este proceso destructivo es implementado en gran medida por el sistema educativo, y es el mecanismo más potente que ha desarrollado nuestra cultura para reproducir seres humanos que encarnen los modelos impuestos sin apenas rechistar.

En las aulas la enseñanza dista mucho de ser un terreno neutral. Los sistemas educativos no son entes aislados y autónomos, sino que ejercen un rol en la sociedad: el transmitir una serie de conocimientos, los cuales producen en nosotros (y reproducen mediante nosotros) los valores y esquemas de esta sociedad. Esto se percibe desde la arquitectura de los colegios y universidades a los contenidos de las materias y las herramientas pedagógicas para asegurar el conocimiento. Así cada primavera la escuela fabrica adultos para reemplazar en las universidades a las generaciones anteriores pasando por una serie de cribas. Cribas que empiezan ya con las condiciones domésticas, familiares, etc de cada uno (condiciones que son personales, pero a la vez sociales).

En la idealizada universidad se repite este mismo patrón; somos de nuevo víctimas de una educación alienante donde las expectativas de desarrollo personal se transforman en una amarga frustración… ¡sorpresa! La universidad es en gran medida un reflejo de la sociedad, y cada vez menos un microcosmos de educación colectiva y crítica como muchas esperábamos. Descubrimos que también ha sido absorbida y se encuentra inserta en los intereses y necesidades de una sociedad al servicio de las élites políticas y económicas. Así el alumnado es sometido día tras día a un sistema (educativo) de control y adoctrinamiento, algo que conoce y reproduce muy bien la todopoderosa Ciencia.

En la universidad, los aprendices de científicos son víctimas de una falsa impresión de libertad y pensamiento crítico. Pronto interiorizan que la ciencia es un cuerpo de conocimiento sistemático que da cuenta de problemas que pueden ser resueltos por el ejercicio de la razón, sin subjetividades de por medio, suprimiendo así la poca capacidad de auto-crítica que permanecía latente en nosotras mismas. Dentro de las aulas donde se imparte el método científico, el análisis crítico es bienvenido, siempre y cuando no supere los límites establecidos por los departamentos de investigación, la financiación privada y los intereses del mercado. Nos penalizan cuando pensamos por nosotras mismas, y acabamos convirtiéndonos en “sujetos vacíos” que se suman a la campana de cristal.

Una vez con el título bajo el brazo y con la sensación de no haber aprendido más que a ejercitar la memoria, tenemos la obligación de adaptar el currículum a las necesidades productivas, nuestras aspiraciones se ajustan paulatinamente a las de tipo empresarial, se prioriza lo tecnócrata y la llamada “eficiencia y calidad” sobre la democracia y la deliberación colectiva. En cuanto a las salidas profesionales, la gran mayoría de estudiantes nos vemos precarizados, sin oportunidades laborales y una minoría consigue becas y se ve empujada a competir, y pasa a ser esclava de un mundo donde eres alguien a partir de aspectos hegemónicos. Aspectos tales como el prestigio de la revista donde publicas, la capacidad de conseguir financiación para proyectos de investigación, la posibilidad de adquirir equipos, las carreras profesionales, la autoridad y el reconocimiento científico, la capacidad de influir en decisiones de política a nivel científico, etc.

En mis propias carnes he vivido todo este aparato burocrático lleno de intereses a los que se somete el mundo científico. Me gradué en Ciencias del Mar y, no satisfecha con la decepción, me volví a tropezar con una piedra todavía más grande al especializarme en el maravilloso campo de la Oceanografía, que de nuevo hundió mis expectativas en el campo de la investigación preestablecida. Ahora, inmersa en un doctorado con unas condiciones precarias, donde mi capacidad de actuación de nuevo debe ser revisada por los peces gordos, a los que pago con mi matrícula la cuantía de trescientos euros anuales por el mero hecho de “dirigirme” en un desierto en el que nadie escucha mis interrogantes. Y esto si tienes la suerte de tener un buen director/a (en la mayoría de los casos la figura del director/a es un ente fantasmagórico).

Cada mañana repito la misma operación: Me siento frente a la lupa a observar y estudiar el interior del océano, leo artículos científicos, escribo, analizo…todo bajo unas directrices ya marcadas. Y así hasta que nos permitimos descansar a la hora del almuerzo. Cuando llego a casa tengo que hacer sobreesfuerzos para no seguir modelizando como sacar adelante el trabajo, cómo publicar de manera constante –quiera o no quiera- para poder sobrevivir y optar a unas ridículas becas. Todo esto desencadena una constante competitividad entre compañeras, entre grupos de investigación y, finalmente, desemboca en un colapso personal del que cuesta sobreponerse. No obstante, nos hacen creer que todo esto es justificable, que todo merece la pena, porque nuestro trabajo es vocacional, porque nos apasiona lo que hacemos…aunque tengas que vivir del aire. Porque parece que los investigadores sufren lobotomías con cada sexenio y olvidan rápidamente sus orígenes. En otro paralelismo, se bajaron de las ramas para echar andar y no supieron volver a ellas.

En definitiva, parece que estamos dispuestas a seguir aceptando y apoyando estas prácticas, que generalmente consideramos necesarias. Sin embargo, alguien podría preguntarse por qué a unas criaturas supuestamente inteligentes y sensibles, unas monedas, una explotación humana y medioambiental en nombre de la vocación, les pueden empujar a esta forma de pensamiento auto-destructivo. ¿Cuánto estamos dispuestas a sacrificar en nombre de una educación/domesticación? y de una ciencia degradante, monótona y destructiva con la vida y el medio ambiente? La educación debe enseñar a sus pasajeros a no obviar la naturaleza de la investigación científica; los conceptos de complejidad, incertidumbre, caos y entropía, efectos a varios niveles... así como la intervención de la subjetividad, las representaciones, los imaginarios o la afectividad en ese proceso que llamamos “producción de conocimiento”.

Termino con una propuesta: preguntémonos.

Por El Sacapuntas


publicado

2020-01-22 04:29

Jueves, 19 Diciembre 2019 06:37

Los seis avances científicos del decenio

 El vehículo de exploración espacial Curiosity Mars se tomó una selfi el 12 de mayo de 2019.Foto Afp

La inmunoterapia contra el cáncer, el hallazgo del Homo denisova, la detección de ondas gravitacionales y la inteligencia artificial, entre otros, dieron el carácter a esta década

Washington. Astronomía, genética, medicina, paleontología, informática: Afp seleccionó seis avances o hallazgos científicos de la década (que en realidad terminará el 31 de diciembre de 2020) que han comenzado a cambiar los libros de texto escolares. Científicos entrevistados por la agencia de noticias también se aventuran a hacer predicciones sobre lo que el próximo decenio podría aportar al conocimiento.

Los ingredientes de la vida en Marte

Todavía no sabemos si Marte albergó vida, pero gracias a un pequeño robot estadunidense de seis ruedas (llamado rover o astromóvil) sabemos que el planeta rojo ha sido habitable.

Poco después de posarse sobre la superficie marciana el 6 de agosto de 2012, el astromóvil Curiosity descubrió piedras, una nueva evidencia de que por allí fluyeron ríos hace miles de millones de años. Las pruebas se han multiplicado: hubo mucha agua en Marte, en fuentes termales, lagos y tal vez océanos.

Curiosity también encontró lo que la NASA llama componentes básicos para la vida, moléculas orgánicas complejas, en 2014.

Los científicos pasarán ahora a la siguiente pregunta: ¿ha habido realmente vida en Marte? Dos nuevos robots se lanzarán hacia mediados de 2020 (el estadunidense Mars 2020 y el europeo Rosalind Franklin) para, quizás, desenterrar microbios antiguos.

La ciencia espacial de la próxima década estará dominada por la Luna, Marte y los asteroides, asegura Emily Lakdawalla, de la Planetary Society. Ella espera que las agencias espaciales decidan ir a explorar los confines olvidados del Sistema Solar, Venus, Urano y Neptuno para la década de 2030.

El cosmos se revela

Durante largo tiempo, la humanidad creyó que habitaba un sistema solar apartado. Un telescopio espacial llamado Kepler, lanzado en 2009, ha permitido descubrir 2 mil 300 planetas en sistemas vecinos, conocidos como exoplanetas, y los astrónomos estiman que probablemente haya uno por estrella, o sea, miles de millones. El sucesor de Kepler, Tess, fue lanzado por la NASA en 2018.

¿Qué esperar de la década que está por empezar? Análisis finos de las atmósferas de estos exoplanetas para descubrir quizás cuáles de ellos albergan vida, sugiere Tim Swindle, director del laboratorio de estudios planetarios de la Universidad de Arizona.

Los terrícolas también tuvieron acceso este año a la primera imagen de un agujero negro, producida por el proyecto Event Horizon Telescope. Su director, Shep Doeleman, promete para la próxima década la primera película de uno de estos fenómenos. Imaginen ver evolucionar un agujero negro en tiempo real, señala.

Pero un evento ha marcado sin duda la década más que el resto: la primera detección, el 14 de septiembre de 2015, de ondas gravitacionales. Dos agujeros negros se fusionaron en un remolino hace mil 300 millones de años, una colisión tan poderosa que propagó en el resto del cosmos ondas que contraen y expanden el espacio, viajando a la velocidad de la luz, y que finalmente llegaron a la Tierra esa mañana. Einstein tenía razón. Tres pioneros de las instalaciones Ligo y Virgo fueron galardonados con un Nobel en 2017 por esta y una decena de otras detecciones desde entonces.

En cuanto al origen y la composición del Universo, los cosmólogos continúan debatiendo. La materia oscura, invisible, que constituye la gran mayoría del Universo, sigue siendo uno de los mayores enigmas. Nos morimos de ganas de saber qué es, explicó en octubre el cosmólogo James Peebles, ganador del Nobel de física 2019.

Tijeras moleculares Crispr

En biomedicina, hay un antes y un después de Crispr. La modificación genética por Crispr está por muy lejos a la cabeza, sostuvo el premio Nobel de Medicina 2019, William Kaelin, cuando se le preguntó sobre los descubrimientos de la década.

Antes de que Emmanuelle Charpentier y Jennifer Doudna descubrieran y manejaran un mecanismo molecular llamado Crispr/Cas9, modificar el genoma era una tarea laboriosa y costosa. El sistema que ellas describieron en la revista Science en junio de 2012 es más simple, más eficiente y programable para cortar el ADN en un lugar determinado. Imbatible, resume Kiran Musunuru, de la Universidad de Pensilvania.

Las dos investigadoras han sido ampliamente galardonadas con los premios Breakthrough (2015), el Princesa de Asturias de Investigación Científica (2015) y el Kavli para las Nanociencias en Noruega (2018).

La técnica aún está lejos de ser infalible y hace temer por los aprendices de brujo, como el científico chino que causó un escándalo al probarlo en embriones humanos que se convirtieron en gemelos, a pesar de los riesgos.

Pero Crispr ahora está en todos los laboratorios. Kaelin prevé una explosión de su utilización para curar enfermedades.

Inmunoterapia contra el cáncer

Durante décadas, los médicos tuvieron tres opciones para atacar un tumor: la cirugía, el veneno (quimioterapia) y la radiación (radioterapia).

La década de 2010 ha validado una cuarta idea que ha sido cuestionada durante mucho tiempo: la inmunoterapia. El principio es tratar los glóbulos blancos que forman el sistema inmunitario para que detecten y ataquen las células cancerosas, dado que el cáncer es experto en permanecer de incógnito en el organismo. La técnica más avanzada se llama CAR-T y modifica genéticamente los linfocitos T antes de reintroducirlos en grandes cantidades en el cuerpo, mejor armados.

Una ola de medicamentos ha sido autorizada en el mercado desde mediados de la década para más y más cánceres, como melanoma, linfomas, leucemias y cáncer de pulmón. La inmunoterapia no funciona en todos los pacientes y puede tener efectos secundarios importantes, pero las remisiones son impresionantes en una minoría.

Para William Cance, director científico de la American Cancer Society, la próxima década traerá inmunoterapias mejores y más baratas.

Otras especies humanas

La década comenzó con la adición de una nueva especie importante en la raza Homo: en una caverna en Denisova, en las montañas de Altai en Siberia, fragmentos de huesos de dedos, que fueron analizados genéticamente, revelaron que el individuo pertenecía a una especie de homínidos hasta ese momento desconocidos, y que bautizaron Homo denisova o denisovianos.

La especie se une así a las otras conocidas de Homo que poblaron diferentes continentes del planeta: Homo neanderthalensis en Europa, Homo erectus en Asia, Homo soloensis en la isla de Java, los pigmeos de Homo floresiensis en la isla de Flores (anunciado en 2004), Homo naledi en Sudáfrica (2015) y la última especie, descubierta en la isla de Luçon, Filipinas, y clasificada este año: Homo luzonensis.

Con respecto a los neandertales, la imagen conocida durante años de una especie primitiva y atrasada definitivamente se hizo añicos con el hallazgo en España de cuevas pintadas y el descubrimiento de que estos humanos llevaban joyas y enterraban a sus muertos con flores.

La humanidad moderna (Homo sapiens), por tanto, completa un árbol genealógico que muestra claramente que la evolución humana no ha sido lineal y que, hasta tiempos recientes, diferentes especies humanas coexistían, se cruzaban y se reproducían entre sí. Hace sólo 10 mil años que ganaron los sapiens.

Las nuevas técnicas para el análisis genético del ADN antiguo han abierto el espectro de posibilidades a los antropólogos, que ahora pueden secuenciar fósiles de decenas de miles de años. Este avance supuso una revolución en nuestra capacidad de estudiar la evolución humana y explicar de dónde venimos, subraya Vagheesh Narasimhan, genetista de Harvard.

Para la próxima década, un camino a seguir es el análisis no del ADN, sino de las proteínas de esqueletos de millones de años. Con esta técnica podremos remplazar una serie de fósiles cuya posición en la evolución es desconocida, dice Aida Gómez-Robles, antropóloga del University College London.

Inteligencia artificial en todas partes

La inteligencia artificial –el aprendizaje automático de las máquinas o machine learning– llegó a la madurez en la década de 2010. Es el motor de los asistentes de voz y de las recomendaciones de Netflix, una eficiencia que resulta del procesamiento de montañas de datos con el enorme poder de cálculo de las computadoras modernas.

La etapa siguiente es el aprendizaje profundo, el deep learning, que trata de imitar el funcionamiento neuronal del cerebro humano y resuelve tareas más complejas. La tecnología ha acompañado avances espectaculares en esta década, desde el primer robot que le ganó al campeón mundial de Go –un juego de mesa oriental– en 2017 (Google AlphaGo) a los software de traducción en tiempo real o de reconocimiento facial en Facebook.

Los mundos de la medicina (para hacer diagnósticos más exactos que los humanos), de las finanzas, del automóvil e incluso de los recursos humanos para clasificar currículos y evaluar candidatos se apoyan en la tecnología.

En 2016, Google dio un salto en la calidad de sus traducciones automáticas gracias a la inteligencia artificial (IA).

“El mayor avance de la década de 2010 fue el deep learning, el descubrimiento de que las redes neuronales artificiales pueden adaptarse a muchas tareas del mundo real”, estima Henry Kautz, profesor de ciencias informáticas en la Universidad de Rochester. La IA tiene el potencial de alimentar muchos descubrimientos científicos en los campos de los materiales, de los medicamentos e incluso de la física fundamental.

El ruido de la colisión de dos agujeros negros se escucha ahora mucho mejor

Exprimidor cuántico. Un nuevo instrumento desarrollado en Europa y otras mejoras aumentan espectacularmente el ritmo de detección de ondas gravitacionales.

Un exprimidor, estados del vacío, fenómenos cuánticos, murmullos del espacio-tiempo, todas estas palabras que parece difícil relacionar entre sí aparecen en la descripción de cómo se ha conseguido aumentar la capacidad de detección de las muy buscadas y ya detectadas ondas gravitacionales en los enormes observatorios LIGO y Virgo, que inauguran una nueva era astronómica. Desde 2016, cuando se anunció la primera detección de la perturbación causada por violentos fenómenos que se producen en el Universo, como la fusión de dos agujeros negros, la detección de ondas gravitacionales se ha convertido en rutina, explican ahora los responsables de los detectores.

Aunque sus impulsores recibieran un año después el premio Nobel de Física, cada nueva detección ya no es noticia, porque se está produciendo casi una por semana en LIGO, el gigantesco sistema de detectores situado en Estados Unidos pero que incluye una amplia colaboración internacional. Esto es una buenísima noticia para la física porque despeja cualquier duda sobre la ciencia que está detrás de los detectores. Uno de los responsables de la mejora es un aparato denominado exprimidor cuántico, que está funcionando desde abril pasado en LIGO y en Virgo, y cuyos resultados se presentan ahora en la revista científica Physical Review Letters. El instrumento, que se ha desarrollado fundamentalmente en Europa, en el detector alemán-británico GEO600, consigue reducir el ruido cuántico en el vacío, que enmascara las débiles señales que llegan a la Tierra de las ondas gravitacionales.

La situación puede progresar todavía más porque en noviembre pasado empezaron a funcionar nuevamente los tres detectores (los dos de LIGO y el Virgo en Italia) tras un mes de parón para labores de mejora y mantenimiento en estas máquinas de alta ingeniería, en las que la precisión es indispensable, labores que incluyen nuevas medidas para aumentar su sensibilidad y alcance.

Los detectores se basan en la interferencia de haces perpendiculares de luz láser que recorren varios kilómetros en el vacío para detectar los murmullos en el espacio-tiempo (como los llaman a veces los físicos) cuando pasa una onda gravitacional. Los violentos fenómenos que las producen son de varios tipos, pero la detección de algunos también depende de la sensibilidad del detector. Con el exprimidor cuántico se cree que se ha detectado la fusión explosiva de dos estrellas de neutrones y posiblemente la de un agujero negro y una estrella de neutrones. Las primeras y ya históricas detecciones fueron de la fusión de dos agujeros negros, según las ideas enunciadas hace más de 100 años por Einstein, pero las ondas gravitacionales también pueden proceder de explosiones estelares en forma de supernova y de otros fenómenos cataclísmicos.

Según los datos publicados ahora, la mejora de sensibilidad en LIGO ha permitido aumentar en un 15% su radio de detección, lo que significa aumentar en un 50% el número de sucesos que se espera detectar. En Virgo la mejora ha sido menor, de un 8% y un 26% máximos respectivamente. “Tenemos este extraño vacío cuántico que podemos manipular sin violar las leyes de la naturaleza y entonces logramos obtener mejores medidas”, señala Nergis Mavalvala, del equipo del MIT en LIGO. “Cuando aumenta el ritmo de detección, no solo comprendemos mejor las fuentes porque tenemos más casos que estudiar sino que nuestra capacidad potencial de hallar cosas desconocidas aumenta también”.

Además, el exprimidor cuántico consigue aumentar la detección de ondas gravitacionales de alta frecuencia, con lo que resulta más fácil que hasta su introducción localizar la fuente en el Universo e inmediatamente enfocar hacia allí todo un ejército de telescopios para estudiarla en detalle. El astrofísico Kirk McKenzie, de la Universidad Nacional de Australia en Canberra, señala en la web Physics que estos resultados representan “una nueva era para los detectores de ondas gravitacionales”. La ingeniería cuántica “ha pasado de ser una mejora teórica a ser un instrumento para detectar fusiones de agujeros negros cada vez más lejanos”, dice.

MADRID

10/12/2019 07:49 Actualizado: 10/12/2019 07:49


Por MALEN RUIZ DE ELVIRA

Después de más de 40 años de viaje y casi 18 mil millones de kilómetros, la nave abandonó la burbuja protectora del Sol para ingresar a la región entre las estrellas, haciendo observaciones valiosas sobre el límite entre estos dos mundos.Foto Afp

Es el segundo aparato humano en hacerlo desde el espacio interestelar

 

Nueva York. La Administración Nacional de la Aeronáutica y del Espacio (NASA, por sus siglas en inglés) recibió el primer mensaje enviado por la sonda Voyager 2 desde el exterior del sistema solar; es el segundo aparato humano que consigue hacerlo desde el espacio interestelar, aunque con datos mucho más detallados que los de su predecesora y nave gemela, la Voyager 1. La señal tardó más de 16 horas en llegar a la Tierra.

"¡Dos señales del espacio interestelar! Un nuevo estudio revela lo que los instrumentos de la nave han hallado tras cruzar la frontera cósmica donde termina el entorno creado por nuestro Sol y comienza el vasto océano del espacio", explicó la NASA a través de su cuenta en Twitter.

Paradas en Urano y Neptuno

La frontera de la heliosfera se encuentra a unos 20 mil millones de kilómetros de la Tierra y el Voyager 2 la alcanzó más de 40 años después de su lanzamiento. La nave partió un mes antes que su gemela, pero salió de la "burbuja solar" seis años después debido a que su ruta tenía paradas en Urano y Neptuno.

"No sabíamos cómo era de grande la burbuja y evidentemente ni si la nave podría sobrevivir lo suficiente para alcanzar la frontera de la burbuja y penetrar en el espacio interestelar", señaló Ed Stone, profesor del Instituto de Tecnología de California (CalTech), quien trabaja en la misión desde antes de su lanzamiento, en 1977.

Tras salir de la heliosfera se dejan atrás las partículas cargadas procedentes del Sol para quedar en un vacío en el que sólo se nota el frío viento interestelar procedente de una supernova que explosionó hace millones de años. Antes se creía que este viento solar se disiparía gradualmente con la distancia, pero la Voyager 1 confirmó que había una frontera definida por una súbita reducción de la temperatura y un incremento de la densidad en las partículas cargadas, el plasma.

La Voyager 2 dará muchos más datos que su gemela, porque un instrumento clave diseñado para indagar las cualidades del plasma que se rompió en 1980 en la sonda pionera. Los resultados se publican en cinco artículos distintos en la revista Nature Astronomy y revelan una frontera de la heliosfera mucho más definida de lo que se pensaba.

Además, apuntan a que "la heliosfera es simétrica, al menos en los dos puntos de cruce de las sondas", según Bill Kurth, coautor de uno de los cinco artículos, lo que alimentaría la hipótesis de una forma esférica frente a los que creen que es más como la estela de un cometa. "Es como observar a un elefante con un microscopio", relató.

El plutonio que alimenta las sondas Voyager se agotará previsiblemente a mediados de la década de 2020, pero seguirán con sus trayectorias. "Las dos naves sobrevivirán a la Tierra. Están en órbita en torno a la galaxia y durarán 5 mil millones de años, o más. La probabilidad de que se estrellen contra algo es prácticamente cero", concluyó Kurth.

La sociedad vive una época de infoxicación informativa: pedagogo

La sociedad vive una época de infoxicación, de intoxicación por un exceso de información que la gente no puede procesar, señaló el licenciado Juan Miguel Muñoz Micolau, pedagogo español, quien impartió en la Universidad Iberoamericana Ciudad de México la conferencia ‘Educar en el siglo del conocimiento’.

En la ponencia de dictó, por invitación de la Dirección de Enseñanza y Aprendizaje Mediados por Tecnología (DEAMeT) de la IBERO, Muñoz, codirector del Observatorio de Innovación Tecnológica y Educativa (ODITE), dijo que en esa sobreabundancia de información en la que la sociedad está inmersa lo importante no es recordar la información, porque es imposible; sino que lo relevante es saber dónde encontrar la información, “saber cómo filtrarla, cómo procesarla, relacionarla, y en definitiva, convertirla en conocimiento”.

-¿Qué consecuencias tiene para la adquisición de conocimientos de las y los estudiantes esa intoxicación?

-Pues, como hay tanta información, es difícil encontrar lo que es relevante y separarlo de lo que no lo es. Por lo tanto, lo que hay es una gran dispersión de trabajos, de investigaciones de los alumnos, que se pierden. Entonces, al estar perdidos, no saben distinguir el grano de la paja, les cuesta separar. Esto que hace que pierdan tiempo y que se acaben cansando y desmotivando.

-Usted considera que la motivación hace que el alumnado tenga interés por aprender. ¿Entonces qué deben hacer las y los profesores para que los estudiantes quieran aprender?

-Encender la llama de la emoción, de la pasión, de la motivación, de la curiosidad; que son los motores que activan las neuronas para que los aprendizajes se conviertan en algo atractivo, en algo agradable, en algo emocionante. Eso es ponerse en la piel del alumno, es hacer actividades que les resulten interesantes, en las que los alumnos descubran, a través de retos, soluciones a problemas reales.

Pasar de la memoria

En su disertación en la IBERO, el también asesor técnico docente de la Generalitat de Cataluña y del Consorcio de Educación de Barcelona, mencionó que no se puede educar a las nuevas generaciones con la mentalidad del siglo XIX, y en ese sentido, “la memoria debe de pasar ya a la historia”; mas no como algo innecesario, porque la memoria es imprescindible, sino que lo que debe dejar de ser es que la enseñanza sea exclusivamente memorística.

Así pue, para Muñoz Micolau, cuando se habla de aprendizaje basado en competencias, cada vez más lo que tiene realmente valor son las competencias útiles para la vida, como el trabajo en equipo, el ser flexibles, la capacidad de síntesis y la comprensión profunda de los cambios que se van sucediendo de manera irremediable e imparable.

-¿Y qué método educativo hace que el estudiantado aprenda?

-Prácticamente, todos los que suponen aprendizajes activos y construcción de conocimiento: aprendizaje basado en problemas, aprendizaje basado en eventos, aprendizaje basado en proyectos, aprendizaje basado en retos, el aula invertida; todas estas son metodologías que ponen al alumno en el centro del aprendizaje y lo hacen el protagonista del aprendizaje. Pero éstas requieren que el docente sea capaz de entender al alumno, para que se ponga en su piel y le ayude a descubrir la pasión por aprender.

-Si aprender es hacer, ¿por qué la academia se ha encerrado a sí misma en la teoría?

-Porque es más fácil. Tú como docente repites lo que sabes, y lo puedes repetir durante 50 años si quieres. Lo realmente difícil es buscar aprendizajes significativos, buscar que el alumno aprenda de manera significativa, intentar cambiar tu metodología prácticamente cada año, cada curso, cuando lo necesite un alumno. Por el contrario, impartir una clase magistral es muy fácil, es lo que tú ya sabes y lo explicas, y por eso no se cambia, fundamentalmente, por comodidad, por falta de compromiso y de responsabilidad como docente.

El diario de clase

Desde luego las y los alumnos también pueden y deben poner de su parte. La clave nuevamente está en hacer que las cosas resulten atractivas para ellas y ellos, y algo que propone el licenciado Muñoz es que el estudiantado lleve un diario de clase.

-¿Qué debe registrarse en este diario de clase?

-Fundamentalmente, respuestas a estas preguntas básicas: qué he aprendido hoy, qué no he entendido, qué no me ha quedado claro, qué podría mejorar y en qué me gustaría profundizar.

-¿Este diario es una forma de evaluación que favorece el aprendizaje?

-Hay bastantes herramientas, y el diario de clase es la más sencilla, porque lo llevas cada día y lo conviertes en hábito; y cuando lo conviertes en hábito, los alumnos lo hacen de manera natural y sin darse cuenta. Después, si a los diarios les sumas los trabajos y las evaluaciones formales, y las integras en un portafolio, ahí queda recogido todo el compendio de lo que tú estás aprendiendo.

Hay portafolios de actividades; pero los que interesan son los portafolios de aprendizajes, donde, cuando tú has aprendido algo, todo el material que has utilizado para aprender eso queda recogido en un portafolio. Por eso, un portafolio es una herramienta muy interesante.

Otra herramienta son las rúbricas, que pueden ser de evaluación, de autoevaluación y de coevaluación. Estas últimas las hacen los propios alumnos entre ellos.

-¿Esta evaluación entre pares, entre alumnos, sería como un seguimiento uno a uno?, donde el aprendizaje es más significativo.

-Sí tú alumno, y yo alumno, compartimos lo que hemos hecho y lo comentamos, por ejemplo, diciendo: yo creo que esto está equivocado; o yo creo que esto lo podrías mejorar así; o yo creo que ésta es una falta de ortografía o de sintaxis o la semántica aquí no es correcta; o este vocabulario podrías mejorarlo; en este igual entre igual los alumnos muchas veces se sienten más cómodos que con el docente.

Como el docente no deja de ser la autoridad, a veces da miedo preguntarle, por lo tanto, el alumno se calla y la duda se le queda. Entre iguales es más fácil, porque a tu amigo o a tu compañero le consultas y él te explica, y entre los dos buscan la solución si no la tienen, o preguntan a un tercero, o lo buscan en internet o los tres van a preguntarle al profesor.

Tecnología y enseñanza

Juan Miguel Muñoz Micolau, al hablar de ‘Educar en el siglo del conocimiento’, mencionó que estamos en un cambio de época, no en una época de cambios; en la que pasamos del no data, al big data; y con el mundo inmerso en la Cuarta Revolución Industrial, caracterizada por la existencia de la inteligencia artificial, la robótica, etcétera.

-¿Cómo usar la tecnología para el proceso de enseñanza-aprendizaje?

-Pues de manera natural. O sea, la tecnología tiene que ser invisible, es decir, cuando usamos tecnología tenemos que pensar que no usamos tecnología, que estamos usando una herramienta. Si estamos haciendo una investigación, un aprendizaje basado en retos, y tú necesitas descubrir algo en internet, lo buscas en tu smartphone, en tu tablet, en tu computadora de casa, en tu portátil.

Lo importante es que la tecnología es invisible, cuando se hace invisible se utiliza de manera natural; esa es la clave. Que se vea como una herramienta ligada a tu trabajo de día a día, como cuando se utilizaban el lápiz y el papel, pero ahora se utilizan las computadoras o cualquier dispositivo electrónico que nos facilite llegar allá a donde no llegamos.

-¿Cómo escolarizar la tecnología?

Bajo la tendencia BYOD, bring your own device, trae tu propio dispositivo. Eso que tú utilizas en tu casa y que cuando estás en el patio lo llevas en el bolsillo, tráelo. Pero si un niño de primaria no tiene un Smartphone; que en las aulas tengan una dotación mínima de dispositivos, de tabletas, de ipads, de computadoras portátiles, para que cualquier niño los pueda utilizar en cualquier momento, en cualquier situación académica.

-¿Carecer de dispositivos electrónicos o conexión a internet supone un retraso en el aprendizaje y la adquisición de conocimiento de los alumnos?

No necesariamente, pero es más difícil. Hoy en día la tecnología está omnipresente y una escuela del siglo XXI no la puede ignorar. Sin tecnología se puede aprender, pero de otra manera diferente y menos eficaz. La tecnología nos da facilidades, es más ágil, es más rápida, es más amplia, nos da acceso a saberes de toda la historia de la humanidad, a la Biblioteca del Congreso de los Estados Unidos, a la biblioteca de la IBERO, a la biblioteca pública de tu localidad, de tu ciudad. Es impresionante.

23 octubre 2019 

Publicado enSociedad
Premian con el Nobel de Física el aporte de tres científicos a la cosmología

El trabajo de James Peebles reveló que sólo se conoce 5 por ciento del universo // Michel Mayor y Didier Queloz descubrieron en 1995 el primer planeta fuera del sistema solar

 

El canadiense-estadunidense James Peebles y los suizos Michel Mayor y Didier Queloz ganaron este martes el Premio Nobel de Física de la Academia Sueca de Ciencias por sus trabajos en cosmología.

El premio "es mitad para el físico James Peebles por descubrimientos teóricos en cosmología" relativos a los inicios del universo y la otra mitad para el físico y astrónomo Michel Mayor y el astrónomo Didier Queloz por el descubrimiento del primer exoplaneta, anunció Göran Hansson, secretario general de la Academia Real de Ciencias de Suecia.

Los tres investigadores contribuyeron a "una nueva comprensión de la estructura y la historia del universo. Sus trabajos han cambiado para siempre nuestras concepciones", añadió la academia.

Las investigaciones de Peebles, de 84 años y titular de la cátedra Albert Einstein en Princenton, nos remontan "a la infancia del universo" mediante la observación de los primeros rayos luminosos, casi 400 mil años después del Big Bang, ocurrido hace 13 mil 800 millones de años.

"Sus trabajos revelaron un universo en el cual sólo se conoce 5 por ciento de su composición, la materia que forma las estrellas, los planetas, los árboles y nosotros. El resto, o sea 95 por ciento, está constituido de materia y energía oscuras. Es un misterio y un desafío para la física moderna", subrayó la Academia.

Pese a teoría comprobada, siguen los misterios

"Aunque la teoría esté completamente probada, hay que admitir que la materia y la energía oscuras siguen siendo misteriosas", señlaló Peebles en una entrevista poco después del anuncio del galardón.

"Podemos estar seguros de que esta teoría no es la respuesta final", afirmó.

Por su lado, Mayor, de 77 años, profesor honorario del Observatorio de la Universidad de Ginebra, y su doctorante Queloz, de 53, descubrieron en 1995 el primer planeta en órbita alrededor de otra estrella, concretamente de 51 Pegasi B, a 50 años luz de la Tierra.

"No estoy preparado para esto. Esta mañana era un profesor de Cambridge, y de repente mi vida sufrió un vuelco", declaró Queloz a periodistas en Londres, donde estaba para dictar una conferencia.

Bautizado luego como Dimidio, el primer exoplaneta –en la actualidad son más de 3 mil 500– es de un tipo llamado "Júpiter caliente": planeta de gran tamaño, como Júpiter, pero que orbita muy cerca de su estrella.

"Nadie sabía si los exoplanetas existían", recordó Mayor, según un comunicado difundido por la Universidad de Ginebra. “Los astrónomos los buscaban en vano.

“De repente, hemos enriquecido nuestro ‘zoológico’ con otros sistemas planetarios: es como la medicina cuando miramos a otros animales para comprender mejor al ser humano. Fue una revolución”, explicó François Forget, planetólogo del Centro Nacional de Investigación Científica (CNRS) de Francia.

Ese primer exoplaneta conocido "nadie imaginó que podría albergar vida, pero fue el primero de un amplio grupo, del cual algunos están en la zona habitable alrededor de su estrella", señaló Vincent Coude du Foresto, astrónomo del Observatorio de París.

El hallazgo enriqueció el panorama y extendió la búsqueda de vida en el universo.

Antes de 1995, "se habían hallado otros exoplanetas, pero giraban alrededor de púlsares, estrellas muertas", sostuvo Du Foresto.

"Estimamos que en la galaxia hay al menos tantos planetas como estrellas, es decir, alrededor de 100 mil millones", según el astrónomo.

Dimidio es gaseoso e hirviente (alrededor de mil 200 grados Celsius). Orbita alrededor de una estrella de tipo solar.

"Era muy extraño y para nada situado donse habría esperado", recordó el suizo Queloz.

Se halla más cerca de su estrella de lo que lo está Mercurio del Sol y tarda un poco más de cuatro días en dar la vuelta.

"Hasta entonces, creíamos que para que un planeta gigante se creara, tendría que hacer frío y, por tanto, estar lejos de su estrella", explicó François Forget, planetólogo del Centro Nacional de Investigaciones Científicas de Francia.

Es difícil observar un planeta cercano a una estrella debido a su fuerte luminosidad.

Mayor desarrolló una técnica que no permite ver directamente el planeta, pero sí detectar su presencia a través de la perturbación que su gravedad inflige a la estrella.

Este instrumento ultrapreciso, llamado Elodie, detectó el planeta desde el Observatorio de Alta Provenza del CNRS. "Los datos recolectados explicaban la historia que sólo podía ser la de un planeta", señaló Queloz.

El hallazgo fue una sorpresa, porque no pensaban lograrlo tan rápido. El anuncio tuvo lugar el 6 de octubre de 1995 en Florencia.

"El hallazgo cambió la visión que teníamos de nuestro lugar en el universo", según David Clements, del Colegio Imperial de Londres. “Inauguró una nueva era para la cosmología", subrayó Stephen Toope, de la Universidad de Cambridge.

Es, por tanto, "un nuevo paso hacia el aspecto fascinante sobre la detección de pruebas de vida", según Martin Rees, de la Universidad de Cambridge.

Los investigadores recibirán el premio el 10 de diciembre, aniversario de la muerte de Alfred Nobel.

Página 1 de 20