Después de más de 40 años de viaje y casi 18 mil millones de kilómetros, la nave abandonó la burbuja protectora del Sol para ingresar a la región entre las estrellas, haciendo observaciones valiosas sobre el límite entre estos dos mundos.Foto Afp

Es el segundo aparato humano en hacerlo desde el espacio interestelar

 

Nueva York. La Administración Nacional de la Aeronáutica y del Espacio (NASA, por sus siglas en inglés) recibió el primer mensaje enviado por la sonda Voyager 2 desde el exterior del sistema solar; es el segundo aparato humano que consigue hacerlo desde el espacio interestelar, aunque con datos mucho más detallados que los de su predecesora y nave gemela, la Voyager 1. La señal tardó más de 16 horas en llegar a la Tierra.

"¡Dos señales del espacio interestelar! Un nuevo estudio revela lo que los instrumentos de la nave han hallado tras cruzar la frontera cósmica donde termina el entorno creado por nuestro Sol y comienza el vasto océano del espacio", explicó la NASA a través de su cuenta en Twitter.

Paradas en Urano y Neptuno

La frontera de la heliosfera se encuentra a unos 20 mil millones de kilómetros de la Tierra y el Voyager 2 la alcanzó más de 40 años después de su lanzamiento. La nave partió un mes antes que su gemela, pero salió de la "burbuja solar" seis años después debido a que su ruta tenía paradas en Urano y Neptuno.

"No sabíamos cómo era de grande la burbuja y evidentemente ni si la nave podría sobrevivir lo suficiente para alcanzar la frontera de la burbuja y penetrar en el espacio interestelar", señaló Ed Stone, profesor del Instituto de Tecnología de California (CalTech), quien trabaja en la misión desde antes de su lanzamiento, en 1977.

Tras salir de la heliosfera se dejan atrás las partículas cargadas procedentes del Sol para quedar en un vacío en el que sólo se nota el frío viento interestelar procedente de una supernova que explosionó hace millones de años. Antes se creía que este viento solar se disiparía gradualmente con la distancia, pero la Voyager 1 confirmó que había una frontera definida por una súbita reducción de la temperatura y un incremento de la densidad en las partículas cargadas, el plasma.

La Voyager 2 dará muchos más datos que su gemela, porque un instrumento clave diseñado para indagar las cualidades del plasma que se rompió en 1980 en la sonda pionera. Los resultados se publican en cinco artículos distintos en la revista Nature Astronomy y revelan una frontera de la heliosfera mucho más definida de lo que se pensaba.

Además, apuntan a que "la heliosfera es simétrica, al menos en los dos puntos de cruce de las sondas", según Bill Kurth, coautor de uno de los cinco artículos, lo que alimentaría la hipótesis de una forma esférica frente a los que creen que es más como la estela de un cometa. "Es como observar a un elefante con un microscopio", relató.

El plutonio que alimenta las sondas Voyager se agotará previsiblemente a mediados de la década de 2020, pero seguirán con sus trayectorias. "Las dos naves sobrevivirán a la Tierra. Están en órbita en torno a la galaxia y durarán 5 mil millones de años, o más. La probabilidad de que se estrellen contra algo es prácticamente cero", concluyó Kurth.

La sociedad vive una época de infoxicación informativa: pedagogo

La sociedad vive una época de infoxicación, de intoxicación por un exceso de información que la gente no puede procesar, señaló el licenciado Juan Miguel Muñoz Micolau, pedagogo español, quien impartió en la Universidad Iberoamericana Ciudad de México la conferencia ‘Educar en el siglo del conocimiento’.

En la ponencia de dictó, por invitación de la Dirección de Enseñanza y Aprendizaje Mediados por Tecnología (DEAMeT) de la IBERO, Muñoz, codirector del Observatorio de Innovación Tecnológica y Educativa (ODITE), dijo que en esa sobreabundancia de información en la que la sociedad está inmersa lo importante no es recordar la información, porque es imposible; sino que lo relevante es saber dónde encontrar la información, “saber cómo filtrarla, cómo procesarla, relacionarla, y en definitiva, convertirla en conocimiento”.

-¿Qué consecuencias tiene para la adquisición de conocimientos de las y los estudiantes esa intoxicación?

-Pues, como hay tanta información, es difícil encontrar lo que es relevante y separarlo de lo que no lo es. Por lo tanto, lo que hay es una gran dispersión de trabajos, de investigaciones de los alumnos, que se pierden. Entonces, al estar perdidos, no saben distinguir el grano de la paja, les cuesta separar. Esto que hace que pierdan tiempo y que se acaben cansando y desmotivando.

-Usted considera que la motivación hace que el alumnado tenga interés por aprender. ¿Entonces qué deben hacer las y los profesores para que los estudiantes quieran aprender?

-Encender la llama de la emoción, de la pasión, de la motivación, de la curiosidad; que son los motores que activan las neuronas para que los aprendizajes se conviertan en algo atractivo, en algo agradable, en algo emocionante. Eso es ponerse en la piel del alumno, es hacer actividades que les resulten interesantes, en las que los alumnos descubran, a través de retos, soluciones a problemas reales.

Pasar de la memoria

En su disertación en la IBERO, el también asesor técnico docente de la Generalitat de Cataluña y del Consorcio de Educación de Barcelona, mencionó que no se puede educar a las nuevas generaciones con la mentalidad del siglo XIX, y en ese sentido, “la memoria debe de pasar ya a la historia”; mas no como algo innecesario, porque la memoria es imprescindible, sino que lo que debe dejar de ser es que la enseñanza sea exclusivamente memorística.

Así pue, para Muñoz Micolau, cuando se habla de aprendizaje basado en competencias, cada vez más lo que tiene realmente valor son las competencias útiles para la vida, como el trabajo en equipo, el ser flexibles, la capacidad de síntesis y la comprensión profunda de los cambios que se van sucediendo de manera irremediable e imparable.

-¿Y qué método educativo hace que el estudiantado aprenda?

-Prácticamente, todos los que suponen aprendizajes activos y construcción de conocimiento: aprendizaje basado en problemas, aprendizaje basado en eventos, aprendizaje basado en proyectos, aprendizaje basado en retos, el aula invertida; todas estas son metodologías que ponen al alumno en el centro del aprendizaje y lo hacen el protagonista del aprendizaje. Pero éstas requieren que el docente sea capaz de entender al alumno, para que se ponga en su piel y le ayude a descubrir la pasión por aprender.

-Si aprender es hacer, ¿por qué la academia se ha encerrado a sí misma en la teoría?

-Porque es más fácil. Tú como docente repites lo que sabes, y lo puedes repetir durante 50 años si quieres. Lo realmente difícil es buscar aprendizajes significativos, buscar que el alumno aprenda de manera significativa, intentar cambiar tu metodología prácticamente cada año, cada curso, cuando lo necesite un alumno. Por el contrario, impartir una clase magistral es muy fácil, es lo que tú ya sabes y lo explicas, y por eso no se cambia, fundamentalmente, por comodidad, por falta de compromiso y de responsabilidad como docente.

El diario de clase

Desde luego las y los alumnos también pueden y deben poner de su parte. La clave nuevamente está en hacer que las cosas resulten atractivas para ellas y ellos, y algo que propone el licenciado Muñoz es que el estudiantado lleve un diario de clase.

-¿Qué debe registrarse en este diario de clase?

-Fundamentalmente, respuestas a estas preguntas básicas: qué he aprendido hoy, qué no he entendido, qué no me ha quedado claro, qué podría mejorar y en qué me gustaría profundizar.

-¿Este diario es una forma de evaluación que favorece el aprendizaje?

-Hay bastantes herramientas, y el diario de clase es la más sencilla, porque lo llevas cada día y lo conviertes en hábito; y cuando lo conviertes en hábito, los alumnos lo hacen de manera natural y sin darse cuenta. Después, si a los diarios les sumas los trabajos y las evaluaciones formales, y las integras en un portafolio, ahí queda recogido todo el compendio de lo que tú estás aprendiendo.

Hay portafolios de actividades; pero los que interesan son los portafolios de aprendizajes, donde, cuando tú has aprendido algo, todo el material que has utilizado para aprender eso queda recogido en un portafolio. Por eso, un portafolio es una herramienta muy interesante.

Otra herramienta son las rúbricas, que pueden ser de evaluación, de autoevaluación y de coevaluación. Estas últimas las hacen los propios alumnos entre ellos.

-¿Esta evaluación entre pares, entre alumnos, sería como un seguimiento uno a uno?, donde el aprendizaje es más significativo.

-Sí tú alumno, y yo alumno, compartimos lo que hemos hecho y lo comentamos, por ejemplo, diciendo: yo creo que esto está equivocado; o yo creo que esto lo podrías mejorar así; o yo creo que ésta es una falta de ortografía o de sintaxis o la semántica aquí no es correcta; o este vocabulario podrías mejorarlo; en este igual entre igual los alumnos muchas veces se sienten más cómodos que con el docente.

Como el docente no deja de ser la autoridad, a veces da miedo preguntarle, por lo tanto, el alumno se calla y la duda se le queda. Entre iguales es más fácil, porque a tu amigo o a tu compañero le consultas y él te explica, y entre los dos buscan la solución si no la tienen, o preguntan a un tercero, o lo buscan en internet o los tres van a preguntarle al profesor.

Tecnología y enseñanza

Juan Miguel Muñoz Micolau, al hablar de ‘Educar en el siglo del conocimiento’, mencionó que estamos en un cambio de época, no en una época de cambios; en la que pasamos del no data, al big data; y con el mundo inmerso en la Cuarta Revolución Industrial, caracterizada por la existencia de la inteligencia artificial, la robótica, etcétera.

-¿Cómo usar la tecnología para el proceso de enseñanza-aprendizaje?

-Pues de manera natural. O sea, la tecnología tiene que ser invisible, es decir, cuando usamos tecnología tenemos que pensar que no usamos tecnología, que estamos usando una herramienta. Si estamos haciendo una investigación, un aprendizaje basado en retos, y tú necesitas descubrir algo en internet, lo buscas en tu smartphone, en tu tablet, en tu computadora de casa, en tu portátil.

Lo importante es que la tecnología es invisible, cuando se hace invisible se utiliza de manera natural; esa es la clave. Que se vea como una herramienta ligada a tu trabajo de día a día, como cuando se utilizaban el lápiz y el papel, pero ahora se utilizan las computadoras o cualquier dispositivo electrónico que nos facilite llegar allá a donde no llegamos.

-¿Cómo escolarizar la tecnología?

Bajo la tendencia BYOD, bring your own device, trae tu propio dispositivo. Eso que tú utilizas en tu casa y que cuando estás en el patio lo llevas en el bolsillo, tráelo. Pero si un niño de primaria no tiene un Smartphone; que en las aulas tengan una dotación mínima de dispositivos, de tabletas, de ipads, de computadoras portátiles, para que cualquier niño los pueda utilizar en cualquier momento, en cualquier situación académica.

-¿Carecer de dispositivos electrónicos o conexión a internet supone un retraso en el aprendizaje y la adquisición de conocimiento de los alumnos?

No necesariamente, pero es más difícil. Hoy en día la tecnología está omnipresente y una escuela del siglo XXI no la puede ignorar. Sin tecnología se puede aprender, pero de otra manera diferente y menos eficaz. La tecnología nos da facilidades, es más ágil, es más rápida, es más amplia, nos da acceso a saberes de toda la historia de la humanidad, a la Biblioteca del Congreso de los Estados Unidos, a la biblioteca de la IBERO, a la biblioteca pública de tu localidad, de tu ciudad. Es impresionante.

23 octubre 2019 

Publicado enSociedad
Premian con el Nobel de Física el aporte de tres científicos a la cosmología

El trabajo de James Peebles reveló que sólo se conoce 5 por ciento del universo // Michel Mayor y Didier Queloz descubrieron en 1995 el primer planeta fuera del sistema solar

 

El canadiense-estadunidense James Peebles y los suizos Michel Mayor y Didier Queloz ganaron este martes el Premio Nobel de Física de la Academia Sueca de Ciencias por sus trabajos en cosmología.

El premio "es mitad para el físico James Peebles por descubrimientos teóricos en cosmología" relativos a los inicios del universo y la otra mitad para el físico y astrónomo Michel Mayor y el astrónomo Didier Queloz por el descubrimiento del primer exoplaneta, anunció Göran Hansson, secretario general de la Academia Real de Ciencias de Suecia.

Los tres investigadores contribuyeron a "una nueva comprensión de la estructura y la historia del universo. Sus trabajos han cambiado para siempre nuestras concepciones", añadió la academia.

Las investigaciones de Peebles, de 84 años y titular de la cátedra Albert Einstein en Princenton, nos remontan "a la infancia del universo" mediante la observación de los primeros rayos luminosos, casi 400 mil años después del Big Bang, ocurrido hace 13 mil 800 millones de años.

"Sus trabajos revelaron un universo en el cual sólo se conoce 5 por ciento de su composición, la materia que forma las estrellas, los planetas, los árboles y nosotros. El resto, o sea 95 por ciento, está constituido de materia y energía oscuras. Es un misterio y un desafío para la física moderna", subrayó la Academia.

Pese a teoría comprobada, siguen los misterios

"Aunque la teoría esté completamente probada, hay que admitir que la materia y la energía oscuras siguen siendo misteriosas", señlaló Peebles en una entrevista poco después del anuncio del galardón.

"Podemos estar seguros de que esta teoría no es la respuesta final", afirmó.

Por su lado, Mayor, de 77 años, profesor honorario del Observatorio de la Universidad de Ginebra, y su doctorante Queloz, de 53, descubrieron en 1995 el primer planeta en órbita alrededor de otra estrella, concretamente de 51 Pegasi B, a 50 años luz de la Tierra.

"No estoy preparado para esto. Esta mañana era un profesor de Cambridge, y de repente mi vida sufrió un vuelco", declaró Queloz a periodistas en Londres, donde estaba para dictar una conferencia.

Bautizado luego como Dimidio, el primer exoplaneta –en la actualidad son más de 3 mil 500– es de un tipo llamado "Júpiter caliente": planeta de gran tamaño, como Júpiter, pero que orbita muy cerca de su estrella.

"Nadie sabía si los exoplanetas existían", recordó Mayor, según un comunicado difundido por la Universidad de Ginebra. “Los astrónomos los buscaban en vano.

“De repente, hemos enriquecido nuestro ‘zoológico’ con otros sistemas planetarios: es como la medicina cuando miramos a otros animales para comprender mejor al ser humano. Fue una revolución”, explicó François Forget, planetólogo del Centro Nacional de Investigación Científica (CNRS) de Francia.

Ese primer exoplaneta conocido "nadie imaginó que podría albergar vida, pero fue el primero de un amplio grupo, del cual algunos están en la zona habitable alrededor de su estrella", señaló Vincent Coude du Foresto, astrónomo del Observatorio de París.

El hallazgo enriqueció el panorama y extendió la búsqueda de vida en el universo.

Antes de 1995, "se habían hallado otros exoplanetas, pero giraban alrededor de púlsares, estrellas muertas", sostuvo Du Foresto.

"Estimamos que en la galaxia hay al menos tantos planetas como estrellas, es decir, alrededor de 100 mil millones", según el astrónomo.

Dimidio es gaseoso e hirviente (alrededor de mil 200 grados Celsius). Orbita alrededor de una estrella de tipo solar.

"Era muy extraño y para nada situado donse habría esperado", recordó el suizo Queloz.

Se halla más cerca de su estrella de lo que lo está Mercurio del Sol y tarda un poco más de cuatro días en dar la vuelta.

"Hasta entonces, creíamos que para que un planeta gigante se creara, tendría que hacer frío y, por tanto, estar lejos de su estrella", explicó François Forget, planetólogo del Centro Nacional de Investigaciones Científicas de Francia.

Es difícil observar un planeta cercano a una estrella debido a su fuerte luminosidad.

Mayor desarrolló una técnica que no permite ver directamente el planeta, pero sí detectar su presencia a través de la perturbación que su gravedad inflige a la estrella.

Este instrumento ultrapreciso, llamado Elodie, detectó el planeta desde el Observatorio de Alta Provenza del CNRS. "Los datos recolectados explicaban la historia que sólo podía ser la de un planeta", señaló Queloz.

El hallazgo fue una sorpresa, porque no pensaban lograrlo tan rápido. El anuncio tuvo lugar el 6 de octubre de 1995 en Florencia.

"El hallazgo cambió la visión que teníamos de nuestro lugar en el universo", según David Clements, del Colegio Imperial de Londres. “Inauguró una nueva era para la cosmología", subrayó Stephen Toope, de la Universidad de Cambridge.

Es, por tanto, "un nuevo paso hacia el aspecto fascinante sobre la detección de pruebas de vida", según Martin Rees, de la Universidad de Cambridge.

Los investigadores recibirán el premio el 10 de diciembre, aniversario de la muerte de Alfred Nobel.

Miércoles, 02 Octubre 2019 06:19

Los descubrimientos son siempre políticos

Los descubrimientos son siempre políticos

Para destacar el 150 aniversario de Nature, David Kaiser rastrea los orígenes del apoyo gubernamental a la ciencia en el primero de una serie de ensayos sobre cómo los últimos 150 años han moldeado el sistema de investigación.

A finales de agosto de 1609, el astrónomo italiano Galileo Galilei escribió entusiasmado a su cuñado relatándole los rápidos acontecimientos de ese verano. Unas semanas antes, Galileo había escuchado rumores de que se había inventado un catalejo en Flandes (ahora parte de Bélgica). Rápidamente construyó una versión mejorada, lo que desencadenó una nueva ola de rumores. Al poco tiempo, el Senado veneciano le llamó para probar su dispositivo. Galileo se jactó ante su familia de los “numerosos caballeros y senadores” que habían “subido las escaleras de los campanarios más altos de Venecia para observar en el mar velas y embarcaciones tan lejanas que... se necesitaron dos horas o más antes de poderlas ver sin mi catalejo”. El Senado votó de inmediato que se le otorgara a Galileo un puesto de por vida en la Universidad de Padua en Italia, con un salario anual de 1.000 florines, cuando 1.000 florines significaban realmente algo [1] .

Galileo no había hecho más que empezar. Girando su nuevo telescopio hacia los cielos, descubrió (entre otras cosas) cuatro lunas orbitando alrededor de Júpiter. Astutamente, las nombró las Estrellas Mediceas en honor a Cosimo II de Medici, el Gran Duque de la Toscana. La táctica funcionó: al año de ese premio por su éxito veneciano, Galileo había conseguido un salario aún mayor (y se había despojado de sus deberes de enseñanza) como filósofo natural oficial de la corte de los Medici en Florencia [2] .

Galileo tenía una habilidad especial a la hora de convencer a los funcionarios del gobierno y mecenas de la corte para que apoyaran sus investigaciones. Si rastreamos sus proezas, mientras pasaba de un benefactor al siguiente, podríamos reconocer los destellos de los científicos emprendedores de hoy. Sin embargo, unos 250 años después de la época de Galileo, ha empezado a afianzarse una relación bastante diferente entre el gobierno y la ciencia.

Justo cuando el astrónomo Norman Lockyer estaba fundando Nature en 1869, se estaban produciendo cambios importantes en el nexo entre el gobierno y la ciencia en muchas partes del mundo.

Construyendo imperio

Durante las décadas intermedias del siglo XIX, el Imperio británico creció hasta incluir aproximadamente una cuarta parte de la Tierra y mantener el dominio sobre casi un cuarto de su población. En ese momento, varios políticos británicos prominentes, incluidos antiguos y futuros primeros ministros, trataron de apoyar la situación de la ciencia y la tecnología. En la década de 1840, Robert Peel, Benjamin Disraeli, William Gladstone y otros donaron fondos de sus propias arcas para ayudar a fundar el Royal College of Chemistry, convencidos de que la investigación centrada en este campo beneficiaría a la nación y sus ambiciones imperiales. En la década de 1860, muchos investigadores trabajaron duro para formalizar tales planes, empezándose a crear la estructura en una serie de laboratorios de las universidades de todo el Reino Unido, basando cada elemento en la promesa de que las mediciones de precisión de las cantidades físicas podrían hacer avanzar la comprensión científica fundamental y estimular el desarrollo industrial.

La electrificación, la telegrafía, la expansión de los ferrocarriles y la producción de acero a gran escala fueron los desarrollos característicos de lo que a menudo se llamó la segunda revolución industrial, que comenzó alrededor de 1870. Cada una exigía unidades y medidas estándar. Surgieron nuevas sinergias cuando los principales investigadores, incluidos James Clerk Maxwell y William Thomson (más tarde Lord Kelvin), como miembros de las comisiones gubernamentales de alto nivel, utilizaron su comprensión del electromagnetismo y la termodinámica con el objetivo de abordar los desafíos de las comunicaciones transatlánticas, los estándares eléctricos, la navegación oceánica y las máquinas de vapor [3] .

De alguna manera, los británicos estaban tratando de ponerse al día. Desde mediados del siglo XIX, las universidades locales en todos los Estados de habla alemana habían estado reclutando talentos académicos en concursos en base al prestigio: instituciones financiadas por el gobierno se dedicaron a incorporar a los Galileos del momento. El modelo se intensificó rápidamente después de la derrota prusiana de Francia y el establecimiento de una Alemania unificada a principios de 1871. Bajo un Ministerio de Educación centralizado, y con ambiciones aún mayores para una rápida industrialización, el gobierno alemán invirtió fuertemente en la investigación académica de las ciencias naturales [4] .

Sin embargo, incluso con todos esos apoyos, industriales prominentes como Werner von Siemens temían que Alemania estuviera perdiendo su supremacía. El cabildeo concertado condujo al establecimiento de una nueva institución financiada por el gobierno en 1887: el Physikalisch-Technische Reichsanstalt en Berlín. Dirigido por el físico Hermann von Helmholtz, su mandato consistía en acelerar el trabajo en la intersección de la ciencia básica, la investigación aplicada y el desarrollo industrial. En pocos años, los esfuerzos pioneros que allí se hicieron para evaluar propuestas competitivas para el alumbrado público a gran escala -que requerían mediciones cuidadosas de la producción de radiación en varios de los dispositivos- arrojaron grabaciones tan precisas del espectro de radiación de los cuerpos negros que las teorías físicas dominantes ya no podían ajustar los datos. Inspirado, el físico Max Planck rompió a regañadientes con la teoría electromagnética de Maxwell y dio sus primeros pasos tentativos hacia la teoría cuántica [5] .

Mientras tanto, una guerra diferente con Prusia provocó cambios significativos en el gobierno y la ciencia en el este, cuando el imperio austrohúngaro se formó en 1867. Muy rápidamente, las autoridades imperiales lanzaron esfuerzos épicos en meteorología y climatología. El objetivo era crear redes institucionales amplias que pudieran fomentar un sentido común nuevo de propósitos a través del batiburrillo de las tradiciones legales, religiosas y lingüísticas locales. Las universidades, los museos y otras instituciones respaldadas por el gobierno comenzaron a recopilar y estandarizar registros meteorológicos con el objetivo de comprender cómo los patrones locales se relacionan con fenómenos a mayor escala. El imperativo de unificar el extenso imperio favoreció la investigación de vanguardia sobre conceptos modernos, como son las interacciones e interdependencias regionales a través de escalas que van desde los microclimas a los continentes [6] .

En esa época, el zar Alejandro II en Rusia estaba inmerso en la búsqueda de un proyecto de modernización propio. A partir de 1861, emitió una serie de proclamas que se conocieron como las Grandes Reformas. La emancipación de los siervos fue seguida rápidamente por la reforma de las universidades estatales, así como por cambios en los gobiernos regionales y el sistema judicial. La inmensa burocracia que se creó significó nuevas oportunidades para los intelectuales ambiciosos, incluido el químico Dmitrii Mendeleev. Después de dos años de estudio en Heidelberg, Alemania, Mendeleev regresó a su San Petersburgo natal en 1861 para enseñar química en la universidad local, publicando su versión ahora famosa de la tabla periódica de los elementos en 1869, el mismo año en que se lanzó Nature.

Los pasos siguientes en la notable carrera de Mendeleev son emblemáticos de los roles ampliados de la ciencia y la tecnología en esa era. En poco tiempo, el Ministerio de Finanzas y la Armada rusa estaban consultándole, y finalmente ocupó el puesto de director de la Oficina de Pesos y Medidas del país, lo que ayudó a introducir el sistema métrico en Rusia. Al igual que Otto von Bismarck y otros constructores de naciones en Alemania, el zar Alejandro II estaba ansioso por impulsar el desarrollo industrial en todo su país. Un aspecto fundamental de esos esfuerzos fue el de invertir considerablemente en la metrología de precisión; el zar supo encontrar naturalistas entusiastas y hábiles como Mendeleev para conseguir tal objetivo [7] .

En la misma década, Japón experimentó también cambios enormes. La Restauración Meiji de 1868 marcó un período de apertura para un país anteriormente aislado. El juramento de la Carta del Emperador proclamó que: “Se buscará el conocimiento en todo el mundo y, con ello, se fortalecerán los logros del gobierno imperial”. El gobierno comenzó a invertir en las manufacturas y otras reformas industriales. Instituyó nuevas escuelas públicas y financió becas para enviar estudiantes al extranjero a estudiar los avances científicos. El gobierno central llevó a Japón científicos de alto nivel de otros países, como Gran Bretaña y Estados Unidos, para desarrollar la capacitación en instalaciones financiadas por el Estado. Sus líderes comenzaron también allí a priorizar las instituciones de investigación patrocinadas por el gobierno como parte del esfuerzo moderno de construcción del Estado [8] .

Irrupción de Estados Unidos

Estados Unidos seguía siendo un obstinado caso aparte. El momento estaba lejos de resultar prometedor para nuevas inversiones. El conflicto más sangriento en la historia de Estados Unidos no terminó hasta 1865, marcado por el asesinato del presidente Abraham Lincoln. (Murieron más soldados estadounidenses durante la guerra civil de 1861-1865 que durante la Primera y Segunda Guerra Mundial y las guerras en Corea, Vietnam, Afganistán e Iraq juntas.) El apoyo a la investigación científica y a las instituciones a nivel federal fue escaso hasta finales del siglo XIX. De hecho, varios políticos importantes se escandalizaron por la carencia comparada de preparación científica y técnica de la nación durante la Primera Guerra Mundial.

Los esfuerzos de los reformadores en Estados Unidos para apuntalar el apoyo a la investigación por parte del gobierno se vieron obstaculizados por la larga tradición estadounidense de que la educación debía permanecer en manos de las autoridades estatales y locales en lugar del gobierno federal. Por todo Estados Unidos y a nivel individual, los colegios y universidades pusieron gradualmente mayor énfasis en la investigación original y en la construcción de infraestructura para los laboratorios. Pero, en el mejor de los casos, el impacto siguió siendo desigual. Ya en 1927, cuando el joven físico Isidor Rabi viajó a Alemania para estudiar la teoría cuántica, descubrió que las bibliotecas universitarias tendían a pedir la revista Physical Review de año en año. Parecía no haber razón para recibir copias con mayor frecuencia teniendo en cuenta su mediocre contenido [9] . La ciencia fue incluso ignorada en gran medida durante la Gran Depresión de la década de 1930, cuando el gobierno federal centralizó tantas otras cosas bajo el New Deal del presidente Franklin D. Roosevelt.

Solo a principios de la década de 1940, en medio de una movilización de emergencia en tiempos de guerra, el gobierno federal estadounidense asumió el apoyo a la investigación y desarrollo a gran escala. El radar, las armas nucleares, el fusible de proximidad y docenas de otros proyectos militares requirieron miles de millones de dólares y una estrecha coordinación entre los estudios abstractos y el desarrollo práctico.

La efectividad de los planes en tiempos de guerra impresionó a políticos, planificadores militares y administradores universitarios por igual. Cuando llegó la paz, se apresuraron a construir una nueva infraestructura que pudiera mantener las relaciones forjadas por la guerra. Los presupuestos para las ciencias físicas y la ingeniería continuaron aumentando a partir de entonces, provenientes casi en su totalidad del gobierno federal. En 1949, el 96% de todos los fondos en Estados Unidos para la investigación básica en ciencias físicas provenían de agencias federales relacionadas con la defensa. En 1954 -cuatro años después de la creación de la Fundación Nacional civil de Ciencias de EE. UU.-, esa proporción había aumentado al 98% [10] .

A partir de entonces, los políticos estadounidenses encontraron nuevas razones para apoyar la investigación: ayudaba a cumplir los objetivos nacionales para el desarrollo industrial y la defensa militar, y era un elemento clave en las relaciones internacionales. La inversión federal en instituciones científicas en toda la Europa devastada por la guerra, podía evitar, según se pensaba, los flirteos de los científicos con el comunismo en países como Francia, Italia y Grecia. Las reformas importantes del sistema universitario japonés bajo la ocupación estadounidense después de la Segunda Guerra Mundial también ayudaron a difundir el modelo estadounidense. Gastar en ciencia se convirtió en una inversión en los corazones y en las mentes [11] , [12] .

En Estados Unidos, la constante inversión federal ha impulsado un crecimiento sin precedentes en la investigación e infraestructura científicas. Durante los 25 años posteriores al final de la Segunda Guerra Mundial, se capacitó a más jóvenes en ciencias naturales que en toda la historia humana anterior. El gobierno estadounidense desarrolló un sistema de laboratorios nacionales y apoyó un amplio espectro de investigación en las universidades, la mayoría de ellas con poca conexión directa con proyectos militares. Los gastos se justificaban a menudo en términos de una “preparación” más amplia: crear un gran grupo de personal capacitado que estuviera disponible para trabajar en determinados proyectos militares en caso de que la guerra fría se volviera caliente [13] .

Mientras tanto, los científicos emprendedores aprovecharon las oportunidades que surgían de los estrechos lazos con patrocinadores militares. Las preocupaciones de la Marina de los EE. UU. sobre la guerra submarina impulsaron una intensa exploración del fondo del océano. Los geocientíficos, aprovechando los nuevos datos e instrumentos, encontraron evidencias convincentes de la tectónica de las placas [14] . Del mismo modo, las consultas a los físicos sobre proyectos clasificados de defensa antimisiles estimularon el desarrollo de nuevas áreas de estudio, como la óptica no lineal [15] .

Diversificación de carteras

Esa “nueva normalidad” se mantuvo aproximadamente a lo largo de un cuarto de siglo. Justo cuando Nature celebró su centésimo aniversario en 1969, los auditores militares estadounidenses publicaron un extenso análisis, denominado Project Hindsight. En él se sostenía que las agencias federales de defensa habían recibido escasos rendimientos de su inversión en ciencia abierta. Ese año, el senador demócrata Michael Mansfield (Montana) -quien pronto se convertiría en el líder de la mayoría del Senado con mayor antigüedad en la historia de Estados Unidos- introdujo una enmienda de último minuto a la Ley Federal de Autorización Militar de 1970. Estipulaba que no podría utilizarse ningún fondo del Departamento de Defensa “para llevar a cabo cualquier proyecto o estudio de investigación” que no tuviera “una relación directa y evidente con una función militar específica”.

En los campus universitarios de todo el país, el debate sobre el papel del gobierno en el apoyo a la investigación científica se hizo aún más bronco. En medio de la escalada de la guerra de Vietnam, científicos y estudiantes lidiaron respecto al peso adecuado que debían tener los gastos de defensa en la educación superior. En la Universidad de Columbia, en la ciudad de Nueva York, y en la Universidad de Wisconsin-Madison, grupos de radicales atacaron con explosivos los laboratorios de investigación financiados por el ejército. En muchos otros campus, la policía recurrió a gases lacrimógenos y porras para dispersar a los enojados manifestantes [16] .

Durante los años setenta y ochenta, los científicos forjaron asociaciones con industrias privadas, así como con filantropías. Estas relaciones se aceleraron por los fuertes recortes en el gasto federal en defensa y educación en Estados Unidos y en muchas otras partes del mundo. La biotecnología y la nanotecnología surgieron en esos años impulsadas por sistemas de apoyo que eran diferentes del gasto gubernamental que había financiado la investigación en física nuclear después de la Segunda Guerra Mundial [17] .

En estos últimos tiempos, los modelos híbridos de apoyo todavía dependen en gran medida de la financiación del gobierno central; solo tienen que considerar cuán de cerca siguen los científicos el ciclo de asignaciones de cada año en el Congreso de los EE. UU. y en otras instituciones. Pero el apoyo a la investigación rara vez se sustenta hoy en día en el modelo de saturación que parecía tan natural al principio de la era nuclear. Actualmente, menos de 20 países invierten más del 2% de su producto interno bruto en investigación y desarrollo, según datos de la Organización para la Cooperación y el Desarrollo Económico y el Banco Mundial. Mientras tanto, en varios de esos países, la naturaleza del apoyo del gobierno ha cambiado, priorizando a menudo proyectos con objetivos a corto plazo y aplicaciones prácticas en lugar de investigaciones a escalas mayores.

Cuando Lockyer estaba enviando el primer número de Nature a la prensa, muchos elementos de la empresa científica moderna se estaban forjando en Gran Bretaña, el continente europeo y partes de Asia. Pero para captar por completo el alcance de las relaciones monetarias en que los científicos se mueven ahora -rastreando los equivalentes actuales del Senado veneciano en busca de fondos, al mismo tiempo que se corteja a los donantes privados en los Institutos Kavli y en los centros de la Fundación Simons que no son menos brillantes que un palacio Medici-, haríamos bien en tener presente a Galileo.

Traducido del inglés para Rebelión por Sinfo Fernández

Notas:

[1] Drake, S. Isis 50 , 245–254 (1959).

[2] Biagioli, M. Galileo, Courtier: The Practice of Science in the Culture of Absolutism Ch. 2 (Univ. Chicago Press, 1992).

[3] Morus, I. R. When Physics Became King (Univ. Chicago Press, 2005).

[4] Clark, W. Academic Charisma and the Origins of the Research University (Univ. Chicago Press, 2006).

[5] Cahan, D. An Institute for an Empire: The Physikalisch-Technische Reichsanstalt, 1871–1918 (Cambridge Univ. Press, 1989).

[6] Coen, D. R. Climate in Motion: Science, Empire, and the Problem of Scale (Univ. Chicago Press, 2018).

[7] Gordin, M. D. A Well-Ordered Thing: Dmitrii Mendeleev and the Shadow of the Periodic Table (Basic, 2004).

[8] Kikuchi, Y. Anglo-American Connections in Japanese Chemistry: The Lab as Contact Zone (Palgrave Macmillan, 2013).

[9] Rigden, J. S. Rabi: Scientist and Citizen 4 (Basic, 1987).

[10] Forman, P. Hist.Stud. Phys. Biol. Sci. 18 , 149–229 (1987).

[11] Krige, J. American Hegemony and the Postwar Reconstruction of Science in Europe (MIT Press, 2006).

[12] Kaiser, D. Drawing Theories Apart: The Dispersion of Feynman Diagrams in Postwar Physics Ch. 4 (Univ. Chicago Press, 2005).

[13] Kaiser, D. Hist. Stud. Phys. Biol. Sci.33, 131–159 (2002).

[14] Oreskes, N. Nature501, 27–29 (2013).

[15] Wilson, B. Hist. Stud. Nat. Sci.45, 758–804 (2015).

[16] Moore, K. Disrupting Science: Social Movements, American Scientists, and the Politics of the Military, 1945–1975 (Princeton Univ. Press, 2008).

[17] Mirowski, P. Science-Mart: Privatizing American Science (Harvard Univ. Press, 2011).

David Kaiser es profesor de Historia de la Ciencia y profesor de Física en el Massachusetts Institute of Technology, Cambridge, Massachusetts, USA.

 Fuente: https://www.nature.com/articles/d41586-019-02848-2   

De izquierda a derecha: Jack Ma, presidente de Alibaba, y Elon Musk, consejero delegado de Tesla, en una conferencia en Shanghai, este jueves. En vídeo, las declaraciones. Foto: AFP | Vídeo: REUTERS

El empresario chino ha mantenido un debate con Elon Musk, quien ha recalcado que las máquinas van a superar a la raza humana

 

El multimillonario Jack Ma, un defensor abierto de la cultura del trabajo extremo de China, ha afirmado esta madrugada en la Conferencia Mundial de Inteligencia Artificial (IA) celebrada en Shanghái, que espera que las personas puedan trabajar solo 12 horas a la semana con los beneficios de la inteligencia artificial. El cofundador de Alibaba sostuvo que la gente podrá trabajar cuatro horas durante tres días a la semana, con la ayuda de los avances tecnológicos y una reforma en los sistemas educativos.

Ma citó a la electricidad como un ejemplo de cómo los desarrollos tecnológicos pueden liberar tiempo para el ocio. “El poder de la electricidad es que le pudimos dar más tiempo a las personas para que puedan ir al karaoke o a bailar por la noche. Creo que gracias a la inteligencia artificial, las personas tendrán más tiempo para disfrutar de las relaciones humanas", ha recalcado. 

"Durante los próximos 10 o 20 años, cada ser humano, país y gobierno debería concentrarse en reformar el sistema educativo, para asegurar que nuestros hijos puedan encontrar un trabajo que solo requiera tres días a la semana, cuatro horas al día". dijo. "Si no cambiamos el sistema educativo, todos estaremos en problemas". 

Las declaraciones del empresario se producen pocos meses después de que respaldara la polémica rutina del sector tecnológico de China, que consiste en trabajar las 12 horas al día, seis días a la semana. El apoyo fue tan público que le valió el apodo 996 (trabajo de nueve a nueve, seis días a la semana). En una publicación en un blog, el hombre más rico de China criticó a aquellos trabajadores que esperaban un típico estilo de vida de ocho horas laborales, lo que despertó una ola de crítica en su contra. 

"No me preocupan los trabajos", ha añadido Ma, en referencia a si la inteligencia artificial ayudará a los humanos o eliminará los puestos de trabajo. “Las computadoras solo tienen chips, los hombres tienen el corazón. Es el corazón de donde proviene la sabiduría ".

Elon Musk apuesta por la exploración de Marte

En el mismo debate en la Conferencia Mundial de Shanghái, el consejero delegado de Tesla, Elon Musk, ha afirmado que la IA pronto superará a la raza humana, que la civilización puede terminar y que, por lo tanto, la humanidad necesita explorar el cosmos (específicamente Marte)

"No tenemos mucho tiempo", ha advertido el empresario estadounidense. "Esta es la primera vez en los 4.500 millones de años de la historia de la Tierra, en la que podremos extender la vida más allá de la Tierra", ha agregado. "Aseguremos el futuro para que la luz de la conciencia no se extinga".

A diferencia de la postura de Ma, que presenta a la IA como algo positivo, capaz de ayudar a los seres humanos, Musk se mantiene en la postura de que las máquinas podrán superar a la raza humana. "El error más grande que veo que la gente comete es asumir que son inteligentes ", ha afirmado el empresario, y ha añadido: "La gente subestima la capacidad de la IA. Piensan que es un humano inteligente. [Pero va a ser] mucho más inteligente que el humano más inteligente que puedan conocer". 


Colapso demográfico y desarrollo de la IA: Musk señala los principales problemas de la humanidad en el futuro

 

Este jueves, el fundador y director ejecutivo de Tesla y SpaceX, Elon Musk, expuso su visión sobre los peligros que amenazan a la humanidad. Lo hizo durante un debate público con el fundador de la compañía china Alibaba, Jack Ma, en el marco de la conferencia World Artificial Intelligence, que se celebra en Shanghái.

En particular, advirtió que el problema demográfico real no es el exceso —como se suele considerar—, sino la falta de población.

"La mayoría de la gente cree que tenemos demasiadas personas en el planeta. Esta es una visión anticuada. Suponiendo que haya una IA [inteligencia artificial] benévola, el mayor problema que enfrentará el mundo en 20 años es el colapso de la población. No es una explosión. Colapso", explicó el empresario.

Por su parte Ma, quien había afirmado antes que "los mejores recursos en la Tierra no son el carbón, ni el petróleo, ni la electricidad, sino los cerebros humanos", expresó su acuerdo con esa noción y opinó que China podría hacer frente a "grandes problemas" demográficos en las próximas dos décadas.

En otro momento de la discusión, Musk se quejó de que se suelen sobreestimar las habilidades mentales del hombre en comparación con la inteligencia de las computadoras.

"La gente subestima la capacidad de la IA. Piensan que es un humano inteligente. [Pero va a ser] mucho más inteligente que el humano más inteligente que puedas conocer", dijo el fundador de Tesla y sugirió que un día la tecnología "llegará a un punto donde casi completamente simula a una persona, muchas personas simultáneamente".

"Somos muy tontos y […] definitivamente podemos hacer cosas más inteligentes que nosotros mismos", reiteró en desacuerdo con Ma, quien es mucho más optimista sobre el futuro de la IA y piensa que "los humanos nunca podrán crear otra cosa que sea más inteligente que ellos mismos"

Publicado: 29 ago 2019 22:35 GMT

Fuente, Rusia Today

Publicado enSociedad
Ingenieros ponen el telescopio Webb en posición momentos antes del ensamblaje. Foto: NASA.

Ingenieros han ensamblado por primera vez el telescopio espacial más potente hasta ahora construido, lo que podría ser un hito para la ciencia espacial, informa la NASA.

Una vez en el espacio, se espera que el James Webb (JWST por sus siglas en inglés) explore el universo utilizando luz infrarroja. Su objetivo es estudiar desde planetas y lunas que se encuentran en nuestro sistema solar hasta las más antiguas y distantes galaxias.

Para ensamblar las dos mitades del JWST, los ingenieros utilizaron una grúa para posicionar el telescopio sobre una nave espacial que cuenta con un escudo solar, asegurándose de que todos los componentes y puntos de contacto estuvieran perfectamente alineados.

En palabras de Bill Ochs, director del proyecto JWST, el ensamblaje del telescopio y sus instrumentos científicos, el escudo solar y la nave espacial en un solo observatorio, representa un logro increíble para el equipo del Webb y simboliza el esfuerzo de miles de personas dedicadas durante más de 20 años.

Para las siguientes pruebas, los ingenieros desplegarán el intrincado escudo solar de cinco capas, mismo que mantendrá a salvo los espejos y el equipo científico de la radiación infrarroja producida por la Tierra, la Luna y el Sol. El éxito de la misión depende en gran medida de que el escudo se despliegue correctamente.

Los componentes principales del JWST han sido probados individualmente en los posibles escenarios a los cuales se enfrentará durante el viaje en cohete y la misión en órbita a casi 1.610.000 kilómetros de distancia de la Tierra.

El telescopio Webb es producto de un esfuerzo conjunto de la NASA, la ESA (Agencia Espacial Europea) y la Agencia Espacial Canadiense. Se espera que sea el principal observatorio de ciencias espaciales a nivel mundial y ayude a desentrañar las misteriosas estructuras y orígenes de nuestro universo, así como nuestro lugar en él.

29 agosto 2019 

 Hao Huang, en una imagen del autor en la página mathcs.emory.edu (Hao Huang@emory). mathcs.emory.edu

Hao Huang demuestra después de 30 años la llamada conjetura de la sensibilidad, que se engloba en la teoría de la complejidad computacional

 

Cuando un problema matemático importante, que lleva 30 años propuesto, acaba por resolverse en dos escasas páginas de razonamiento, no cabe más que darse la enhorabuena. Como aquel sacrificio de dama en una partida de ajedrez que fascina por la creatividad de su estratega, esas dos páginas de inventiva matemática son un regalo para cualquier admirador de la disciplina. Su autor, Hao Huang, matemático e informático teórico de la Universidad de Emory (EE UU), probó la llamada conjetura de la sensibilidad en un artículo deseis páginas (dos de demostración y el resto para centrar el contexto y para enunciar consecuencias y derivadas del resultado), que publicó a principios de julio en ArXiV, un repositorio abierto de artículos científicos. Unas horas después las redes sociales ya se felicitaban. El influyente blog de Gil Kalai, de la Universidad Hebrea de Jerusalén, anunciaba: "Increíble: ¡Hao Huang demuestra la conjetura de la sensibilidad!". Al rato, Ryan O'Donnell, investigador de Carnegie Mellon, comprimía las dos milagrosas páginas en los 282 caracteres de un tuit.

La conjetura de la sensibilidad fue enunciada por Noam Nisan y Mario Szegedy en 1989, y se engloba en la informática teórica, en concreto la teoría de la complejidad computacional, con aplicaciones a la teoría de la elección social. Tomar decisiones no es tarea fácil. Para hacerlo, tanto máquinas como humanos nos apoyamos en reglas de decisión o algoritmos, es decir, métodos sistemáticos previamente diseñados. Supongamos que debemos tomar una decisión binaria, sí o no, basados en el resultado de un número (N) de datos, también binarios. Por ejemplo, podría tratarse de aprobar o no un texto legal, basándonos en los votos de un cuerpo electoral (cada voto sería uno de los datos).

Algunas de estas reglas de decisión serán más sensibles a los cambios en los datos que otras. En el ejemplo anterior, si la elección se basa en la opinión mayoritaria de la totalidad de los electores, entonces el resultado es sensible a exactamente la mitad más una de las opiniones: si exactamente N/2+1 de los votantes aprobaron el texto, un cambio de opinión de cualquiera de esos electores haría cambiar el resultado. De forma general, se dice que una regla de decisión es sensible para ciertos datos, si cambiando uno de ellos se cambia la decisión final. El grado de sensibilidad de la regla de decisión es el máximo número de datos a los que la regla puede ser sensible en el peor de los casos (es decir, en los casos frontera extremos).

Siguiendo con el ejemplo anterior, si dividimos a los electores en K distritos electorales iguales y basamos el resultado de la elección en que al menos uno de los distritos apruebe el texto por consenso, entonces la sensibilidad de la regla de decisión se reduce a N/K, o a K, según cuál sea mayor. Efectivamente, los casos frontera extremos se dan cuando exactamente un distrito alcanza el consenso, o cuando todos se quedan a un voto del consenso. En el primer caso solo N/K cambios de opinión podrían afectar al resultado, mientras que en el segundo solo K.

Así es como el grado de sensibilidad de una regla de decisión se puede tomar como baremo para determinar su adecuación en ciertos procesos electorales. Sin embargo, mientras que en algunos contextos está bien motivado y es fácil de determinar, en otros casos no. Por ejemplo, para valorar si una regla de decisión es adecuada para activar o no un nivel de emergencia, pongamos, de riesgo de incendio de una máquina. Para ello, se emplean como datos las mediciones de ciertos parámetros. Se empieza por la temperatura ambiente; si esta excede un cierto nivel, se mide el nivel de humedad; en caso contrario, se mide el nivel de agua del radiador. Cuantas menos mediciones se requieran, mejor. En este caso, valoramos la adecuación de la regla de decisión en base a la complejidad de preguntas, y este es otro de los muchos baremos para reglas de decisión.

Pero ¿se puede establecer alguna relación entre estos baremos? Sabemos que la complejidad de preguntas de una regla de decisión no puede ser menor que su grado de sensibilidad, puesto que si alguna de las mediciones sensibles queda sin respuesta, la decisión no puede estar determinada. ¿Podría ser que, a su vez, hubiera una relación inversa? Precisamente eso postula la conjetura de la sensibilidad: que, sea cual sea la regla de decisión, su complejidad de preguntas es menor que una potencia de su grado de sensibilidad. Combinada con la observación anterior, la conjetura, ahora teorema gracias a Huang, establece que el grado de sensibilidad y la complejidad de preguntas son, a escala logarítmica, baremos equivalentes.

En sus escasas dos páginas de argumentación, Huang demuestra la conjetura apoyándose en resultados previos que redujeron el problema a uno sobre subgrafos inducidos del hipercubo N-dimensional. Huang, que es un especialista de la teoría espectral de grafos, redujo a su vez el problema a uno sobre valores propios de matrices de signos. El célebre Teorema de Entrelazados de Cauchy hizo el resto.

Se da la circunstancia que Huang estaba en Madrid cuando dio con la solución (su mujer estaba visitando el ICMAT). Según cuenta, se refugiaba en la habitación de su hotel durante la espectacular ola de calor que asedió Europa a finales de junio. Al parecer el calor duró lo justo y necesario para que Huang pudiese completar, en aquellos pocos días, 30 años de búsqueda.

Por Albert Atserias, catedrático de Informática Teórica de la Universitat Politècnica de Catalunya

Café y Teoremas es una sección dedicada a las matemáticas y al entorno en el que se crean, coordinada por el Instituto de Ciencias Matemáticas (ICMAT), en la que los investigadores y miembros del centro describen los últimos avances de esta disciplina, comparten puntos de encuentro entre las matemáticas y otras expresiones sociales y culturales y recuerdan a quienes marcaron su desarrollo y supieron transformar café en teoremas. El nombre evoca la definición del matemático húngaro Alfred Rényi: "Un matemático es una máquina que transforma café en teoremas".

Edición y coordinación: Ágata Timón (ICMAT).

Los científicos que quieren crear animales con células humanas se van a China o Japón para sortear barreras legales y éticas

Durante los últimos años varios equipos de científicos han experimentado con embriones animales a los que se les introducen células humanas. Este miércoles se ha sabido que un equipo de científicos españoles ha conseguido hacerlo con monos en China, según una información publicada por El País, y que lo han hecho para evitar las barreras legales que hay en Europa o EEUU. Además, la semana pasada, la revista Nature adelantaba que Japón dará permiso para implantar los embriones obtenidos en este tipo de experimentos y llevar a término la gestación, algo que, hasta ahora, estaba prohibido. Los dos países asiáticos se convierten así en la punta de lanza de un área de la ciencia encaminada a desarrollar órganos humanos en animales con el objetivo de ser utilizados en transplantes, pero también abren el debate sobre los límites éticos y legales de este tipo de experimentos.

La creación de quimeras con células humanas no está prohibida ni en España, ni en la UE, pero existen ciertos límites, dado que el embrión nunca puede llegar a implantarse, ni llevarse a término. En EEUU la investigación también se permite, pero los Institutos Nacionales de Salud, principal entidad financiadora de estudios de biomedicina, establecieron en 2015 una moratoria sobre el uso de fondos públicos para estos experimentos.

El equipo del investigador Juan Carlos Izpisúa, que está repartido entre el Instituto Salk (EEUU) y la Universidad Católica de Murcia (UCAM), ha conseguido introducir con éxito células humanas en embriones de mono. Aunque se desconocen los detalles de este experimento, se sabe que los embriones no se han llevado a término. Sin embargo, la investigación se ha desarrollado en China, debido a que ni EEUU, ni la UE permiten llevar a cabo este tipo de experimentos con primates.

¿Cualidades humanas en los animales?

El objetivo de la creación de estas hibridaciones es ver cómo se comportan las células de una especie en otra y, en el caso de células humanas, "lo que interesa es estudiar aspectos del desarrollo humano al que no podemos tener acceso durante el desarrollo de un embrión en el útero materno", explica a eldiario.es Ángel Raya, director del Centro de Medicina Regenerativa de Barcelona (CMRB).

La controversia a la hora de crear quimeras con células humanas se basa en la posibilidad de que los animales puedan adquirir accidentalmente cualidades humanas, por ejemplo, si las células llegaran al cerebro del animal. Este problema es especialmente relevante en caso de que el experimento se lleve a cabo con primates, dado que su cercanía evolutiva hace que sea más probable que sus cerebros se vean alterados por células humanas.

Además, algunos investigadores también plantean el riesgo de que las células humanas puedan llegar a los tejidos reproductivos del animal. "Como las quimeras se están haciendo con células madre pluripotentes, aunque dirijas de alguna forma estas células hacia un órgano concreto, la posibilidad de que alguna de ellas de lugar a células germinales existe", afirma Raya.

A pesar de ello, los investigadores involucrados en estos experimentos aseguran que gracias a las nuevas técnicas de edición genética, como CRISPR-Cas9, se podría conseguir que las células humanas se dirijan de forma más controlada a órganos específicos, evitando zonas polémicas como el cerebro o los tejidos reproductivos.

"Efectivamente, hay formas de impedir que surjan estos problemas, pero lo más sencillo es impedir que el animal llegue a nacer", asegura Raya, en referencia a las limitaciones legales que solo permiten experimentar con los embriones durante un periodo limitado y sin que la gestación llegue a término.

Viajar para evitar restricciones

Para evitar estas limitaciones, los investigadores podrán viajar ahora a Japón, que el pasado mes de marzo modificó la normativa que regula este tipo de experimentos. La nueva legislación, publicada por el Ministerio de Educación y Ciencia del país nipón, permite que las quimeras puedan ser llevadas a término, algo que no se había hecho hasta ahora, ya que todos los experimentos desarrollados a nivel internacional se interrumpían a los pocos días de desarrollo del embrión.

Uno de los grandes beneficiados del cambio de normativa es el biólogo japonés Hiromitsu Nakauchi, que lleva años investigando con quimeras no humanas, desarrolladas con ratas y ratones. En 2014, Nakauchi trasladó su laboratorio a Stanford desde la Universidad de Tokio, porque la legislación japonesa no le permitía experimentar con células humanas, pero al llegar se encontró con la moratoria norteamericana. Ahora, tras la nueva regulación de Japón, Nakauchi se convertirá en el primer investigador en obtener permiso para realizar estos experimentos en suelo japonés.

"Como científico, esa barrera nos impedía hacer algunos experimentos y levantarla va a suponer un beneficio para todos", afirma el director del CMRB, "pero también soy consciente de que si existía esa barrera es porque la sociedad no está cómoda levantándola". Raya considera que la decisión de Japón es razonable y defiende este tipo decisiones, "siempre y cuando se expliquen a la sociedad para que tengan aceptación".

Aunque Nakauchi podrá finalmente hacer experimentos con embriones animales y células humanas, estos no serán los primeros en llevarse a cabo, ya que, en enero de 2017, el equipo de Izpisúa logró cultivar, por primera vez, células madre humanas en embriones de cerdo.

El experimento, que se realizó con cerdos de una granja de Murcia, fue aprobado tanto por las autoridades españolas, como por las de California y las quimeras se eliminaron después de unas pocas semanas de desarrollo, tal y como indicaba la ley. Sin embargo, en esta ocasión el investigador español ha decidido realizar su nueva investigación en China, porque, "en principio, aquí no se pueden hacer", según reconoció a El País la vicerrectora de investigación de la UCAM, Estrella Núñez.

China, objetivo de las críticas

"Da la sensación es que los científicos que se marchan a China quieren eludir cualquier tipo de debate ético", cuenta a eldiario.es Carlos María Romeo, director de la Cátedra de Derecho y Genoma Humano de la Universidad del País Vasco. Según este catedrático, "los científicos no son seres puros, sino que son como el resto de los mortales, que a veces se mueven por la notoriedad o por ser los primeros en algo y algunos son bien conocidos por seguir este camino".

Además, Romeo acusa al gigante asiático de no tomarse las regulaciones bioéticas demasiado en serio. "Hablar de bioética en China es como hablar de marcianos en Marte, utilizan el nombre pero no la respetan en absoluto, al menos no como está concebida en occidente". Romeo recuerda que durante los últimos años "no solo ha saltado la polémica de los bebés editados genéticamente, sino que también se sabe que China obtiene órganos para transplantes de los presos que fallecen en prisión".

Sin embargo, no toda la comunidad científica comparte esta visión del país asiático. "Nunca he tenido la sensación de que en China se puedan saltar las restricciones éticas más de lo que lo podamos hacer nosotros", cuenta Raya, quien recuerda que "cuando saltó la polémica de los bebés editados genéticamente, algunos investigadores pidieron una moratoria sobre la edición de la línea germinal, algo que varios laboratorios de EEUU ya estaban haciendo". Al final concluye este investigador, "hay que reconocer la hipocresía de quien está viendo mermada su hegemonía".

Dos décadas de células madre

Las células madre se obtuvieron por primera vez de embriones humanos en 1998 y de células ordinarias en 2007. Desde el principio, uno de los objetivos ha sido desarrollar tejidos in vitro a partir de estas células, pero el escaso éxito obtenido ha llevado a algunos biólogos, como Izpisúa o Nakauchi, a considerar que una mejor opción es cultivar estos tejidos u órganos en embriones en desarrollo. Sin embargo, no todos tienen tan claro que esta posibilidad sea realista. "Es una herramienta muy poderosa para estudiar cómo se desarrollan los órganos humanos, pero tengo mis dudas de que pueda ser una solución práctica para transplantes", afirma Raya. "Si un día pudiéramos desarrollar órganos funcionales en un animal, algo que técnicamente aún no es posible, veo complicado que se pueda transplantar a una persona, porque siempre tendrás células del animal”, concluye el director del CMRB.

31/07/2019 - 21:23h

El trabajo de Katherine Johnson fue esencial para el logro que llevaría a Estados Unidos a la victoria en la carrera espacial con la Unión Soviética. Foto: Archivo histórico de la NASA.

 

En los primeros años de la Administración Nacional de la Aeronáutica y del Espacio (NASA, por sus siglas en inglés) los encargados de descifrar ecuaciones numéricas complejas eran las llamadas “computadoras humanas”, Katherine Johnson era una de las personas que realizaban este trabajo, y una de sus principales contribuciones a la exploración espacial fue la serie de cálculos que realizó para el Proyecto Mercury y el vuelo del Apolo 11 a la Luna en 1969.

La exploración de la Luna a través de sondas automáticas o naves tripuladas con el objetivo de sobrevolar, orbitar la Luna o alunizar en ella se inició a finales de la década de 1950. La antigua Unión Soviética fue la pionera al realizar misiones lunares no tripuladas, pero el Proyecto Apolo de los Estados Unidos fue el único que realizó misiones lunares con tripulación.

La misión Apolo 11 se envió al espacio el 16 de julio de 1969, llegó a la superficie de la Luna el 20 de julio de ese mismo año y al día siguiente Neil Armstrong y Edwin Aldrin caminaron sobre la superficie lunar, mientras su compañero Michael Collins se quedó en el módulo de mando, el Columbia, orbitando alrededor del satélite.

Es así que el trabajo de Katherine Johnson fue esencial para el logro que llevaría a Estados Unidos a la victoria en la carrera espacial con la Unión Soviética.

La pionera en ciencia espacial y computación se graduó de West Virginia State College en 1937. Después de asistir a la escuela de posgrado y trabajar como maestra en una escuela pública, en 1953 empezó a trabajar en el Centro de Investigación Langley de la NASA en Hampton, Virginia, como una de las “calculistas del Área Oeste”, sus primeros cuatro años ahí analizó datos de pruebas de vuelo y trabajó en la investigación de un accidente aéreo causado por turbulencia de estela.

En 1957, Katherine proporcionó algunas de las matemáticas para el documento Notas sobre tecnología espacial, un compendio de una serie de conferencias de 1958 impartidas por ingenieros de la División de Investigación de Vuelo y la División de Investigación de Aeronaves sin Piloto.

Katherine Johnson se encargó de calcular el momento en el que el módulo lunar Eagle del Apolo 11, del que descenderían los astronautas, debía abandonar el satélite para que su trayectoria coincidiese con la órbita que describía el módulo de mando nombrado Columbia y pudiera así acoplarse a él para regresar a la Tierra.

En 1960, ella y el ingeniero Ted Skopinski fueron los autores de Determinación del ángulo de azimut en el quemado para colocar un satélite sobre una posición terrestre seleccionada, un informe que presenta las ecuaciones que describen un vuelo espacial orbital en el que se especifica la posición de aterrizaje de la nave espacial.

Más tarde hizo el análisis de trayectoria para la misión Freedom 7 de Alan Shepard en mayo de 1961, el primer vuelo espacial humano de Estados Unidos, ella verificó las ecuaciones orbitales para el control de la trayectoria de la cápsula de esta misión, desde el despegue hasta la descarga.

En 1962, mientras la NASA se preparaba para la misión orbital de John Glenn, Katherine Johnson fue llamada para hacer el trabajo por el que sería más conocida. La complejidad del vuelo orbital había requerido la construcción de una red mundial de comunicaciones que conectaba estaciones de rastreo por todo el mundo con ordenadores IBM en Washington, DC, Cabo Cañaveral y las Bermudas.

Los ordenadores habían sido programados con las ecuaciones orbitales que controlarían la trayectoria de la cápsula en la misión de Glenn, desde el despegue hasta el amerizaje, pero a los astronautas no les entusiasmaba la idea de poner sus vidas en manos de las máquinas electrónicas de cálculo, pues eran propensas a los problemas y a los apagones. Como parte de la lista de verificación previa al vuelo, Glenn pidió a los ingenieros que «trajeran a la chica» -Katherine Johnson- para que hiciera los mismos cálculos con las mismas ecuaciones que habían sido programadas en el ordenador, pero a mano, en su calculadora mecánica de escritorio. «Si ella dice que están bien», recuerda Katherine Johnson que dijo el astronauta, «entonces estoy listo para partir». El vuelo de Glenn fue un éxito y marcó un punto de inflexión en la carrera espacial entre Estados Unidos y la Unión Soviética.

La matemática estadounidense trabajó más de catorce horas diarias en el programa conocido como Lunar Orbit Rendezvous, procedimiento para enviar una nave tripulada en vuelo a la Luna. Este método, que se empleó en las misiones Apolo utilizaba dos vehículos que despegaban en el mismo cohete y viajaban unidos, uno para ir y volver de la Luna, y otro más pequeño para alunizar.

Johnson se encargó de calcular el momento en el que el módulo lunar Eagle del Apolo 11, del que descenderían los astronautas, debía abandonar el satélite para que su trayectoria coincidiese con la órbita que describía el módulo de mando nombrado Columbia y pudiera así acoplarse a él para regresar a la Tierra.

De acuerdo con la biografía de Katherine G. Johnson según la NASA, ser escogida para ser uno de los tres estudiantes negros que comenzaron el proceso de integración las escuelas de postgrado de Virginia Occidental es algo que mucha gente consideraría uno de los momentos más notables de su vida, pero es sólo uno de los muchos avances que han marcado la larga y notable vida de Katherine Johnson.

Nacida en White Sulphur Springs, Virginia Occidental, en 1918, la gran curiosidad y brillantez de Katherine Johnson con los números hicieron que adelantara varios cursos en la escuela. A los trece años ya iba al instituto el campus del histórico West Virginia State College. A los dieciocho años, se matriculó en la universidad propiamente dicha, donde no tuvo ningún problema en completar el currículo de matemáticas y encontró un mentor en el profesor de matemáticas W. W. Schieffelin Claytor, el tercer afroamericano en obtener un doctorado en matemáticas. Katherine se graduó con los más altos honores en 1937.

Katherine Johnson también trabajó en el transbordador espacial y el Landsat 1, y fue autora o coautora de 26 trabajos de investigación. Trabajó en el Centro de Investigación Langley de la NASA desde 1953 hasta que se jubiló en 1986, después de treinta y tres años. «Disfruté yendo a trabajar todos y cada uno de los días», dice. En 2015, a la edad de 97 años, Katherine Johnson agregó otro logro extraordinario a su larga lista: el presidente Obama le otorgó la Medalla Presidencial de la Libertad, el más alto honor civil de Estados Unidos y hasta la fecha es la única mujer de la NASA que ha recibido este reconocimiento.

En 2017, la NASA le puso el nombre de Katherine G. Johnson a uno de sus más potentes centros de cálculo el “Centro de Investigación Computacional Katherine G. Johnson”.

 

19 julio 2019 

Ilustración del enriquecimiento de uranio elaborada por Nuclear Threat Initiative

El uranio se compone de dos elementos y solo el más minoritario es válido para la fabricación de una bomba nuclear. Potenciar ese elemento es lo que se conoce como "enriquecer" el uranio

Irán está enriqueciendo uranio al 4,5% después de que Trump haya roto el acuerdo que mantenía un límite del 3,67% a cambio de suspender las sanciones de EEUU

Todo uranio altamente enriquecido (por encima del 20%) se puede utilizar para crear la bomba

 

 

Tras la salida unilateral de EEUU del acuerdo nuclear con Irán y el restablecimiento de las sanciones, Teherán ha decidido violar el acuerdo y ha anunciado que está enriqueciendo uranio al 4,5%. El mundo se echa las manos a la cabeza, pero ¿qué es enriquecer uranio y qué significan esos porcentajes para alguien que la última vez que vio una tabla periódica fue en Breaking Bad?

El elemento más utilizado para fabricar una bomba nuclear es el uranio. Extraído directamente de la naturaleza, el uranio se compone principalmente de dos elementos (isótopos): el U238 y el U235. Respecto a la composición de este mineral, el 99% es U238 y solo el 0,7% es U235. El problema es que el único isótopo que vale para hacer la bomba es el uranio 235 y por eso hay que enriquecerlo modificando su composición y aumentando el porcentaje de este elemento.

"La cantidad óptima para fabricar la bomba es tener una composición isotópica del 90% de enriquecimiento, lo que pasa es que no se puede esperar a que un país tenga el 90% porque eso significa que ya tiene la bomba", señala Vicente Garrido, profesor de la Universidad Rey Juan Carlos y asesor en materia de desarme del secretario general de la ONU entre 2014 y 2017.

Irán llegó a la mesa de negociaciones para el acuerdo nuclear con capacidad y pretensiones del 20% y aceptó limitar el proceso de enriquecimiento al 3,67% –siempre a cambio del levantamiento de las sanciones–. "El 3,67% fue una sorpresa. Incluso durante las negociaciones se hablaba de que iban a permitir un 5%. El 5% sería aceptable", añade.

En este sentido, Garrido recuerda que el 4,5% anunciado esta semana por Teherán sigue siendo un porcentaje inferior a la cantidad con la que se presentó en la mesa de negociaciones. "Es una medida de presión a la UE, a la que piden alguna contraprestación a las sanciones de EEUU, como por ejemplo un compromiso de comprar más petróleo iraní", explica. El problema para Europa es que EEUU aplica sanciones extraterritoriales, es decir, no solo prohíbe a las empresas estadounidenses hacer negocios con Irán, sino que su objetivo es que nadie haga negocios con la república islámica. Donald Trump lo resume muy bien: "Cualquiera que haga negocios con Irán no hará negocios con EEUU". Por tanto, las empresas europeas se han visto en la tesitura de elegir con quién hacer negocios: Irán o EEUU.

"Si no pasa nada en los próximos 60 días, tendremos que pasar a la siguiente fase", ha advertido el embajador de Irán ante la ONU. "Los elementos de la tercera fase no se conocen todavía, pero cuando llegue, anunciaremos lo que vamos a hacer", ha añadido.

Garrido asegura que "lo que realmente preocuparía es que recuperen el 20%" y advierte que "tienen capacidad para ello". "Depende solo de voluntad y de encender las centrifugadoras", señala. "La linea roja de todo esto sería volver a activar el reactor de Arak porque es de plutonio y el plutonio no tiene ningún uso civil, solo vale para fabricar la bomba. Esto ya sería un paso muy grave", añade.

Si el 20% dista tanto del 90% necesario para la bomba ¿por qué preocupa tanto este porcentaje? Pasar del 20 al 90 requiere una mínima parte del esfuerzo y recursos necesarios para lograr el 20% inicial. Cuanto más enriquecido está el uranio, más fácil es seguir enriqueciéndolo. Aproximadamente el 83,5% de los esfuerzos se invierten en llegar al 4% de enriquecimiento. Un 8,5% de los esfuerzos en llegar al 20% y un 8% en alcanzar el 90% final.

¿Cómo se enriquece uranio y cuántos kilos hacen falta?

Como el U235 y el U238 son idénticos en su composición química, no se pueden utilizar técnicas químicas utilizadas habitualmente para purificar sustancias. Sin embargo, el U235 y el U238 tienen una ligera diferencia en peso y masa de en torno el 1%. Es esta pequeña diferencia la que se explota para separar ambos elementos, ya que los dos isótopos se mueven a velocidades diferentes cuando se someten a una misma fuerza. El material se introduce en una centrifugadora y el U238, ligeramente más pesado, se queda en la parte exterior, mientras que el U235 permanece en el centro. El uranio, convertido en gas, pasa de una centrifugadora a otra hasta que se completa el proceso de separación.

El uranio enriquecido entre el 0,7% y el 20% se considera uranio poco enriquecido. La mayoría de los reactores nucleares utilizan como combustible uranio poco enriquecido de entre el 3% y el 5%. Todo el uranio enriquecido por encima del 20% se considera uranio altamente enriquecido y se puede utilizar para crear un explosivo, pero cuanto menor sea el enriquecimiento más material se necesitará para construir el explosivo. Según Nuclear Threat Initiative, con un enriquecimiento del 20% se necesitaría una masa crítica de 143 kilos para la bomba, mientras que con un enriquecimiento del 93% solo harían falta 12 kilos.

Para Estados Unidos, la reciente decisión de Irán de pasar al 4,5% de enriquecimiento es una extorsión ilegítima. Para Irán, un acto legal bajo el texto del acuerdo, en el cual se explica que "Irán considerará el restablecimiento de las sanciones como motivo para dejar de cumplir total o parcialmente sus compromisos bajo el acuerdo".

Por Javier Biosca Azcoiti

13/07/2019 - 20:54h

 

Página 1 de 20