Albert Fert, premio Nobel de Física 2007 WIKIMEDIACOMMONS | JEVILLEGAS

Albert Fert, el premio Nobel de Física en 2007, argumenta que, en 2030, el 20% del consumo de energía mundial vendrá de la transmisión digital de los datos

Si tuviéramos la capacidad de diseñar el ordenador o móvil ideal, ¿cómo sería? Muchos usuarios se centrarían en la estética, otros en la funcionalidad o la originalidad. Pero en realidad, los físicos como Albert Fert (Carcassone, Francia, 1938), que desde la semana pasada se encuadra como investigador distinguido en el departamento de Física de Materiales de la Universidad del País Vasco, se preocupan por la capacidad de almacenamiento, el consumo de energía y la duración de la batería.

"Lo más incómodo de los teléfonos actuales es tener que recargarlos constantemente", explica a SINC el premio Nobel de Física en 2007, junto al alemán Peter Grünberg, durante una de sus últimas visitas a España en el festival Passion for Knowledge. Varias compañías ya están en proceso de fabricación de estos móviles que podrán durar de siete a quince días sin ser recargados.

"Después no tengo una idea particular de cómo será ese móvil del futuro", confiesa el descubridor de la magnetorresistencia gigante (1988), un efecto de la mecánica cuántica que ha permitido miniaturizar los lectores de los discos duros de los ordenadores y aumentar su capacidad de almacenamiento.

Esto dio lugar a la espintrónica, una tecnología que manipula el estado cuántico de las partículas –el espín del electrón– para aplicaciones en la industria informática. Gracias a sus propiedades, el resultado serán móviles, ordenadores y discos duros, entre otros, más eficientes, rápidos y con mayor capacidad de almacenamiento.

Pero para Fert, hasta ahora director científico de la Unidad Mixta de Física del CNRS/Thalès en Francia, el reto en la mejora de los ordenadores y discos duros es encontrar nuevos materiales que permitan reducir el consumo de energía. "El 20% del consumo de electricidad del mundo en 2030 vendrá de la transmisión digital de los datos", dice el físico, recordando un estudio publicado en la revista Challenges.

¿A qué equivale buscar en Google?

Los data centers o centros de procesamientos de datos, espacios donde se gestiona toda la información por parte de grandes empresas y organizaciones, son sin duda los mayores consumidores de energía, más incluso que los propios ordenadores personales. 

"Como cada vez más cosas pasan por internet, el consumo energético de los data center aumentará en los próximos diez años en un factor 10", señala el físico francés, que subraya que un centro de datos de Google en EE UU gasta tanta energía como la ciudad de San Francisco.

¿Pero a qué equivale la energía que gastamos con la navegación por la red? "Una información que siempre doy es que treinta búsquedas en Google corresponden a la energía necesaria para hervir un litro de agua", puntualiza Fert. Con este dato no es difícil extrapolar la ingente cantidad de electricidad que se consume, y que afecta directamente al medio ambiente, solo para mantenernos informados.

Fert lo tiene claro: "Gastamos inútilmente cuando buscamos en internet. Con un ordenador podríamos encontrarlo directamente pero, por pereza, volvemos a pasar por Google y creamos enlaces para llegar a una web". Ni siquiera las energías renovables, como la solar y la eólica, son capaces en la actualidad de compensar el gasto energético de los ordenadores.

A pesar de las predicciones para la próxima década, con la creación de la computación en la nube y conexiones de inteligencia artificial, que no harán más que incrementar el consumo, solo la tecnología será capaz de reducir este gasto. Y es aquí donde la espintrónica de Fert tiene algo que decir.

Menos energía y más espacio

El premio Nobel francés plantea una cuestión frente a este problema: "¿Cómo continuar mejorando las tecnologías de la información a la vez que se frena un poco esta hemorragia de consumo energético?". Para ello, pronto llegará una nueva generación de ordenadores que consumirán mucho menos y estarán basados en efectos de la mecánica cuántica.

"En la actualidad, en los ordenadores lo que consume la energía es la memoria RAM, el almacenamiento de datos que para cumplir su labor tiene que estar continuamente proporcionando energía", declara a SINC el físico.

Ahora la producción de almacenamiento masivo ya se está produciendo en Samsung o IBM –que llevó al mercado la magnetorresistencia gigante en 1997– con los STT-RAM (spin-transfer torque magnetic random-access memory) que están basados en principios de la espintrónica, en particular sobre fenómenos cuánticos como es el efecto túnel cuántico que depende del espín, una propiedad cuántica de los electrones.

El investigador colaboraba con el centro de investigación vasco nanoGUNE para desarrollar una nueva generación de microprocesadores con la compañía Intel. Gracias a la espintrónica, busca soluciones para mejorar la eficiencia de microprocesadores con nuevos materiales.

"Aún hoy las puertas lógicas de los ordenadores consumen mucha energía. El proyecto con Intel se basa en aislantes topológicos, unos sistemas bidimensionales con propiedades muy especiales que permiten transformar señales magnéticas en señales eléctricas de manera muy económica y eficaz", explica el físico.

En los últimos años el desarrollo de la espintrónica se ha acelerado hacia múltiples direcciones, y no solo culmina en discos duros y productos de STT-RAM.

Un ordenador que imita el cerebro

Una de las aplicaciones son los ordenadores y sistemas neuromórficos, es decir computadoras inspiradas en el cerebro. "Esto está empezando", recalca el físico. En la actualidad, los ordenadores bioinspired reproducen las sinapsis y las neuronas con microcircuitos.

"Pero hacen falta cientos de transistores para hacer una neurona y decenas para hacer una sinapsis, y el resultado son ordenadores enormes que consumen también mucha energía como los del programa Alphago, que gastan 10.000 veces más energía que el jugador de Go que tiene enfrente", especifica el francés.

Estas máquinas utilizan un tipo de cálculo diferente, más bien neuronal, al que usan los ordenadores habituales, principalmente digital. En este caso, tienen compuestos específicos basados en otros materiales nanofísicos.

"En toda la informática actual, lo que gasta mucha energía es que hay vaivenes incesantes entre operación lógica y memoria. Incluso en los microprocesadores entre la memoria SRAM (Static Random Access Memory, por sus siglas en inglés) y puertas lógicas es este tipo de escritura y lectura continuo lo que gasta energía", ilustra Fert.

Pero en el cerebro, el proceso difiere: "La memoria y la transferencia de señales a la memoria ocurren a la vez. En cuanto una señal pasa de neurona a neurona, cada vez que se atraviesa una sinapsis, esta cambia y es memorizada", dice el físico. Los señales analógicas del cerebro permiten una visión con más matices que se transmiten por millones de sinapsis y neuronas.

¿Será posible algún día usar ordenadores que imitan al cerebro? Para ello habría que realizar una sinapsis con 50 transistores y una neurona con 500. "Esto es enorme. Si quisiéramos realizar algo con la potencia del cerebro necesitaríamos un ordenador del tamaño de Madrid", confiesa.

Esta tecnología, desarrollada especialmente por la investigadora francesa Julie Grollier, con la que ha trabajado Fert, todavía es limitada. "Aún no existen los componentes ni los efectos que permiten imitar las neuronas y las sinapsis", dice. "Estamos solo al principio", concluye el premio Nobel.

Por Adeline Marcos - Agencia SINC

08/02/2020 - 16:56h

ALMA está compuesto por 66 antenas de alta precisión ubicadas en el llano de Chajnantor, a 5.000 metros de altitud en el norte de Chile. ALMA

Los astrónomos inician una nueva era de descubrimientos en Chile gracias a una nueva configuración de las antenas situadas a kilómetros de distancia entre sí

Los astrónomos han comenzado a usar, por primera vez, la mayor separación posible entre las 66 antenas del radio telescopio ALMA, ubicado en el árido desierto de Atacama, en el norte de Chile, manteniéndolas a una distancia de 15 kilómetros entre sí. ¿El resultado? La mayor nitidez alcanzable con este observatorio capaz de investigar el universo frío, aquel que, a diferencia de estrellas y galaxias, no podemos ver con los telescopios convencionales.

Científicos del Instituto de Astrofísica de la Pontificia Universidad Católica (IA-PUC) y del Centro de Astrofísica y Tecnologías Afines (CATA), en Chile, han logrado con la nueva configuración obtener la imagen más nítida del gas frío ubicado la región central de un choque de galaxias, un gas que alimenta simultáneamente a dos monstruosos agujeros negros supermasivos a 360 millones años luz de nuestro planeta.

Se trata de dos galaxias –algunos expertos hablan de que serían tres- que se encuentran en proceso de colisión en la constelación de Ofiuco, dando origen a una nueva galaxia conocida como NGC 6240. Este proceso es un adelanto de lo que ocurrirá en nuestra propia Vía Láctea cuando se fusione con la vecina Andrómeda, en unos 5.000 millones de años de distancia. De ahí el interés por pasa en este sistema, donde el comportamiento de los agujeros negros es diferente al que había sido predicho desde hace un par de décadas, cuando se comenzó a observar esta formación.

Visión poderosa

Una técnica conocida como “interferometría”, similar a la que se utilizó para obtener la primera imagen del evento de horizonte de un agujero negro en 2019, es la que está permitiendo realizar todos estos hallazgos. La diferencia es que, en el caso del primer agujero negro fotografiado, se utilizaron observatorios en diversos lugares del mundo, con una separación no de decenas, sino de miles de kilómetros.

Ezequiel Treister, astrónomo IA-PUC que lideró la investigación, lo explica: “Sabíamos que utilizar esta técnica abriría la puerta a un universo de nuevos descubrimientos en astronomía. Cuando se combina la luz de más de un receptor, como es el caso de ALMA con 66 antenas, mayor separación entre ellos equivale a mayor nitidez”.

Para tener una idea, podemos comparar esta configuración de antenas con la apertura del espejo en un telescopio convencional como el Hubble. En estos telescopios ópticos, la apertura del espejo, o su diámetro, es la que define el detalle de las imágenes que se obtienen: cuanto más grande sea la apertura, mayor detalle. “La configuración en ALMA tenía antenas con una distancia máxima de 15 kilómetros. Eso permite obtener un detalle de imagen igual al que se conseguiría si tuviéramos un telescopio entero de 15 kilómetros de tamaño/apertura”, explica Hugo Messias, astrónomo de ALMA que participó de la investigación.

Ezequiel Treister cuenta que el trabajo comenzó en 2015, después de una reunión de astrónomos en el Instituto Tecnológico de California, Caltech, donde junto a otros colegas comenzaron a planear propuestas para ALMA. “Las observaciones recién se pudieron realizar en septiembre de 2017. No era fácil hacer coincidir la configuración correcta de las antenas con las condiciones climáticas adecuadas. Y después vino el análisis de los datos. Fueron dos años de intenso trabajo, codo con codo con expertos colaboradores de todas partes del mundo”, relata el astrónomo.

A comienzos del pasado enero, desde las remotas islas de Hawái, donde se desarrollaba la reunión número 235 de la sociedad astronómica estadounidense, se dieron a conocer los resultados de esta investigación, que arroja luces sobre el destino que correrá nuestra propia galaxia.

Turbulenta colisión

Un misterio que se pudo resolver fue el que existía en torno al tamaño de los agujeros negros. “Se pensaba que eran demasiado masivos en proporción a sus galaxias, ya que, al medir sus masas, era imposible separarlos de otro material en la región central, como gas y estrellas”, explica Treister. La investigación pudo medir directamente las masas de los agujeros, concluyendo que corresponden a entre 500 y 1.000 millones de veces la del Sol, unas 100 veces más grande que el que encontramos en el centro de la Vía Láctea, pero proporcionales a lo que se espera para el tamaño de sus galaxias.

También se pudo entender la configuración del gas que se ubica entre los dos agujeros negros: forman una especie de filamento de gas molecular que los une a una distancia similar a la de la Tierra con Próxima Centauri, (la estrella más cercana a nuestro planeta ubicada a cuatro años luz). “Lo que descubrimos sin duda nos sorprendió. En vez del disco rotante predicho hace 20 años, ahora veíamos claramente un filamento de gas uniendo los dos agujeros negros. Esta estructura parece estar estática, pero no lo está”, agrega Franz Bauer, astrónomo del Instituto de Astrofísica de la Universidad Católica que también participó de la investigación.

Estos revolucionarios datos nos indican que la mayor parte del gas detectado se localiza en la región entre los dos agujeros negros y que hay tal cantidad que equivaldría a 10.000 millones de masas solares o unas 15 veces más que todo el gas que encontramos en la Vía Láctea. Parte de este gas es expulsado por intensos vientos a velocidades de alrededor de 500 kilómetros por segundo o más. “Pensamos que, eventualmente, gran parte del gas será expulsado de la región central de la galaxia, mientras que una fracción relativamente pequeña caerá al interior del agujero negro, alimentándolo”, dice Franz Bauer.

A futuro, el potencial de esta técnica de observación es enorme. Una buena parte de las regiones del espacio que no hemos podido ver hasta ahora se hallan “ocultas”, debido al polvo existente en las regiones centrales de las galaxias: este absorbe la luz óptica, lo que explica por qué al observar hacia el centro de la galaxia se aprecia mayormente oscuridad. Una auténtica pared de polvo que hemos aprendido a atravesar y que comienza, de a poco, develar todos sus secretos.

Por Ricardo Acevedo

Santiago de Chile 27 ENE 2020 - 18:44 COT

La nueva era de la computación cuántica: la carrera tecnológica de EU y China

Google anunció su "supremacía cuántica" con un invento revolucionario: una computadora cuántica que puede realizar cálculos en 200 segundos, que a una “supercomputadora ( sic)” clásica, como la Summit del Laboratorio Nacional Oak Ridge, tomaría 10 mil años (https://bit.ly/2WE7nQA)”.

La computación cuántica se basa en la mecánica cuántica, que explica el extraño (sic) comportamiento de las extremadamente pequeñas partículas de la materia (https://nyti.ms/2JNzebM).

John Preskill propuso hace siete años el concepto de "supremacía cuántica": el punto en el que las computadoras cuánticas pueden realizar cosas que las computadoras clásicas no podrían.

Bloomberg apeló a un "optimismo precavido": se trata de un "inmenso logro bajo cualquier medición" cuando una “rudimentaria máquina cuántica mejoró la más veloz supercomputadora por un factor de 1,080 (https://bloom.bg/2WEB9Vn)”.

Las computadoras cuánticas (https://bit.ly/2Ndg94V) "desafían la intuición humana", según Bloomberg, que alerta sobre "algunos riesgos": 1. "La carrera global para dominar la computación cuántica se está calentando con consecuencias impredecibles"; y 2. "Las avanzadas computadoras cuánticas un día podrán amenazar la llave pública de la criptografía que protege la información en el mundo digital. Tales sistemas están basados en problemas matemáticos duros que las computadoras cuánticas podrían teóricamente ser capaces de agrietar con facilidad", por lo que los investigadores en seguridad trabajan para crear “sistemas y parámetros post-quantum (https://bit.ly/34v1hoC)”.

La revista científica Nature sintetiza en su "abstracto" que “la promesa de las computadoras cuánticas radica en que ciertas (sic) tareas computacionales podrían ser ejecutadas exponencial y más velozmente en un procesador cuántico que en un procesador clásico (https://go.nature.com/2r9Gngg)”.

Se refiere al procesador Sycamore de Google y su "dramático (sic) incremento en velocidad en comparación a todos (sic) los conoci-dos algoritmos clásicos" como "una realización experimental de la supremacía cuántica" que "anuncia un paradigma computacional".

Para un público más general, David Yaffe-Bellany (DY-B) explica en The New York Times la hazaña científica de Google en su laboratorio de investigación en Santa Bárbara (California) que desde la década de los 80 buscaba el Santo Grial de la velocidad del cálculo computacional: la “supremacía cuántica (https://nyti.ms/2JIFykL)”.

De inmediato, los celosos investigadores de IBM anunciaron que la “simulación ideal de la misma tarea puede ser realizada en un sistema clásico en 2.5 días con una fidelidad mucho mayor (https://ibm.co/2ptK3Jo)”.

Las implicaciones para la "seguridad nacional (sic) y la criptografía" son inconmensurables.

China –con su adopción también revolucionaria de la tecnología blockchain (https://bit.ly/2NcO4e7) entró de lleno a la competencia tecnológica con EU en varios rubros: desde la 5G pasando por la tecnología cuántica hasta la Inteligencia Artificial (IA).

A juicio de DY-B, "como todos los saltos en tecnología, las máquinas cuánticas son de doble filo: algún día podrán fortalecer los avances en IA; pero también pueden apabullar (sic) la encriptación que protege a las computadoras y que es vital a la Seguridad Nacional o aún a los sitios de comercio digital".

De allí que, aduce DY-B, "los gobiernos de EU y China consideran la computación cuántica como una prioridad nacional" cuando "China invierte 400 millones de dólares en un laboratorio cuántico nacional".

Hoy China encabeza el liderazgo de la “carrera para proteger los datos de la encriptación cuántica (https://nyti.ms/2JNNrFL)”.

China posee el doble de patentes de "tecnología cuántica" que EU, pero tres veces menos de “computadoras cuánticas (https://wapo.st/2NCMgtR)”.

Hoy lo que China y EU definen como "Seguridad Nacional" –desde los hidrocarburos, pasando por los alimentos, hasta la sofisticada tecnología– ha cesado de serlo para el aldeanismo de los países avasallados e intoxicados por la propaganda, hoy caduca, del globalismo neoliberal.

www.alfredojalife.com

Facebook: AlfredoJalife

Vk: id254048037

John Martinis posa en el ICMAT delante de un esquema de circuitos dibujado por él mismo. / Álvaro Muñoz Guzmán (SINC)

John Martinis fue fichado por Google para construir el primer ordenador cuántico. El físico ha visitado esta semana Madrid en medio del revuelo causado por la filtración de un artículo científico, aún no publicado oficialmente, en el que se afirma que la compañía habría logrado lo que se denomina 'supremacía cuántica', algo que ponen en entredicho sus competidores.

 

John Martinis es uno de los mayores expertos del mundo en computación cuántica, un campo científico y tecnológico en auge, cuyo objetivo es procesar información a altísimas velocidades basándose en los quantum bits (cúbits), que es la intersección de la física y la información. 

Este profesor de física y científico de la Universidad de California en Santa Bárbara está desde hace cinco años al frente del equipo que está construyendo el hardware del primer ordenador cuántico de la firma en el Google Quantum A.I. Lab, que también tiene sede en Santa Bárbara. 

Martinis ha estado esta semana en Madrid para participar en unas jornadas sobre simulación y computación cuántica, organizadas por el Instituto de Ciencias Matemáticas (ICMAT). En la entrevista con Sinc comentó que había venido unos días antes para poder visitar tranquilamente el Museo del Prado y ver la colección de cuadros de El Greco, uno de sus pintores favoritos. 

Su visita se produce unas semanas después de la filtración de un artículo embargado en el que Martinis y otros coautores exponen los resultados de su procesador cuántico. El documento, que apareció brevemente en un sitio web de la NASA antes de ser eliminado, afirma que el nuevo chip cuántico de Google es capaz de realizar un cálculo en tres minutos y 20 segundos, algo que al superdordenador clásico más avanzado le llevaría unos 10.000 años. Según el estudio, esto supone haber logrado la 'supremacía cuántica', que se obtiene cuando los ordenadores cuánticos realizan cálculos que antes habían sido imposibles. 

Sin embargo, en recientes declaraciones al Financial Times, el español Darío Gil, director mundial de IBM Research, señalaba que esta afirmación era "sencillamente errónea". En su opinión, este sistema "es una pieza especializada de hardware diseñada para resolver un solo problema y no un ordenador cuántico de propósito general, a diferencia de los desarrollados por IBM".

Sabemos que hay un artículo sobre este tema que no podemos mencionar porque está embargado y pendiente de publicación [ríe], pero ¿podría decirme cuál es la posición actual de Google en la computación cuántica?

Google comenzó a desarrollar su computador cuántico hace unos seis años y un año después decidieron contratarme para que me encargara del hardware. Estamos muy emocionados por haber sido capaces de construir este procesador cuántico y de que funcione bien. Los resultados se publicarán antes de que acabe el año en una revista científica. Creemos que es una tecnología muy potente, que será de gran utilidad para avanzar en este campo. 

Usted no puede hablar, pero el estudio se filtró y el contenido ha salido en medios. ¿Qué ocurrió?

Nosotros enviamos el artículo a la revista (Nature). Lo que pasó después es que uno de los coautores publicó el artículo sin querer en un sitio web y la gente lo cogió. La información salió en el Financial Times. Todos leímos la noticia (risas). Está siendo duro porque no paran de comentar y preguntarnos sobre el tema y nos gustaría responder a todas esas cuestiones, pero aún no podemos. Cuando se publique el estudio, es importante que la gente se enfoque en los resultados científicos. Lo hemos escrito muy cuidadosamente. Hay un total de 60 páginas de material complementario que entra muy en detalle de lo que hemos desarrollado.

Empresas como IBM y Rigetti Computing tienen ya prototipos de ordenadores cuánticos. ¿En qué se diferencia su propuesta

Al igual que estas compañías, también planeamos ponerlo en la nube. Creemos que nuestro ordenador cuántico tendrá menos errores que los de sus rivales y que este menor nivel de errores será lo suficientemente significativo como para que se puedan ejecutar algoritmos más complejos. Lo que necesitamos ahora es que los usuarios empiecen a probar el ordenador para saber cómo es su experiencia y ver qué necesitamos para mejorarlo.

Entrevistamos recientemente al director mundial de IBM Rersearch y nos comentó que uno de los principales retos de la computación cuántica actual es la corrección de errores.

También estamos trabajando en esto, pero pensamos que nuestro sistema tiene mejoras significativas que nos van a permitir hacer más fácilmente esta corrección de errores.

La computación cuántica está todavía en una fase muy inicial y se están creando muchas expectativas, pero, en realidad, lo que por ahora hacen los prototipos existentes es lo mismo que un ordenador convencional, pero más rápido.

Así es. Ahora las operaciones que se llevan a cabo en los experimentos de computación cuántica los podrías hacer tú fácilmente en un laptop. Nosotros esperamos llegar al mercado comercial con ordenadores cuánticos mucho más potentes. Cuando podamos hablar de nuestro experimento, explicaremos sus capacidades, pero puedo adelantar ya que será un avance significativo en el campo. Insisto, podremos entrar en el detalle cuando se publique el paper, que será antes de que acabe el año.

Una de las aplicaciones más esperadas es la de la simulación de moléculas, ¿no?

 Sí, unos de los campos de aplicación más interesantes estarán en la química cuántica, que describe cómo calcular cuál será la energía de unión y las propiedades de una molécula. Si esto se intenta hacer con un ordenador clásico, incluso el más potente, resultará ineficiente y muy lento y solo se podrá hacer con las moléculas más simples. 

En cambio, con un ordenador cuántico se podrán resolver estos problemas. Esto todavía está lejos y tenemos que recorrer un largo camino para lograrlo, pero los científicos están empezando a hacer cálculos y podría ser una aplicación muy importante.

¿Y cómo se traslada esto al mundo real?

Como decía, ahora me gusta mucho pensar en las aplicaciones de química cuántica porque es algo que sabemos que debería funcionar. Uno de los problemas de los que se habla en este campo es cómo sintetizar el amoniaco, que es una sustancia química muy importante para producir fertilizantes, pero su producción consume una buena fracción del total de los combustibles fósiles de la Tierra. 

La idea sería construir catalizadores y otras vías químicas que nos permitan ser mucho más eficientes. Podría ser estupendo usar un ordenador cuántico para saber cómo sintetizar mejor esa molécula y tener un impacto positivo, ya que estaremos usando menos combustibles fósiles para generar amoniaco. Este es un buen ejemplo de una posible aplicación.

¿Cómo está resultando trabajar para una gran compañía como Google?

Cuando Google contactó conmigo nuestro trabajo en la Universidad de California en Santa Bárbara iba muy bien y estábamos obteniendo muy buenos resultados, pero pensé que si queríamos desarrollar un ordenador cuántico, íbamos a necesitar más recursos, más personal permanente, etc. 

Así que cuando me propusieron unirme a la empresa me pareció una gran oportunidad. Ahora mismo, en el grupo de hardware cuántico somos unas 30 personas y, si incluimos software, algoritmos y negocio, seremos en torno a 50. Irme a Google ha resultado muy fácil porque me ha permitido juntar un equipo y los recursos para enfocarnos en este gran proyecto de construir un ordenador cuántico.

madrid

18/10/2019 10:18 Actualizado: 18/10/2019 10:18

Por ana hernando / sinc

Revisan la constante de Hubble; el universo es 2 mil millones de años más joven de lo que se estimaba

Una nueva técnica de distancia cósmica ha ofrecido un valor de la constante de Hubble diferente "algo más alto que el valor estándar", lo que hace que el universo sea 2 mil millones de años más joven.

Tamara Davis, de la Universidad de Queensalnd, explicó en la revista Science que las técnicas involucradas para alcanzar esta estimación son valiosas, porque pueden "ayudar a determinar si se necesita una nueva física para explicar la discrepancia (constante de Hubble), o si deberíamos buscar más detenidamente posibles errores sistemáticos en una o más mediciones".

Desde que apareció, el universo se ha expandido a un ritmo descrito por la constante de Hubble (H0). Sin embargo, este valor es objeto de controversia. Alrededor del año 2000, los astrofísicos habían alcanzado el valor de consenso de aproximadamente 70 +/- 5 km/s/Mpc, pero hace poco, también se sugirieron estimaciones a ambos lados de ese valor.

"Esta discrepancia es difícil de explicar por cualquier error sistemático que se haya propuesto", admitió Davis. Los astrofísicos preguntan si deben invocar una nueva física para explicar la discrepancia, y las nuevas mediciones independientes de H0 son útiles para abordar las preguntas relacionadas.

Investigadores de Estados Unidos, Alemania, Países Bajos, Taiwán y Japón estudiaron la luz de galaxias distantes que coinciden directamente detrás de las más cercanas. El campo gravitacional de la galaxia de primer plano distorsiona la luz de la del fondo, doblándola por medio de múltiples caminos con diferentes longitudes.

Esta fuerte lente gravitacional también causa retrasos de tiempo entre las múltiples imágenes. Cualquier variación en el brillo de la fuente de fondo será visible en algunas partes de la lente gravitacional antes que en otras.

Diámetro angular

La medición de este retraso y las propiedades de las estrellas dentro de la galaxia con lente se pueden combinar para determinar el tamaño de la galaxia con lente, lo que a su vez permite medir la distancia del diámetro angular a la lente.

Los investigadores aplicaron esta técnica para medir la distancia del diámetro angular a dos sistemas de lentes gravitacionales y los usó como puntos de referencia para recalibrar una medición existente de H0, que reportan como 82 +/- 8 km/s/Mpc. En ese supuesto, la edad del universo se rebajaría unos 2 mil millones de años sobre los 13 mil 700 millones de años del valor de consenso.

El agua llegó a la Tierra con la formación de la Luna, hace 4 mil 400 millones de años

Planetólogos de la Universidad de Münster (Alemania) demostraron, por primera vez, que el agua llegó a la Tierra con la formación de la Luna hace unos 4 mil 400 millones de años.

La Luna se formó cuando la Tierra fue golpeada por un cuerpo del tamaño de Marte, llamado Theia. Hasta ahora, los científicos habían asumido que este último se originó en el sistema solar interior cerca de nuestro planeta.

Sin embargo, los investigadores de Münster ahora tienen elementos para probar que Theia proviene del sistema solar exterior y que entregó grandes cantidades de agua a la Tierra. Los resultados de su estudio se publican en Nature Astronomy.

La Tierra se formó en el sistema solar interior "seco", por lo que es algo sorprendente que tenga agua. Para entenderlo, tenemos que retroceder en el tiempo, cuando el sistema solar se formó hace unos 4 mil 500 millones de años.

Materiales secos y húmedos

A partir de estudios anteriores, se sabe que el sistema solar se estructuró de tal manera que los materiales "secos" se separaron de los "húmedos": los meteoritos llamados "carbonosos", relativamente ricos en agua, provienen del sistema solar exterior, mientras los meteoritos "no carbonosos", más secos, provienen del sistema solar interior.

Si bien los estudios anteriores han demostrado que los materiales carbonosos probablemente fueron los causantes de entregar el agua a la Tierra, se desconocía cuándo y cómo llegaron, y por tanto el agua, llegó a nuestro planeta.

“Hemos utilizado isótopos de molibdeno para responder a esta pregunta, pues permiten distinguir el material carbonoso y el que no lo es, y como tal representa una ‘huella genética’ del material del sistema solar exterior e interior”, explicó Gerrit Budde, del Instituto de Planetología en Münster y autor principal del estudio.

Las mediciones realizadas por los investigadores de Münster muestran que la composición isotópica del molibdeno de la Tierra se encuentra entre las de los meteoritos carbonosos y los que no lo son, lo que demuestra que parte de ese elemento químico en el planeta se originó en el sistema solar exterior. En este contexto, sus propiedades químicas tienen un papel clave porque, como es amante del hierro, la mayor parte está en el núcleo del planeta.

"El molibdeno, al que se puede acceder hoy día en el manto de la Tierra, se origina en las últimas etapas de la formación del planeta, mientras el de las fases anteriores está completamente en el núcleo", sostuvo Christoph Burkhardt, segundo autor del estudio.

Los resultados de los científicos muestran, por primera vez, que el material carbonoso del sistema solar exterior llegó tarde al planeta.

Pero van un paso más allá. Muestran que la mayor parte del molibdeno en el manto de la Tierra fue suministrada por el protoplaneta Theia. Sin embargo, dado que una gran parte de ese elemento en el manto del planeta se origina en el sistema solar exterior, esto significa que ese cuerpo también se formó allí. Según los científicos, la colisión proporcionó material carbonoso suficiente para dar cuenta de la cantidad total de agua en la Tierra.

“Nuestro enfoque es único porque, por primera vez, permite asociar el origen del agua en la Tierra con la formación de la Luna.

"En pocas palabras, sin el satélite probablemente no habría vida en la Tierra", afirmó Thorsten Kleine, profesora de planetología en la Universidad de Münster.

Evidencia química y física

Por otra parte, por primera vez, un estudio interdisciplinario mostró evidencia química, física y material de la formación de agua en la Luna.

Si bien los descubrimientos recientes de sondas como Prospector Lunar y Satélite de Detección y Observación de Cráteres Lunares sugieren la existencia de hielo de agua en los polos del satélite, su origen sigue siendo incierto.

Ralf I. Kaiser y Jeffrey Gillis-Davis, del Intituto de Geofísica y Planetología de Hawai, diseñaron los experimentos para probar la sinergia entre los protones de hidrógeno del viento solar, los minerales lunares y los impactos de micrometeoritos.
Desinformémonos

Publicado enMedio Ambiente
Los elementos de la tabla periódica sólo son 5% de lo que compone el universo

La historia de la galaxia es compleja; aunque se conoce a grandes rasgos, faltan muchos detalles. Por ello, se requiere hacer mejores observaciones y desarrollar la física necesaria para entender lo que las estrellas pueden contarnos, afirmó ayer Silvia Torres Castilleja, investigadora emérita del Instituto de Astronomía de la Universidad Nacional Autónoma de México (UNAM).

En la conferencia Evolución química de la galaxia, celebrada en la Facultad de Química, la astrónoma explicó que los elementos químicos identificados en la tabla periódica son sólo 5 por ciento de lo que compone el universo. El resto, es materia y energía oscura que "aún no sabemos qué es, si yo se los pudiera explicar, me darían un Premio Nobel", aseguró la ex presidenta de la Unión Astronómica Internacional.

Agregó que para entender cómo se han modificado los gases y elementos en la Vía Láctea, nuestra galaxia, cuál es la historia de formación de las estrellas y cómo se han ido modificando, los astrónomos en el mundo buscan determinar con precisión cuál es la abundancia de los distintos elementos químicos presentes en las nebulosas planetarias.

La importancia del estudio de los gases de las nebulosas radica en que estos guardan información de los que dieron origen y formación a la estrella primaria.

Para explicarlo con un objeto más conocido y cercano al hombre, la especialista habló del proceso de vida del Sol, que transforma su hidrógeno en helio en el centro desde hace 4 mil 600 millones de años. Se estima que esta fase durará otros 5 mil millones de años, luego tardará otros 2 mil millones de años para quemar todo ese elemento químico y convertirlo en carbón, después perderá las capas externas y la parte central se convertirá en una enana blanca, una estrella muy concentrada. El gas que haya perdido se alejará, nunca regresará y se irá al espacio. A este conjunto de estrella caliente y gas que la rodea se le denomina nebulosa planetaria.

Cantidad y diferencia de los gases

Aunque los astrónomos ya comprenden cómo funciona una nebulosa y que estos gases dan origen al nacimiento de nuevas estrellas, aún desconocen los detalles, como la cantidad de esos compuestos y la diferencia de los que expulsan.

Silvia Torres sostuvo que cada uno de los elementos químicos en sus determinados estados de ionización tienen una firma única, algo parecido a una huella digital, que ayuda a determinar su composición y aporta información sobre el futuro que les espera a las estrellas.

En los primeros millones de años del universo sólo se formaron dos elementos químicos, el hidrógeno (H) y el helio (He), además de mínimas cantidades de litio (Li), berilio (Be) y boro (B), mientras los demás elementos se fueron formando en el interior de las estrellas. En las nebulosas planetarias se forman constantemente nuevas cantidades de helio, carbón (C) y nitrógeno (N).

Indicó que la vida media de una nebulosa es muy breve en términos astronómicos, entre 10 y 30 mil años, una ínfima fracción de los más de 10 mil millones de años que puede tener de vida un astro como el Sol.

Una mujer gana por primera vez el ‘Nobel’ de matemáticas

 La estadounidense Karen Uhlenbeck se lleva el Premio Abel por sus revolucionarias investigaciones en la intersección con el mundo de la física

Hace medio siglo, la estadounidense Karen Uhlenbeck, por entonces una joven y prometedora matemática, se puso a buscar un empleo, tras dos breves trabajos temporales como profesora en el Instituto de Tecnología de Massachusetts y en la Universidad de Berkeley. “Me dijeron que nadie contrataba a mujeres, porque las mujeres debían estar en casa y tener bebés”, recordó en un libro en 1997. Hoy, la Academia de Ciencias y Letras de Noruega ha decidido conceder a Uhlenbeck el Premio Abel 2019, dotado con unos 600.000 euros y considerado el Nobel de las matemáticas.


"Apenas me lo puedo creer. Estoy profundamente agradecida", ha explicado Uhlenbeck este martes a EL PAÍS en un correo electrónico. "Pertenezco a la primera generación de mujeres que podían esperar una progresión profesional. Quizá no igual que los hombres, pero las puertas ya no estaban cerradas. En las décadas de 1960 y 1970, cuando se eliminaron las barreras legales para avanzar, esperábamos que las mujeres y las minorías entrarían por las puertas y ocuparían el lugar que les corresponde, al menos en el mundo académico. Quedó demostrado que no era tan fácil, pero se ha conseguido un progreso tremendo, al menos para las mujeres. Las jóvenes matemáticas de hoy son un grupo de talento impresionante y diverso. Espero haber contribuido, a mi manera, junto a otras personas, a abrir estas puertas cerradas y a mantenerlas abiertas de par en par", añade la galardonada.


“Soy matemática. Los matemáticos hacemos investigaciones exóticas, así que es difícil describir exactamente lo que hago en términos sencillos”, reconocía en el mismo libro de 1997 la científica, profesora emérita de la Universidad de Texas en Austin. Uhlenbeck, nacida en Cleveland hace 76 años, ha trabajado con ecuaciones en derivadas parciales, desarrolladas originalmente por la necesidad de describir fenómenos como el electromagnetismo, pero que ahora se utilizan en multitud de contextos, como el estudio de las formas del espacio en varias dimensiones.


La matemática estadounidense es la primera mujer que recibe el Premio Abel, creado en 2002 para celebrar el bicentenario del nacimiento del matemático noruego Niels Henrik Abel. Otros 19 hombres han ganado el galardón desde entonces. Ya en 1988, Uhlenbeck denunciaba que la discriminación explícita no era el único obstáculo en su disciplina. “Uno de los problemas más serios que tienen las mujeres es hacerse a la idea de que existe una sutil falta de aceptación hacia ellas y que tienen que actuar en consecuencia”, alertó. "No puedo pensar en una mujer matemática para quien la vida haya sido fácil. Los esfuerzos heroicos tienden a ser la norma", explicó.


El nombre de soltera de la matemática es Karen Keskulla, pero se quedó con el apellido de su primer marido, el bioquímico estadounidense Olke Uhlenbeck, que le dejó otras huellas. “Los padres de mi primer marido eran viejos intelectuales europeos y mi suegro era un físico famoso [el holandés George Uhlenbeck]. Fueron muy influyentes para mí. Tenían una actitud ante la vida diferente de la de los estadounidenses. Recuerdo a mi suegra leyendo a Proust en francés y dándome la versión en inglés”, ha escrito Uhlenbeck, que también es profesora visitante en el Instituto de Estudios Avanzados de Princeton. “Mis suegros valoraban el mundo intelectual de una manera que mis padres no hacían: mis padres valoraban las cosas intelectuales, pero creían que ganar dinero era más importante”.


La personalidad de Uhlenbeck ha facilitado su éxito en diferentes campos de las matemáticas. “Me aburro con las cosas que ya entiendo”, ha afirmado. “La investigación de Uhlenbeck ha permitido avances revolucionarios en la intersección de las matemáticas y la física”, ha aplaudido en un comunicado el físico Paul M. Goldbart, compañero en la Universidad de Texas. “Sus ideas pioneras tienen aplicaciones en una gran variedad de temas fascinantes, desde la teoría de cuerdas, que puede ayudar a explicar la naturaleza de la realidad, a la geometría del espacio-tiempo”.


La iraní Maryam Mirzajani se convirtió en 2014 en la primera mujer que ganaba la medalla Fields, el otro galardón más prestigioso de las matemáticas. Este premio, reservado a menores de 40 años y por lo tanto menos equiparable al Nobel, es concedido desde 1936 por la Unión Matemática Internacional. Mirzajani, nacida en Teherán en 1977 y profesora en la Universidad de Stanford (EE UU), murió en 2017 por un cáncer de mama. Entonces, el presidente de Irán, Hasan Rohaní, y varios periódicos locales publicaron la noticia con fotos de la fallecida sin el velo obligatorio para las mujeres iraníes, un hecho histórico en el país.


El matemático Daniel Peralta subraya que el trabajo de Karen Uhlenbeck ha sido esencial para entender las superficies mínimas, como las formadas por las pompas de jabón, cuando se consideran muchas dimensiones del espacio. “A partir de cuatro dimensiones, las técnicas clásicas fallan y surgen singularidades”, detalla Peralta, del Instituto de Ciencias Matemáticas (ICMAT), en Madrid. “Las técnicas desarrolladas por Uhlenbeck están en la caja de herramientas de cualquier geómetra. Es una ganadora fabulosa”, celebra Alberto Enciso, también del ICMAT.


“El reconocimiento de los logros de Uhlenbeck debería haber sido infinitamente mayor, ya que su trabajo ha conducido a algunos de los avances en matemáticas más espectaculares de los últimos 40 años”, ha declarado en un comunicado el físico Jim Al-Khalili, miembro de la Royal Society de Londres.


“Soy consciente de que soy un modelo para las mujeres jóvenes en el campo de las matemáticas. Y, en parte, por eso estoy aquí. Sin embargo, es difícil ser un modelo, porque lo que realmente tienes que hacer es mostrar a los estudiantes que una persona imperfecta puede triunfar", reflexionaba Uhlenbeck en el libro Viajes de mujeres en ciencia e ingeniería: no hay constantes universales (Temple University Press, 1997). "Todo el mundo sabe que si una persona es inteligente, divertida, guapa o bien vestida tendrá éxito. Pero también es posible triunfar con todas tus imperfecciones. Yo necesité mucho tiempo para darme cuenta de esto”.

Por MANUEL ANSEDE
19 MAR 2019 - 20:09 CET

La decepcionante historia de los rusos que mandaron un electrón al pasado

Esta semana, muchos medios han publicado que un grupo de científicos habían logrado revertir el tiempo. Lo que han conseguido es mucho menos excitante.


En los últimos días, medios de todo el mundo han contado cómo un grupo de científicos rusos ha logrado revertir el tiempo. Sería un pequeño paso para construir una máquina que tendría un valor incalculable para los nostálgicos, los arrepentidos o los insatisfechos con el pasado, pero la posibilidad de viajar al ayer parece tan alejada como hace diez días.


La mayor parte de las leyes de la física no distinguen entre avanzar hacia el futuro o hacia el pasado. Si se observan los movimientos de rotación del sistema solar, las mismas leyes servirían para explicar esas órbitas reproducidas en reverso. Sin embargo, desde nuestro punto de vista, el tiempo es algo absoluto e inexorable, que funciona en todo el universo de la misma manera. Esta percepción tiene que ver con nuestra comprensión intuitiva de la segunda ley de la termodinámica. Si una copa de vino se nos cae de la mano y se hace trizas, podrá irritarnos, pero no nos hará pensar que hemos perdido la cabeza. Todo lo contrario sucedería si los trozos de esa copa, de forma espontánea, se volviesen a reunir para ser de nuevo un recipiente.


La segunda ley de la termodinámica dice que un sistema aislado o permanece estable o cambia hacia un estado de mayor desorden: las copas rotas no se reconstruyen, un café encima de la mesa se enfría en lugar de calentarse y los muertos no resucitan. Lo normal es que el universo avance hacia el caos y en esa intuición se sustenta nuestra idea de un tiempo absoluto. Sin embargo, esa ley no es inviolable, y reconoce que el proceso inverso, aunque improbable, no es imposible.


Con esa idea en mente, un grupo de investigadores liderado desde el Instituto Moscovita de Física y Tecnología calculó las probabilidades de que un solo electrón violase esta segunda ley de la termodinámica de forma espontánea, retornase a un estado anterior y, de alguna forma, viajase hacia el pasado. Sus resultados indican que si se observasen 10.000 millones de electrones cada segundo durante los 13.700 millones de años de vida del universo, el fenómeno solo sucedería una vez, e incluso en ese caso, la partícula solo viajaría una diez mil millonésima de segundo hacia el pasado.


En otro experimento, los científicos utilizaron un ordenador cuántico de IBM para “enviar un electrón al pasado”. Pero en realidad la operación se parece más a una simulación computacional que a Marty McFly viajando a los años 50 para salvar el matrimonio de su padre. Según explica el investigador del Instituto de Física Teórica (IFT) de Madrid Germán Sierra, “los autores de este trabajo proponen que en mecánica cuántica es posible diseñar un algoritmo que invierte la dirección del tiempo de un estado cuántico particular y lo ilustran empleando el ordenador cuántico de la IBM con 5 qubits”. Para conseguirlo, simulan una operación que cambia el signo de la fase de la función de onda que describe el estado del sistema. En esta operación abstrusa “consiste ir hacia atrás en el tiempo en mecánica cuántica”, señala Sierra.


Incluso en el caso de que lo logrado tuviese alguna relevancia para el viaje en el tiempo, los autores del trabajo, que se publica en la revista Scientific Reports, lograron sus resultados planteando una situación artificial que solo funciona en el estrecho ámbito del experimento. “El problema es que la operación que construyen estos autores es ad hoc, es decir que depende del estado elegido y viola el principio de superposición de estados, que es fundamental en la mecánica cuántica”. “En términos matemáticos, la inversión del tiempo en cuántica es una operación antiunitaria y ellos la realizan mediante una transformación unitaria, algo que solo se puede hacer para un estado particular, pero no para todos los estados del sistema”, añade.


Además de las críticas a las conclusiones poco fundadas que se sacan de los resultados del equipo, algunos investigadores han comentado con extrañeza que se destaque en el mismo titular del artículo científico que se ha realizado con un ordenador concreto de IBM, el primer computador cuántico comercial. “Si estás simulando en tu ordenador un proceso en el que el tiempo es reversible, entonces puedes revertir la dirección del tiempo solo revirtiendo la dirección de tu simulación”, aseveraba el director del Centro de Información Cuántica de la Universidad de Texas en Austin (EE UU) en MIT Technology Review. “Después de un rápido vistazo al artículo, confieso que no entiendo por qué esto se vuelve más profundo si la simulación se lleva a cabo en el ordenador cuántico de IBM”, ironizaba. “El artículo es correcto y sugerente, pero no creo que represente un avance fundamental”, asegura Sierra. “Y tampoco entiendo por qué le pone énfasis en el ordenador de IBM, que para hacer lo que han hecho no hace falta”, remacha el investigador del IFT.


El pasado está más lejos que el futuro


La idea de una máquina del tiempo se hizo popular gracias a la novela titulada así que H. G. Wells publicó en 1895, pero fue Albert Einstein quien a partir de 1905 empezó a ofrecer herramientas intelectuales que permitían especular sobre un viaje en el tiempo en el mundo real. Según la teoría de la relatividad especial, el tiempo se acelera y se ralentiza dependiendo de la velocidad relativa a la que uno se mueve con respecto a cualquier otra cosa. Si una persona parte desde la Tierra en una nave que viaja a la velocidad de la luz, envejecerá mucho más despacio que un amigo que se haya quedado en la Tierra.


El físico alemán entendió que el ahora es local y la idea de un tiempo absoluto, que se había aceptado como norma desde Isaac Newton, se resquebrajó aún más cuando la teoría de la relatividad general mostró que la gravedad hace que el tiempo se curve. Este fenómeno, en su versión más extrema, haría que el tiempo de otro viajero espacial orbitando en la proximidad de un agujero negro pareciese detenerse. Aunque no para él. El explorador tendría la sensación de envejecer al mismo ritmo que siempre, pero cuando regresase a casa podría ver que allí el tiempo había transcurrido mucho más rápido y todos sus seres queridos estarían ya muertos o mucho más envejecidos que él.


Esto, de alguna manera, sería parecido a desplazarse al futuro, aunque la percepción del viajero sería bastante distinta de la de utilizar una máquina para dar saltos en el tiempo. La teoría de Einstein también permite, en principio, viajar al pasado a través del espacio tiempo, circulando por túneles abiertos en ese tejido espaciotemporal, pero muchos dudan de que la posibilidad no sea fruto de algún defecto en la propia teoría. Por el momento, habrá que seguir viviendo con cuidado, porque retroceder en el tiempo para arreglar nuestros desaguisados pretéritos parece un sueño muy lejano.


 Por qué no se puede poner una multa de tráfico a un electrón


Explicado de un modo burdo, los físicos tienen dos herramientas para entender cómo funciona el universo. En las grandes escalas, las de las estrellas y los planetas y en general el mundo que percibimos a simple vista, la teoría de la relatividad general funciona a la perfección. La cosa se complica cuando descendemos a las escalas microscópicas. Para entender el extraño comportamiento de partículas como los electrones es necesaria la mecánica cuántica, que explica un mundo con el que no tenemos relación directa y nos resulta muy poco intuitivo.


Una forma de entender la diferencia entre ambos mundos la ofrece Germán Sierra con un chiste. Para que Tráfico nos ponga una multa, es necesario que nos hagan una foto en la que se puede ver dónde estamos y a qué velocidad vamos. Como a nosotros nos aplica la física de Newton, tráfico puede sancionarnos, pero eso no sucede con un electrón. Con ellos, regidos por la mecánica cuántica, hay que elegir entre conocer su velocidad o su posición, algo que haría imposible ponerles una multa de tráfico. El ejemplo muestra las reglas diferentes que afectan a ambos mundos y explica por qué en ocasiones las explicaciones populares sobre la física cuántica, apoyadas en metáforas basadas en el mundo real, pueden ser confusas.


La más famosa de estas metáforas es el experimento mental que planteó Erwin Schrödinger en 1935. En él, se introducía un gato en una caja de acero junto a una pequeña cantidad de material radiactivo. La cantidad era tan pequeña que solo existía un 50% de posibilidades de que durante la hora siguiente uno de los átomos decayese. Si eso sucedía, se activaría un mecanismo que llenaría la caja de ácido cianhídrico y el gato moriría.


De acuerdo con los principios de la mecánica cuántica, durante el tiempo que durase el experimento, el gato estaría vivo y muerto al mismo tiempo, resultado de un fenómeno conocido como superposición. Sin embargo, esa circunstancia cambiaría cuando abriésemos la caja para acabar con la incertidumbre. En ese momento, de vuelta a la realidad de la física clásica, el gato estaría o vivo o muerto. En realidad, el gato hacía las veces de una partícula microscópica a la que aplican normas distintas que al animal. Un gato jamás estará vivo y muerto al mismo tiempo.

17 MAR 2019 - 02:32 COT

 

Proyectan un colisionador 10 veces más potente que el LHC

La colaboración Future Circular Collider (FCC) presentó su Informe de diseño conceptual. El objetivo final es proporcionar un anillo acelerador de protones superconductor de 100 kilómetros, con energía de hasta 100 teraelectronvoltios (TeV), lo que significa un orden de magnitud más poderoso que el LHC, explica en un comunicado el director de aceleradores y tecnología del CERN, Frédérick Bordry.

El costo de este gran colisionador circular de electrones y positrones estaría en cerca de nueve mil millones de euros, incluidos otros cinco mil millones para la obra de ingeniería civil en un túnel de 100 kilómetros.


El FCC proporcionaría colisiones electrón-positrón, protón-protón e ión-ion a energías e intensidades sin precedente, con la posibilidad de colisiones electrón-protón y electrón-ión.
La línea de tiempo del FCC prevé comenzar con una máquina de electrón-positrón, igual que LEP precedió al LHC. Esto permitiría que un programa rico beneficie a la comunidad de física de partículas a lo largo del siglo XXI, detalló Bordry.


Usando imanes superconductores de campo alto de nueva generación, el colisionador de protones de la FCC ofrecería una amplia gama de nuevas oportunidades de física. Alcanzar energías de 100 TeV y más allá permitiría estudios precisos de cómo una partícula de Higgs interactúa con otra de ellas, y una exploración completa del papel de la simetría electrodébil que emerge en la historia de nuestro universo.

También permitiría acceder a escalas de energía sin precedente en busca de nuevas partículas masivas, con múltiples oportunidades para grandes descubrimientos. Además, colisionaría iones pesados, manteniendo un rico programa de física de iones pesados para estudiar el estado de la materia en el universo primitivo.
Poderosa fábrica de Higgs


Los colisionadores de protones han sido la herramienta elegida durante generaciones para aventurar nueva física a la escala más pequeña. Un gran colisionador de protones presentaría un gran avance en esta exploración y extendería de manera decisiva el programa de física más allá de los resultados proporcionados por el LHC y un posible colisionador de electrón-positrones, dijo el director de investigación y computación del CERN, Eckhard Elsen.


Una máquina de electrón-positrón de 90 a 365 GeV con alta luminosidad podría ser un primer paso. Un colisionador de este tipo sería una fábrica de Higgs muy poderosa, que permite detectar procesos nuevos y raros y medir las partículas conocidas con precisiones que nunca antes se habían logrado. Estas medidas precisas proporcionarían una gran sensibilidad a posibles desviaciones mínimas de las expectativas del modelo estándar, lo que sería un signo de nueva física.


Este colisionador serviría a la comunidad física mundial entre 15 y 20 años. El programa de física podría comenzar en 2040, al final del LHC de alta luminosidad. El costo estimado para una máquina de protones superconductores que luego usaría el mismo túnel es de alrededor de 15 mil millones de euros. Esta máquina podría comenzar a funcionar a finales de los años 2050.


Los complejos instrumentos requeridos para la física de partículas inspiran nuevos conceptos, tecnologías innovadoras que benefician a otras disciplinas de investigación y eventualmente encuentran su camino en muchas aplicaciones que tienen un impacto significativo en la economía del conocimiento y la sociedad, destaca el CERN.


Un futuro colisionador circular ofrecería oportunidades extraordinarias para la industria, ayudando a impulsar aún más los límites de la tecnología. También proporcionaría una formación excepcional para una nueva generación de investigadores e ingenieros, subraya.

Página 1 de 8