Científicos del CERN descubrieron una partícula nunca observada antes

El Centro Europeo de Física de Partículas (CERN) anunció este miércoles el descubrimiento de una nueva partícula formada por cuatro quarks que, según los investigadores, ayudará a entender la forma en que éstos interactúan para formar los protones y neutrones que se encuentran en el núcleo de los átomos.

Ni la partícula ni la clase a la que pertenecería habían sido observadas con anterioridad, y son especialmente raros dado que los quarks, partículas elementales mínimas en la física subatómica, se suelen agrupar en parejas o tríos para formar hadrones -de los que los protones y neutrones son ejemplos-.

El CERN señaló en un comunicado que se pudo dar con el hallazgo gracias a observaciones en el LHCb, uno de los cuatro equipos de experimentación situados en diferentes zonas del Gran Colisionador de Hadrones. A su vez, indicó que el descubrimiento fue presentado en un reciente seminario del centro y también publicado en la base de datos científicos arXiv.

La organización también explicó que los teóricos predijeron durante décadas la existencia de hadrones de cuatro y cinco quarks, descritos en ocasiones como tetraquarks y pentaquarks. Hace algunos años, experimentos como el LHCb pudieron confirmar la existencia de algunos de estos hadrones “exóticos”.

Según el CERN, estas partículas con una rara combinación de quarks son “un laboratorio ideal para estudiar una de las cuatro fuerzas fundamentales de la naturaleza conocidas, aquélla que enlaza protones, neutrones y el núcleo atómico que componen la materia”.

Además, resaltó que el estudio de estas interacciones es esencial para determinar si procesos extraños como esta combinación de cuatro quarks muestran una “nueva física” o cumplen el modelo estándar de esta ciencia, uno de los principales propósitos de la investigación iniciada en sus aceleradores de partículas.

De esta manera, el centro aseguró que si las partículas formadas por cuatro quarks son ya de por sí extrañas, la descubierta ahora lo es aún más al ser todos del mismo tipo, el llamado quark C (de “charm”, “encanto”), el cual es considerado una modalidad “pesada”.

 “Hasta ahora los experimentos sólo habían descubierto tetraquarks con dos quarks pesados como máximo, y nunca con más de dos del mismo tipo”, detalló el portavoz de LHCb, Giovanni Passaleva, en el comunicado.

El descubrimiento se consiguió analizando datos de colisiones de partículas en los últimos períodos de actividad del Gran Colisionador de Hadrones, de 2009 a 2013 y de 2015 a 2018. El Colisionador actualmente se encuentra cerrado por trabajos de renovación y mejora, y su reapertura se prevé para mayo de 2021.

Los investigadores aclararon que todavía no es posible determinar si la nueva partícula detectada es un verdadero tetraquark o es en realidad una pareja de partículas formadas por dos quarks. Sin embargo, cualquiera de los dos casos les ayudaría a probar modelos de interacción cuántica.

Descubren en el MIT sistema más eficiente para imitar procesos cerebrales

Un equipo del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) avanzó hacia un sistema alternativo para simular redes neuronales, que usa dispositivos físicos analógicos que pueden imitar de manera mucho más eficiente los procesos cerebrales.

Equipos de todo el mundo están construyendo sistemas de inteligencia artificial cada vez más avanzados, diseñados de alguna manera para imitar el cableado del cerebro, con el propósito de llevar a cabo tareas como la visión por computadora y el procesamiento del lenguaje natural.

La nueva investigación del MIT trata de superar el obstáculo de que el uso de circuitos de semiconductores de última generación para simular redes neuronales requiere grandes cantidades de memoria y un alto consumo de energía.

Los hallazgos en tecnología basada en iones, que se presentan en Nature Communications, puede permitir simulaciones energéticamente eficientes del proceso de aprendizaje del cerebro, para sistemas de inteligencia artificial de redes neuronales.

Las redes neuronales intentan simular la forma en que se lleva a cabo el aprendizaje en el cerebro, que se basa en el fortalecimiento o debilitamiento gradual de las conexiones entre las neuronas, conocidas como sinapsis. El componente central de la red física es el interruptor resistivo, cuya conductancia electrónica se puede controlar eléctricamente, lo que emula ese proceso.

En las redes neuronales que utilizan la tecnología convencional de microchips de silicio, la simulación de estas sinapsis es un proceso muy intensivo en energía.

El nuevo sistema "aborda el desafío energético y el relacionado con la repetibilidad", afirmó en un comunicado Bilge Yildiz, autor del estudio y profesor de ciencias e ingeniería nuclear y de ciencia e ingeniería de materiales.

El interruptor resistivo en este trabajo es un dispositivo electroquímico hecho de trióxido de tungsteno y funciona de manera similar a la carga y descarga de baterías.

"Es similar al dopaje de los semiconductores", indicó Ju Li, coautor del estudio y profesor de ciencias e ingeniería nuclear y de ciencia e ingeniería de materiales.

Imagen del cielo completo visto en rayos X por el telescopio espacial eRosita./MPE/IKI

La primera imagen de un nuevo telescopio espacial ruso alemán duplica el número de fuentes emisoras conocidas hasta ahora

 

La primera imagen completa del cielo en rayos X que ha obtenido un nuevo telescopio espacial de Rusia y Alemania es espectacular, pero los datos a partir de los que se ha generado son mucho más importantes. En ella figuran más de un millón de objetos calientes y energéticos, fenómenos violentos como los lejanos agujeros negros supermasivos en el centro de las galaxias. El objetivo principal de la misión, llamada eRosita, es estudiar la misteriosa energía oscura.

El nuevo mapa del Universo, que cartografía las emisiones que no vemos en las observaciones en luz visible o en radio, muestra casi el doble de fuentes de rayos X que las identificadas durante los 60 años de existencia de este tipo de astronomía, explican los astrónomos del telescopio eRosita, lanzado en julio del año pasado. La imagen, una de varias más limitadas, es una presentación de millones y millones de datos. Por ejemplo, las unidades de luz, los fotones captados, se han coloreado en función de su energía de menos a más (del rojo al azul). Además hay que tener en cuenta, como en toda observación astronómica, que se está mirando hacia atrás en el tiempo, observando también radiación emitida cuando el Universo era más joven. En este aspecto se ha llegado cuatro veces más lejos.

"Esta imagen de todo el firmamento cambia por completo la forma en que vemos el universo energético; observamos una gran cantidad de detalles, la belleza de las imágenes es realmente impresionante", afirma Peter Predehl , investigador principal de eRosita en el Instituto Max Planck de Física Extraterrestre (MPE). Pero por delante, los científicos tienen años y años de estudio de todo lo que han captado en solo seis meses, más lo que captarán en los próximos años, dado que el último análisis parecido lo hizo el telescopio Rosat, hace 30 años, y entonces se remontó cuatro veces menos en tiempo y distancia.

Cómo se hizo el barrido del cielo en 360 grados para obtener finalmente, y tras mucho trabajo, esta imagen, merece una explicación. El telescopio eRosita va a bordo de un satélite que se mantiene en el segundo punto de Lagrange, un punto de equilibrio en el sistema Sol-Tierra situado a 1,5 millones de kilómetros de nuestro planeta. El satélite SRG es ruso y los instrumentos de eRosita alemanes.

El telescopio cuenta con siete cámaras y durante seis meses ha rotado de manera continua captando de forma uniforme todo lo que ve desde ese lugar de privilegio para la observación, dentro del Sistema Solar. Para generar la imagen, el cielo se ha proyectado en una elipse, en la que el corazón de la Vía Lactea está en el centro y la galaxia se extiende en horizontal. La Vía Láctea se ve sobre todo en azul porque al haber mucho polvo y gas entre medias en el plano galáctico solo se captan las fuentes más fuertes de rayos X. Encima se distingue en colores rojizos la llamada burbuja local de gas caliente, que están atravesando el Sol y sus planetas. El gran punto blanco es Escorpio X-1, una estrella binaria que es el la fuente de rayos X más brillante.

En cuanto a lo que aparece fuera de la galaxia, la mayoría de las fuentes detectadas son núcleos activos de galaxias muy distantes, que contienen agujeros negros supermasivos, informa MPE. Estos se mezclan con cúmulos de galaxias, que se ven como manchas brillantes por el gas caliente confinado por halos de materia oscura. También hay estrellas solitarias y binarias, agujeros negros y restos de explosiones de supernova, así como fenómenos considerados menos frecuentes y exóticos, como la fusión de dos estrellas de neutrones. "El telescopio a menudo capta inesperadas explosiones de rayos X y tenemos que alertar a los telescopios terrestres inmediatamente para intentar comprender qué los produce", explica Mara Salvato, astrónoma del equipo.

Con esta información el proyecto quiere abordar problemas básicos de la cosmología actual, para entender la evolución del Universo. Cartografiar millones de galaxias activas para comprender el efecto de la gravedad en la formación de los 100.000 cúmulos existentes estimados es un objetivo, también relacionado con intentar entender la forma de actuar de la energía oscura, que tiene que contrarrestar la gravedad, en la aceleración de la expansión del Universo.

Para los astrofísicos rusos, el camino ha sido muy largo y dificultoso desde que desapareció la Unión Soviética. En el satélite van otros telescopios rusos complementarios de eRosita y SRG es la única misión ambiciosa de astrofísica que Rusia tiene activa en la actualidad. Hasta ahora, por lo menos, está siendo todo un éxito.

23/06/2020 07:32

Por MALEN RUIZ DE ELVIRA

Astronautas crean en el espacio por primera vez en la historia el quinto estado de la materia

Se trata de los llamados condensados de Bose-Einstein, que no existen en la naturaleza y son prácticamente imposibles de crear en la Tierra.

 

A bordo de la Estación Espacial Internacional (EEI) se logró crear, por primera vez, los llamados condensados de Bose-Einstein (BEC), también conocidos como el quinto estado de la materia. Un estudio a ese respecto fue publicado este jueves en la revista Nature.

Para lograrlo, los astronautas utilizaron el Cold Atom Lab (CAL), un congelador capaz de enfriar átomos en el vacío a temperaturas extremas, apenas una diez mil millonésima de grado por encima del cero absoluto, por lo que tiene la fama de constituirse en uno de los lugares más fríos del universo.

Los condensados de Bose-Einstein aparecen cuando la temperatura de un conjunto de átomos llega casi al cero absoluto, con lo que luego esas nubes gaseosas de átomos actúan de manera colectiva y no individual. Las predijeron por primera vez Albert Einstein y el matemático y físico indio Satyendra Nath Bose, hace 95 años, pero hasta 1995 este extraño quinto estado de la materia no fue observado en un laboratorio.

El problema principal es que en la Tierra la gravedad los arrastra hacia el suelo, haciéndolos desaparecer en fracciones de segundo, mientras que en el espacio pueden permanecer más tiempo. Así, en la microgravedad del espacio los átomos se ralentizan y sus longitudes de onda se alinean, lo que permite estudiar los condensados de Bose-Einstein.

El experimento con el CAL es solo un primer paso, pero podría contribuir a que algún día esos condensados sean la base de herramientas ultrasensibles para detectar señales débiles de los lugares más recónditos del universo, al igual que fenomenos como las ondas gravitacionales o los agujeros negros.

El autor principal del nuevo estudio, David Aveline, físico del Laboratorio de Propulsión a Chorro de la NASA, comentó a la revista MIT Technology Review, perteneciente al Instituto de Tecnología de Massachusetts (EE.UU.), que desde un punto de vista más práctico el trabajo de su equipo podría ayudar a mejorar sensores inerciales, desde acelerómetrosy sismómetros hasta giroscopios.

Publicado: 12 jun 2020 09:48 GMT

Albert Fert, premio Nobel de Física 2007 WIKIMEDIACOMMONS | JEVILLEGAS

Albert Fert, el premio Nobel de Física en 2007, argumenta que, en 2030, el 20% del consumo de energía mundial vendrá de la transmisión digital de los datos

Si tuviéramos la capacidad de diseñar el ordenador o móvil ideal, ¿cómo sería? Muchos usuarios se centrarían en la estética, otros en la funcionalidad o la originalidad. Pero en realidad, los físicos como Albert Fert (Carcassone, Francia, 1938), que desde la semana pasada se encuadra como investigador distinguido en el departamento de Física de Materiales de la Universidad del País Vasco, se preocupan por la capacidad de almacenamiento, el consumo de energía y la duración de la batería.

"Lo más incómodo de los teléfonos actuales es tener que recargarlos constantemente", explica a SINC el premio Nobel de Física en 2007, junto al alemán Peter Grünberg, durante una de sus últimas visitas a España en el festival Passion for Knowledge. Varias compañías ya están en proceso de fabricación de estos móviles que podrán durar de siete a quince días sin ser recargados.

"Después no tengo una idea particular de cómo será ese móvil del futuro", confiesa el descubridor de la magnetorresistencia gigante (1988), un efecto de la mecánica cuántica que ha permitido miniaturizar los lectores de los discos duros de los ordenadores y aumentar su capacidad de almacenamiento.

Esto dio lugar a la espintrónica, una tecnología que manipula el estado cuántico de las partículas –el espín del electrón– para aplicaciones en la industria informática. Gracias a sus propiedades, el resultado serán móviles, ordenadores y discos duros, entre otros, más eficientes, rápidos y con mayor capacidad de almacenamiento.

Pero para Fert, hasta ahora director científico de la Unidad Mixta de Física del CNRS/Thalès en Francia, el reto en la mejora de los ordenadores y discos duros es encontrar nuevos materiales que permitan reducir el consumo de energía. "El 20% del consumo de electricidad del mundo en 2030 vendrá de la transmisión digital de los datos", dice el físico, recordando un estudio publicado en la revista Challenges.

¿A qué equivale buscar en Google?

Los data centers o centros de procesamientos de datos, espacios donde se gestiona toda la información por parte de grandes empresas y organizaciones, son sin duda los mayores consumidores de energía, más incluso que los propios ordenadores personales. 

"Como cada vez más cosas pasan por internet, el consumo energético de los data center aumentará en los próximos diez años en un factor 10", señala el físico francés, que subraya que un centro de datos de Google en EE UU gasta tanta energía como la ciudad de San Francisco.

¿Pero a qué equivale la energía que gastamos con la navegación por la red? "Una información que siempre doy es que treinta búsquedas en Google corresponden a la energía necesaria para hervir un litro de agua", puntualiza Fert. Con este dato no es difícil extrapolar la ingente cantidad de electricidad que se consume, y que afecta directamente al medio ambiente, solo para mantenernos informados.

Fert lo tiene claro: "Gastamos inútilmente cuando buscamos en internet. Con un ordenador podríamos encontrarlo directamente pero, por pereza, volvemos a pasar por Google y creamos enlaces para llegar a una web". Ni siquiera las energías renovables, como la solar y la eólica, son capaces en la actualidad de compensar el gasto energético de los ordenadores.

A pesar de las predicciones para la próxima década, con la creación de la computación en la nube y conexiones de inteligencia artificial, que no harán más que incrementar el consumo, solo la tecnología será capaz de reducir este gasto. Y es aquí donde la espintrónica de Fert tiene algo que decir.

Menos energía y más espacio

El premio Nobel francés plantea una cuestión frente a este problema: "¿Cómo continuar mejorando las tecnologías de la información a la vez que se frena un poco esta hemorragia de consumo energético?". Para ello, pronto llegará una nueva generación de ordenadores que consumirán mucho menos y estarán basados en efectos de la mecánica cuántica.

"En la actualidad, en los ordenadores lo que consume la energía es la memoria RAM, el almacenamiento de datos que para cumplir su labor tiene que estar continuamente proporcionando energía", declara a SINC el físico.

Ahora la producción de almacenamiento masivo ya se está produciendo en Samsung o IBM –que llevó al mercado la magnetorresistencia gigante en 1997– con los STT-RAM (spin-transfer torque magnetic random-access memory) que están basados en principios de la espintrónica, en particular sobre fenómenos cuánticos como es el efecto túnel cuántico que depende del espín, una propiedad cuántica de los electrones.

El investigador colaboraba con el centro de investigación vasco nanoGUNE para desarrollar una nueva generación de microprocesadores con la compañía Intel. Gracias a la espintrónica, busca soluciones para mejorar la eficiencia de microprocesadores con nuevos materiales.

"Aún hoy las puertas lógicas de los ordenadores consumen mucha energía. El proyecto con Intel se basa en aislantes topológicos, unos sistemas bidimensionales con propiedades muy especiales que permiten transformar señales magnéticas en señales eléctricas de manera muy económica y eficaz", explica el físico.

En los últimos años el desarrollo de la espintrónica se ha acelerado hacia múltiples direcciones, y no solo culmina en discos duros y productos de STT-RAM.

Un ordenador que imita el cerebro

Una de las aplicaciones son los ordenadores y sistemas neuromórficos, es decir computadoras inspiradas en el cerebro. "Esto está empezando", recalca el físico. En la actualidad, los ordenadores bioinspired reproducen las sinapsis y las neuronas con microcircuitos.

"Pero hacen falta cientos de transistores para hacer una neurona y decenas para hacer una sinapsis, y el resultado son ordenadores enormes que consumen también mucha energía como los del programa Alphago, que gastan 10.000 veces más energía que el jugador de Go que tiene enfrente", especifica el francés.

Estas máquinas utilizan un tipo de cálculo diferente, más bien neuronal, al que usan los ordenadores habituales, principalmente digital. En este caso, tienen compuestos específicos basados en otros materiales nanofísicos.

"En toda la informática actual, lo que gasta mucha energía es que hay vaivenes incesantes entre operación lógica y memoria. Incluso en los microprocesadores entre la memoria SRAM (Static Random Access Memory, por sus siglas en inglés) y puertas lógicas es este tipo de escritura y lectura continuo lo que gasta energía", ilustra Fert.

Pero en el cerebro, el proceso difiere: "La memoria y la transferencia de señales a la memoria ocurren a la vez. En cuanto una señal pasa de neurona a neurona, cada vez que se atraviesa una sinapsis, esta cambia y es memorizada", dice el físico. Los señales analógicas del cerebro permiten una visión con más matices que se transmiten por millones de sinapsis y neuronas.

¿Será posible algún día usar ordenadores que imitan al cerebro? Para ello habría que realizar una sinapsis con 50 transistores y una neurona con 500. "Esto es enorme. Si quisiéramos realizar algo con la potencia del cerebro necesitaríamos un ordenador del tamaño de Madrid", confiesa.

Esta tecnología, desarrollada especialmente por la investigadora francesa Julie Grollier, con la que ha trabajado Fert, todavía es limitada. "Aún no existen los componentes ni los efectos que permiten imitar las neuronas y las sinapsis", dice. "Estamos solo al principio", concluye el premio Nobel.

Por Adeline Marcos - Agencia SINC

08/02/2020 - 16:56h

ALMA está compuesto por 66 antenas de alta precisión ubicadas en el llano de Chajnantor, a 5.000 metros de altitud en el norte de Chile. ALMA

Los astrónomos inician una nueva era de descubrimientos en Chile gracias a una nueva configuración de las antenas situadas a kilómetros de distancia entre sí

Los astrónomos han comenzado a usar, por primera vez, la mayor separación posible entre las 66 antenas del radio telescopio ALMA, ubicado en el árido desierto de Atacama, en el norte de Chile, manteniéndolas a una distancia de 15 kilómetros entre sí. ¿El resultado? La mayor nitidez alcanzable con este observatorio capaz de investigar el universo frío, aquel que, a diferencia de estrellas y galaxias, no podemos ver con los telescopios convencionales.

Científicos del Instituto de Astrofísica de la Pontificia Universidad Católica (IA-PUC) y del Centro de Astrofísica y Tecnologías Afines (CATA), en Chile, han logrado con la nueva configuración obtener la imagen más nítida del gas frío ubicado la región central de un choque de galaxias, un gas que alimenta simultáneamente a dos monstruosos agujeros negros supermasivos a 360 millones años luz de nuestro planeta.

Se trata de dos galaxias –algunos expertos hablan de que serían tres- que se encuentran en proceso de colisión en la constelación de Ofiuco, dando origen a una nueva galaxia conocida como NGC 6240. Este proceso es un adelanto de lo que ocurrirá en nuestra propia Vía Láctea cuando se fusione con la vecina Andrómeda, en unos 5.000 millones de años de distancia. De ahí el interés por pasa en este sistema, donde el comportamiento de los agujeros negros es diferente al que había sido predicho desde hace un par de décadas, cuando se comenzó a observar esta formación.

Visión poderosa

Una técnica conocida como “interferometría”, similar a la que se utilizó para obtener la primera imagen del evento de horizonte de un agujero negro en 2019, es la que está permitiendo realizar todos estos hallazgos. La diferencia es que, en el caso del primer agujero negro fotografiado, se utilizaron observatorios en diversos lugares del mundo, con una separación no de decenas, sino de miles de kilómetros.

Ezequiel Treister, astrónomo IA-PUC que lideró la investigación, lo explica: “Sabíamos que utilizar esta técnica abriría la puerta a un universo de nuevos descubrimientos en astronomía. Cuando se combina la luz de más de un receptor, como es el caso de ALMA con 66 antenas, mayor separación entre ellos equivale a mayor nitidez”.

Para tener una idea, podemos comparar esta configuración de antenas con la apertura del espejo en un telescopio convencional como el Hubble. En estos telescopios ópticos, la apertura del espejo, o su diámetro, es la que define el detalle de las imágenes que se obtienen: cuanto más grande sea la apertura, mayor detalle. “La configuración en ALMA tenía antenas con una distancia máxima de 15 kilómetros. Eso permite obtener un detalle de imagen igual al que se conseguiría si tuviéramos un telescopio entero de 15 kilómetros de tamaño/apertura”, explica Hugo Messias, astrónomo de ALMA que participó de la investigación.

Ezequiel Treister cuenta que el trabajo comenzó en 2015, después de una reunión de astrónomos en el Instituto Tecnológico de California, Caltech, donde junto a otros colegas comenzaron a planear propuestas para ALMA. “Las observaciones recién se pudieron realizar en septiembre de 2017. No era fácil hacer coincidir la configuración correcta de las antenas con las condiciones climáticas adecuadas. Y después vino el análisis de los datos. Fueron dos años de intenso trabajo, codo con codo con expertos colaboradores de todas partes del mundo”, relata el astrónomo.

A comienzos del pasado enero, desde las remotas islas de Hawái, donde se desarrollaba la reunión número 235 de la sociedad astronómica estadounidense, se dieron a conocer los resultados de esta investigación, que arroja luces sobre el destino que correrá nuestra propia galaxia.

Turbulenta colisión

Un misterio que se pudo resolver fue el que existía en torno al tamaño de los agujeros negros. “Se pensaba que eran demasiado masivos en proporción a sus galaxias, ya que, al medir sus masas, era imposible separarlos de otro material en la región central, como gas y estrellas”, explica Treister. La investigación pudo medir directamente las masas de los agujeros, concluyendo que corresponden a entre 500 y 1.000 millones de veces la del Sol, unas 100 veces más grande que el que encontramos en el centro de la Vía Láctea, pero proporcionales a lo que se espera para el tamaño de sus galaxias.

También se pudo entender la configuración del gas que se ubica entre los dos agujeros negros: forman una especie de filamento de gas molecular que los une a una distancia similar a la de la Tierra con Próxima Centauri, (la estrella más cercana a nuestro planeta ubicada a cuatro años luz). “Lo que descubrimos sin duda nos sorprendió. En vez del disco rotante predicho hace 20 años, ahora veíamos claramente un filamento de gas uniendo los dos agujeros negros. Esta estructura parece estar estática, pero no lo está”, agrega Franz Bauer, astrónomo del Instituto de Astrofísica de la Universidad Católica que también participó de la investigación.

Estos revolucionarios datos nos indican que la mayor parte del gas detectado se localiza en la región entre los dos agujeros negros y que hay tal cantidad que equivaldría a 10.000 millones de masas solares o unas 15 veces más que todo el gas que encontramos en la Vía Láctea. Parte de este gas es expulsado por intensos vientos a velocidades de alrededor de 500 kilómetros por segundo o más. “Pensamos que, eventualmente, gran parte del gas será expulsado de la región central de la galaxia, mientras que una fracción relativamente pequeña caerá al interior del agujero negro, alimentándolo”, dice Franz Bauer.

A futuro, el potencial de esta técnica de observación es enorme. Una buena parte de las regiones del espacio que no hemos podido ver hasta ahora se hallan “ocultas”, debido al polvo existente en las regiones centrales de las galaxias: este absorbe la luz óptica, lo que explica por qué al observar hacia el centro de la galaxia se aprecia mayormente oscuridad. Una auténtica pared de polvo que hemos aprendido a atravesar y que comienza, de a poco, develar todos sus secretos.

Por Ricardo Acevedo

Santiago de Chile 27 ENE 2020 - 18:44 COT

La nueva era de la computación cuántica: la carrera tecnológica de EU y China

Google anunció su "supremacía cuántica" con un invento revolucionario: una computadora cuántica que puede realizar cálculos en 200 segundos, que a una “supercomputadora ( sic)” clásica, como la Summit del Laboratorio Nacional Oak Ridge, tomaría 10 mil años (https://bit.ly/2WE7nQA)”.

La computación cuántica se basa en la mecánica cuántica, que explica el extraño (sic) comportamiento de las extremadamente pequeñas partículas de la materia (https://nyti.ms/2JNzebM).

John Preskill propuso hace siete años el concepto de "supremacía cuántica": el punto en el que las computadoras cuánticas pueden realizar cosas que las computadoras clásicas no podrían.

Bloomberg apeló a un "optimismo precavido": se trata de un "inmenso logro bajo cualquier medición" cuando una “rudimentaria máquina cuántica mejoró la más veloz supercomputadora por un factor de 1,080 (https://bloom.bg/2WEB9Vn)”.

Las computadoras cuánticas (https://bit.ly/2Ndg94V) "desafían la intuición humana", según Bloomberg, que alerta sobre "algunos riesgos": 1. "La carrera global para dominar la computación cuántica se está calentando con consecuencias impredecibles"; y 2. "Las avanzadas computadoras cuánticas un día podrán amenazar la llave pública de la criptografía que protege la información en el mundo digital. Tales sistemas están basados en problemas matemáticos duros que las computadoras cuánticas podrían teóricamente ser capaces de agrietar con facilidad", por lo que los investigadores en seguridad trabajan para crear “sistemas y parámetros post-quantum (https://bit.ly/34v1hoC)”.

La revista científica Nature sintetiza en su "abstracto" que “la promesa de las computadoras cuánticas radica en que ciertas (sic) tareas computacionales podrían ser ejecutadas exponencial y más velozmente en un procesador cuántico que en un procesador clásico (https://go.nature.com/2r9Gngg)”.

Se refiere al procesador Sycamore de Google y su "dramático (sic) incremento en velocidad en comparación a todos (sic) los conoci-dos algoritmos clásicos" como "una realización experimental de la supremacía cuántica" que "anuncia un paradigma computacional".

Para un público más general, David Yaffe-Bellany (DY-B) explica en The New York Times la hazaña científica de Google en su laboratorio de investigación en Santa Bárbara (California) que desde la década de los 80 buscaba el Santo Grial de la velocidad del cálculo computacional: la “supremacía cuántica (https://nyti.ms/2JIFykL)”.

De inmediato, los celosos investigadores de IBM anunciaron que la “simulación ideal de la misma tarea puede ser realizada en un sistema clásico en 2.5 días con una fidelidad mucho mayor (https://ibm.co/2ptK3Jo)”.

Las implicaciones para la "seguridad nacional (sic) y la criptografía" son inconmensurables.

China –con su adopción también revolucionaria de la tecnología blockchain (https://bit.ly/2NcO4e7) entró de lleno a la competencia tecnológica con EU en varios rubros: desde la 5G pasando por la tecnología cuántica hasta la Inteligencia Artificial (IA).

A juicio de DY-B, "como todos los saltos en tecnología, las máquinas cuánticas son de doble filo: algún día podrán fortalecer los avances en IA; pero también pueden apabullar (sic) la encriptación que protege a las computadoras y que es vital a la Seguridad Nacional o aún a los sitios de comercio digital".

De allí que, aduce DY-B, "los gobiernos de EU y China consideran la computación cuántica como una prioridad nacional" cuando "China invierte 400 millones de dólares en un laboratorio cuántico nacional".

Hoy China encabeza el liderazgo de la “carrera para proteger los datos de la encriptación cuántica (https://nyti.ms/2JNNrFL)”.

China posee el doble de patentes de "tecnología cuántica" que EU, pero tres veces menos de “computadoras cuánticas (https://wapo.st/2NCMgtR)”.

Hoy lo que China y EU definen como "Seguridad Nacional" –desde los hidrocarburos, pasando por los alimentos, hasta la sofisticada tecnología– ha cesado de serlo para el aldeanismo de los países avasallados e intoxicados por la propaganda, hoy caduca, del globalismo neoliberal.

www.alfredojalife.com

Facebook: AlfredoJalife

Vk: id254048037

John Martinis posa en el ICMAT delante de un esquema de circuitos dibujado por él mismo. / Álvaro Muñoz Guzmán (SINC)

John Martinis fue fichado por Google para construir el primer ordenador cuántico. El físico ha visitado esta semana Madrid en medio del revuelo causado por la filtración de un artículo científico, aún no publicado oficialmente, en el que se afirma que la compañía habría logrado lo que se denomina 'supremacía cuántica', algo que ponen en entredicho sus competidores.

 

John Martinis es uno de los mayores expertos del mundo en computación cuántica, un campo científico y tecnológico en auge, cuyo objetivo es procesar información a altísimas velocidades basándose en los quantum bits (cúbits), que es la intersección de la física y la información. 

Este profesor de física y científico de la Universidad de California en Santa Bárbara está desde hace cinco años al frente del equipo que está construyendo el hardware del primer ordenador cuántico de la firma en el Google Quantum A.I. Lab, que también tiene sede en Santa Bárbara. 

Martinis ha estado esta semana en Madrid para participar en unas jornadas sobre simulación y computación cuántica, organizadas por el Instituto de Ciencias Matemáticas (ICMAT). En la entrevista con Sinc comentó que había venido unos días antes para poder visitar tranquilamente el Museo del Prado y ver la colección de cuadros de El Greco, uno de sus pintores favoritos. 

Su visita se produce unas semanas después de la filtración de un artículo embargado en el que Martinis y otros coautores exponen los resultados de su procesador cuántico. El documento, que apareció brevemente en un sitio web de la NASA antes de ser eliminado, afirma que el nuevo chip cuántico de Google es capaz de realizar un cálculo en tres minutos y 20 segundos, algo que al superdordenador clásico más avanzado le llevaría unos 10.000 años. Según el estudio, esto supone haber logrado la 'supremacía cuántica', que se obtiene cuando los ordenadores cuánticos realizan cálculos que antes habían sido imposibles. 

Sin embargo, en recientes declaraciones al Financial Times, el español Darío Gil, director mundial de IBM Research, señalaba que esta afirmación era "sencillamente errónea". En su opinión, este sistema "es una pieza especializada de hardware diseñada para resolver un solo problema y no un ordenador cuántico de propósito general, a diferencia de los desarrollados por IBM".

Sabemos que hay un artículo sobre este tema que no podemos mencionar porque está embargado y pendiente de publicación [ríe], pero ¿podría decirme cuál es la posición actual de Google en la computación cuántica?

Google comenzó a desarrollar su computador cuántico hace unos seis años y un año después decidieron contratarme para que me encargara del hardware. Estamos muy emocionados por haber sido capaces de construir este procesador cuántico y de que funcione bien. Los resultados se publicarán antes de que acabe el año en una revista científica. Creemos que es una tecnología muy potente, que será de gran utilidad para avanzar en este campo. 

Usted no puede hablar, pero el estudio se filtró y el contenido ha salido en medios. ¿Qué ocurrió?

Nosotros enviamos el artículo a la revista (Nature). Lo que pasó después es que uno de los coautores publicó el artículo sin querer en un sitio web y la gente lo cogió. La información salió en el Financial Times. Todos leímos la noticia (risas). Está siendo duro porque no paran de comentar y preguntarnos sobre el tema y nos gustaría responder a todas esas cuestiones, pero aún no podemos. Cuando se publique el estudio, es importante que la gente se enfoque en los resultados científicos. Lo hemos escrito muy cuidadosamente. Hay un total de 60 páginas de material complementario que entra muy en detalle de lo que hemos desarrollado.

Empresas como IBM y Rigetti Computing tienen ya prototipos de ordenadores cuánticos. ¿En qué se diferencia su propuesta

Al igual que estas compañías, también planeamos ponerlo en la nube. Creemos que nuestro ordenador cuántico tendrá menos errores que los de sus rivales y que este menor nivel de errores será lo suficientemente significativo como para que se puedan ejecutar algoritmos más complejos. Lo que necesitamos ahora es que los usuarios empiecen a probar el ordenador para saber cómo es su experiencia y ver qué necesitamos para mejorarlo.

Entrevistamos recientemente al director mundial de IBM Rersearch y nos comentó que uno de los principales retos de la computación cuántica actual es la corrección de errores.

También estamos trabajando en esto, pero pensamos que nuestro sistema tiene mejoras significativas que nos van a permitir hacer más fácilmente esta corrección de errores.

La computación cuántica está todavía en una fase muy inicial y se están creando muchas expectativas, pero, en realidad, lo que por ahora hacen los prototipos existentes es lo mismo que un ordenador convencional, pero más rápido.

Así es. Ahora las operaciones que se llevan a cabo en los experimentos de computación cuántica los podrías hacer tú fácilmente en un laptop. Nosotros esperamos llegar al mercado comercial con ordenadores cuánticos mucho más potentes. Cuando podamos hablar de nuestro experimento, explicaremos sus capacidades, pero puedo adelantar ya que será un avance significativo en el campo. Insisto, podremos entrar en el detalle cuando se publique el paper, que será antes de que acabe el año.

Una de las aplicaciones más esperadas es la de la simulación de moléculas, ¿no?

 Sí, unos de los campos de aplicación más interesantes estarán en la química cuántica, que describe cómo calcular cuál será la energía de unión y las propiedades de una molécula. Si esto se intenta hacer con un ordenador clásico, incluso el más potente, resultará ineficiente y muy lento y solo se podrá hacer con las moléculas más simples. 

En cambio, con un ordenador cuántico se podrán resolver estos problemas. Esto todavía está lejos y tenemos que recorrer un largo camino para lograrlo, pero los científicos están empezando a hacer cálculos y podría ser una aplicación muy importante.

¿Y cómo se traslada esto al mundo real?

Como decía, ahora me gusta mucho pensar en las aplicaciones de química cuántica porque es algo que sabemos que debería funcionar. Uno de los problemas de los que se habla en este campo es cómo sintetizar el amoniaco, que es una sustancia química muy importante para producir fertilizantes, pero su producción consume una buena fracción del total de los combustibles fósiles de la Tierra. 

La idea sería construir catalizadores y otras vías químicas que nos permitan ser mucho más eficientes. Podría ser estupendo usar un ordenador cuántico para saber cómo sintetizar mejor esa molécula y tener un impacto positivo, ya que estaremos usando menos combustibles fósiles para generar amoniaco. Este es un buen ejemplo de una posible aplicación.

¿Cómo está resultando trabajar para una gran compañía como Google?

Cuando Google contactó conmigo nuestro trabajo en la Universidad de California en Santa Bárbara iba muy bien y estábamos obteniendo muy buenos resultados, pero pensé que si queríamos desarrollar un ordenador cuántico, íbamos a necesitar más recursos, más personal permanente, etc. 

Así que cuando me propusieron unirme a la empresa me pareció una gran oportunidad. Ahora mismo, en el grupo de hardware cuántico somos unas 30 personas y, si incluimos software, algoritmos y negocio, seremos en torno a 50. Irme a Google ha resultado muy fácil porque me ha permitido juntar un equipo y los recursos para enfocarnos en este gran proyecto de construir un ordenador cuántico.

madrid

18/10/2019 10:18 Actualizado: 18/10/2019 10:18

Por ana hernando / sinc

Revisan la constante de Hubble; el universo es 2 mil millones de años más joven de lo que se estimaba

Una nueva técnica de distancia cósmica ha ofrecido un valor de la constante de Hubble diferente "algo más alto que el valor estándar", lo que hace que el universo sea 2 mil millones de años más joven.

Tamara Davis, de la Universidad de Queensalnd, explicó en la revista Science que las técnicas involucradas para alcanzar esta estimación son valiosas, porque pueden "ayudar a determinar si se necesita una nueva física para explicar la discrepancia (constante de Hubble), o si deberíamos buscar más detenidamente posibles errores sistemáticos en una o más mediciones".

Desde que apareció, el universo se ha expandido a un ritmo descrito por la constante de Hubble (H0). Sin embargo, este valor es objeto de controversia. Alrededor del año 2000, los astrofísicos habían alcanzado el valor de consenso de aproximadamente 70 +/- 5 km/s/Mpc, pero hace poco, también se sugirieron estimaciones a ambos lados de ese valor.

"Esta discrepancia es difícil de explicar por cualquier error sistemático que se haya propuesto", admitió Davis. Los astrofísicos preguntan si deben invocar una nueva física para explicar la discrepancia, y las nuevas mediciones independientes de H0 son útiles para abordar las preguntas relacionadas.

Investigadores de Estados Unidos, Alemania, Países Bajos, Taiwán y Japón estudiaron la luz de galaxias distantes que coinciden directamente detrás de las más cercanas. El campo gravitacional de la galaxia de primer plano distorsiona la luz de la del fondo, doblándola por medio de múltiples caminos con diferentes longitudes.

Esta fuerte lente gravitacional también causa retrasos de tiempo entre las múltiples imágenes. Cualquier variación en el brillo de la fuente de fondo será visible en algunas partes de la lente gravitacional antes que en otras.

Diámetro angular

La medición de este retraso y las propiedades de las estrellas dentro de la galaxia con lente se pueden combinar para determinar el tamaño de la galaxia con lente, lo que a su vez permite medir la distancia del diámetro angular a la lente.

Los investigadores aplicaron esta técnica para medir la distancia del diámetro angular a dos sistemas de lentes gravitacionales y los usó como puntos de referencia para recalibrar una medición existente de H0, que reportan como 82 +/- 8 km/s/Mpc. En ese supuesto, la edad del universo se rebajaría unos 2 mil millones de años sobre los 13 mil 700 millones de años del valor de consenso.

El agua llegó a la Tierra con la formación de la Luna, hace 4 mil 400 millones de años

Planetólogos de la Universidad de Münster (Alemania) demostraron, por primera vez, que el agua llegó a la Tierra con la formación de la Luna hace unos 4 mil 400 millones de años.

La Luna se formó cuando la Tierra fue golpeada por un cuerpo del tamaño de Marte, llamado Theia. Hasta ahora, los científicos habían asumido que este último se originó en el sistema solar interior cerca de nuestro planeta.

Sin embargo, los investigadores de Münster ahora tienen elementos para probar que Theia proviene del sistema solar exterior y que entregó grandes cantidades de agua a la Tierra. Los resultados de su estudio se publican en Nature Astronomy.

La Tierra se formó en el sistema solar interior "seco", por lo que es algo sorprendente que tenga agua. Para entenderlo, tenemos que retroceder en el tiempo, cuando el sistema solar se formó hace unos 4 mil 500 millones de años.

Materiales secos y húmedos

A partir de estudios anteriores, se sabe que el sistema solar se estructuró de tal manera que los materiales "secos" se separaron de los "húmedos": los meteoritos llamados "carbonosos", relativamente ricos en agua, provienen del sistema solar exterior, mientras los meteoritos "no carbonosos", más secos, provienen del sistema solar interior.

Si bien los estudios anteriores han demostrado que los materiales carbonosos probablemente fueron los causantes de entregar el agua a la Tierra, se desconocía cuándo y cómo llegaron, y por tanto el agua, llegó a nuestro planeta.

“Hemos utilizado isótopos de molibdeno para responder a esta pregunta, pues permiten distinguir el material carbonoso y el que no lo es, y como tal representa una ‘huella genética’ del material del sistema solar exterior e interior”, explicó Gerrit Budde, del Instituto de Planetología en Münster y autor principal del estudio.

Las mediciones realizadas por los investigadores de Münster muestran que la composición isotópica del molibdeno de la Tierra se encuentra entre las de los meteoritos carbonosos y los que no lo son, lo que demuestra que parte de ese elemento químico en el planeta se originó en el sistema solar exterior. En este contexto, sus propiedades químicas tienen un papel clave porque, como es amante del hierro, la mayor parte está en el núcleo del planeta.

"El molibdeno, al que se puede acceder hoy día en el manto de la Tierra, se origina en las últimas etapas de la formación del planeta, mientras el de las fases anteriores está completamente en el núcleo", sostuvo Christoph Burkhardt, segundo autor del estudio.

Los resultados de los científicos muestran, por primera vez, que el material carbonoso del sistema solar exterior llegó tarde al planeta.

Pero van un paso más allá. Muestran que la mayor parte del molibdeno en el manto de la Tierra fue suministrada por el protoplaneta Theia. Sin embargo, dado que una gran parte de ese elemento en el manto del planeta se origina en el sistema solar exterior, esto significa que ese cuerpo también se formó allí. Según los científicos, la colisión proporcionó material carbonoso suficiente para dar cuenta de la cantidad total de agua en la Tierra.

“Nuestro enfoque es único porque, por primera vez, permite asociar el origen del agua en la Tierra con la formación de la Luna.

"En pocas palabras, sin el satélite probablemente no habría vida en la Tierra", afirmó Thorsten Kleine, profesora de planetología en la Universidad de Münster.

Evidencia química y física

Por otra parte, por primera vez, un estudio interdisciplinario mostró evidencia química, física y material de la formación de agua en la Luna.

Si bien los descubrimientos recientes de sondas como Prospector Lunar y Satélite de Detección y Observación de Cráteres Lunares sugieren la existencia de hielo de agua en los polos del satélite, su origen sigue siendo incierto.

Ralf I. Kaiser y Jeffrey Gillis-Davis, del Intituto de Geofísica y Planetología de Hawai, diseñaron los experimentos para probar la sinergia entre los protones de hidrógeno del viento solar, los minerales lunares y los impactos de micrometeoritos.
Desinformémonos

Publicado enMedio Ambiente
Página 1 de 8