Científicos del CERN descubrieron una partícula nunca observada antes

El Centro Europeo de Física de Partículas (CERN) anunció este miércoles el descubrimiento de una nueva partícula formada por cuatro quarks que, según los investigadores, ayudará a entender la forma en que éstos interactúan para formar los protones y neutrones que se encuentran en el núcleo de los átomos.

Ni la partícula ni la clase a la que pertenecería habían sido observadas con anterioridad, y son especialmente raros dado que los quarks, partículas elementales mínimas en la física subatómica, se suelen agrupar en parejas o tríos para formar hadrones -de los que los protones y neutrones son ejemplos-.

El CERN señaló en un comunicado que se pudo dar con el hallazgo gracias a observaciones en el LHCb, uno de los cuatro equipos de experimentación situados en diferentes zonas del Gran Colisionador de Hadrones. A su vez, indicó que el descubrimiento fue presentado en un reciente seminario del centro y también publicado en la base de datos científicos arXiv.

La organización también explicó que los teóricos predijeron durante décadas la existencia de hadrones de cuatro y cinco quarks, descritos en ocasiones como tetraquarks y pentaquarks. Hace algunos años, experimentos como el LHCb pudieron confirmar la existencia de algunos de estos hadrones “exóticos”.

Según el CERN, estas partículas con una rara combinación de quarks son “un laboratorio ideal para estudiar una de las cuatro fuerzas fundamentales de la naturaleza conocidas, aquélla que enlaza protones, neutrones y el núcleo atómico que componen la materia”.

Además, resaltó que el estudio de estas interacciones es esencial para determinar si procesos extraños como esta combinación de cuatro quarks muestran una “nueva física” o cumplen el modelo estándar de esta ciencia, uno de los principales propósitos de la investigación iniciada en sus aceleradores de partículas.

De esta manera, el centro aseguró que si las partículas formadas por cuatro quarks son ya de por sí extrañas, la descubierta ahora lo es aún más al ser todos del mismo tipo, el llamado quark C (de “charm”, “encanto”), el cual es considerado una modalidad “pesada”.

 “Hasta ahora los experimentos sólo habían descubierto tetraquarks con dos quarks pesados como máximo, y nunca con más de dos del mismo tipo”, detalló el portavoz de LHCb, Giovanni Passaleva, en el comunicado.

El descubrimiento se consiguió analizando datos de colisiones de partículas en los últimos períodos de actividad del Gran Colisionador de Hadrones, de 2009 a 2013 y de 2015 a 2018. El Colisionador actualmente se encuentra cerrado por trabajos de renovación y mejora, y su reapertura se prevé para mayo de 2021.

Los investigadores aclararon que todavía no es posible determinar si la nueva partícula detectada es un verdadero tetraquark o es en realidad una pareja de partículas formadas por dos quarks. Sin embargo, cualquiera de los dos casos les ayudaría a probar modelos de interacción cuántica.

Ahora sabemos cuántos neutrinos tiene el Sol (y son más de los que se pensaba)

El equipo internacional de científicos del proyecto italiano Borexino ha logrado calcular, por primera vez, el número de distintos tipos de neutrinos que surge de las entrañas del Sol durante las reacciones de fusión que tienen lugar sobre su superficie. Los resultados de esta investigación se han publicado en la revista Nature.


"Los neutrinos que nacen de las diferentes reacciones en el Sol poseen diferentes cargas de energía. Como consecuencia, su estudio (…) nos permite buscar sus efectos más allá del modelo estándar de la física de partículas como, por ejemplo, las interacciones no estándar de neutrinos y de neutrinos estériles", explica Alexandr Chepurnov, docente del Instituto de Investigaciones Científicas de la Universidad Estatal de Moscú.


Los neutrinos son las partículas elementales más pequeñas sobre la superficie solar y se comunican con la materia que los rodea gracias a la gravedad y a las conocidas como 'interacciones débiles', solo presentes entre distancias bastante más pequeñas que el tamaño del núcleo de un átomo.


En 1960, los científicos descubrieron que los neutrinos de un tipo eran capaces de transformarse en otro tipo y que no poseían masa nula, sino una muy pequeña. Desde entonces, la comunidad científica ha observado detenidamente estas pequeñas partículas para tratar de calcular la masa basándose en la facilidad con la que los distintos tipos de neutrinos se convierten en otros tipos.


El proyecto Borexino, que empezó en 2007, pretende desvelar todos estos enigmas.


Como explica Chepurnov, dependiendo del tipo de reacción de fusión que se dé en el subsuelo solar, se genera uno u otro tipo de neutrinos. Si se conoce la proporción y el número de estas partículas, se puede determinar lo que está sucediendo dentro del astro rey y, además, si coincide con lo que ya predicen el modelo estándar y las teorías que intentan explicar cómo se forman las estrellas.


Durante los últimos 10 años, el equipo ha ido elaborando un 'censo' de estas partículas basándose en la cantidad de neutrinos de diferente carga de energía que genera el Sol y que observa el detector Borexino, que contiene 300 toneladas métricas de un fluido que emite destellos de luz en respuesta a los neutrinos.


Cada centímetro cuadrado del Sol produce unos 6.000 millones de estas partículas cada segundo. De la desintegración de berilio se generan otros 5.000 millones. A su vez, el nacimiento de elementos pesados genera unos 800 millones más. Los científicos del proyecto creen que el margen de error puede ser del 10%.


De acuerdo con Chepurnov, las tres cifras, resultados del 'censo', son más precisas que las de las predicciones del modelo estándar de la física de partículas.


Los científicos planean medir en el futuro el número exacto de neutrinos que surgen en la formación de núcleos de carbono, de nitrógeno y de oxígeno. Los resultados serán esenciales para evaluar la cantidad de metales —de elementos más pesados que el hidrógeno y que el helio— que hay bajo la corteza del Sol y para explorar los misterios del ciclo de vida de las estrellas más grandes del universo.

Superláser de rayos X permitirá analizar la materia en el nanomundo

European XFEL, fruto de la colaboración de 11 países, será inaugurado en Alemania

Se extiende a lo largo de 3.4 kilómetros en los alrededores de Hamburgo


El mayor láser en el dominio de los rayos X del mundo, el European XFEL, será inaugurado mañana en Alemania con la misión de analizar la materia a escala atómica y permitir avances sobre todo en medicina y biología.

Este equipamiento puntero, fruto de una colaboración entre 11 países, en especial Alemania y Rusia, pero también Francia y España, se extiende a lo largo de 3.4 kilómetros en los alrededores de Hamburgo.

"Es la mayor y más potente fuente de rayos X fabricada por el hombre en el mundo", declaró Olivier Napoly, del Comisionado de la Energía Atómica francés, que participó en su construcción.

El Láser Europeo de Electrones Libres y Rayos X (XFEL, por sus siglas en inglés) comprende varios túneles subterráneos, de los cuales uno, con una profundidad de 38 metros, alberga un acelerador lineal de electrones que mide 1.7 kilómetros, y que permitirá que éstos generen una energía de entre 10 mil millones y 17 mil 500 millones de electronvoltios (V).

Este láser X podrá producir hasta 27 mil flashes de rayos X por segundo, un enorme salto comparado con los 120 emitidos por el láser estadunidense LCLS, de Stanford, y los 60 generados por el SACLA de Japón.

Tendrá además "el mayor promedio de brillo en el mundo", declaró Robert Feidenhans’l, presidente del consejo de administración del European XFEL.

Se trata del número de fotones (partícula de luz) generados a una determinada longitud de onda. "En su punto más álgido, el brillo del XFEL será mil millones de veces mayor que el de los sincrotrones, las mejores fuentes de rayos X convencionales", aseguran sus responsables.

"Permitirá ver los detalles más pequeños y procesos jamás observados en el nanomundo", agregó Feidenhans’l.

Sus aplicaciones abarcarán desde la medicina y la biología hasta la química y la ciencia de los materiales.

Por ejemplo, los científicos podrán "observar en detalle los virus a escala atómica, descifrar la composición molecular de las células, tomar imágenes en tres dimensiones del nanomundo y estudiar los procedimientos similares a los que se producen en el interior de los planetas", subrayaron los responsables.

Como la duración de los flashes es extremadamente corta, los investigadores podrán también realizar "filmes" de procesos ultrarrápidos, como las reacciones químicas y los cambios en las biomoléculas de los seres vivos.

El European XFEL es el resultado de un acuerdo alcanzado en 2009 entre 11 países y fue promovido por el centro de investigación alemán DESY, de Hamburgo. La construcción tuvo un costo de unos mil 800 millones de dólares, financiados en 57 por ciento por Alemania, 26 por Rusia, mientras los otros países (Francia, España, Italia, Suiza, Dinamarca, Hungría, Polonia, Eslovaquia, Suecia) participaron entre uno y 3 por ciento, cada uno. Reino Unido prometió sumarse próximamente al proyecto.

Los científicos compiten para ser los primeros en experimentar con este equipamiento, cuya potencia aumentará de forma progresiva tras su inauguración. "Hay una gran competencia entre los investigadores para obtener tiempo de haces", indicó Feidenhans’l.

Comienza el mayor experimento de física cuántica del mundo para contradecir a Einstein

30.000 voluntarios de todo el mundo enviarán secuencias de números aleatorios que 12 laboratorios internacionales utilizarán para analizar cómo reaccionan las partículas.


Doce laboratorios de varios países, coordinados desde Barcelona por el Instituto de Ciencias Fotónicas (ICFO) han comenzado este miércoles un experimento inédito que tratará de descifrar los misterios de la física cuántica. Se trata de "The Big Bell Test" (El Gran Test de Bell), una prueba científica en la que, por primera vez, las decisiones humanas se convertirán en el eje principal del estudio.


Para ello, los coordinadores del proyecto han solicitado la participación de 30.000 voluntarios de todo el mundo, de cualquier edad y formación, para desempeñar una tarea muy sencilla: mediante un videojuego creado específicamente para el proyecto, los participantes tendrán que introducir secuencias de ceros y unos de la forma más aleatoria posible.


Las aportaciones de los participantes, que se enviarán en tiempo real a los laboratorios, se traducirán en el tipo de mediciones que los investigadores irán haciendo en cada momento sobre las partículas, que incluyen átomos, fotones y superconductores.


Comprobar si modificamos la realidad cuando la observamos


El objetivo del proyecto es comprobar si modificamos la realidad cuando la observamos. Así, según la física cuántica, si tenemos un par de partículas entrelazadas y hacemos una medición en una de ellas, la otra cambia al instante sin importar la distancia que las separa.


El experimento más famoso que conocemos de este tipo es el "test de Bell", que trata de sorprender a las partículas cuánticas mientras "hablan entre sí" para ponerse de acuerdo sobre qué contestar a "nuestras preguntas".


Sin embargo, Einstein, el padre de la física moderna, pensaba que este planteamiento era falso y plasmó su convicción en una teoría llamada "realismo local", que defendía que una partícula debe tener objetivamente un valor preexistente o real antes de medirlo.


Su visión se ha ido demorando en las últimas décadas y, ahora, los investigadores sostienen que hay aspectos de la realidad física que solo se pueden conocer si se formulan a la naturaleza preguntas aleatorias, impredecibles.


"Objetos que se comportan de manera diferente cuando no los miramos"


"La física esconde misterios muy profundos que solo pueden estudiarse mediante preguntas impredecibles de la naturaleza. En términos generales, la idea recae en que si la naturaleza sabe lo que le vamos a preguntar, podría engañarnos con una respuesta preparada", explica el profesor del ICFO Morgan Mitchell.


Según el profesor, "normalmente, los científicos no son tan paranoicos, pero algunas de las predicciones hechas por la física cuántica son tan extrañas - partículas diminutas que se hablan la una a la otra separadas por enormes distancias, objetos que se comportan de manera diferente cuando no los estamos mirando - que lleva a pensar que la paranoia es completamente apropiada, incluso necesaria”.


"En este contexto, los seres humanos toman decisiones independientes, las cuales son muy valiosas, y comprenden una forma única de hacer preguntas impredecibles, sin importar qué secretos la naturaleza nos podría estar escondiendo", añade.


El experimento durará 48 horas


Esta iniciativa surgió a raíz de las contribuciones hechas por el ICFO a los experimentos de Bell realizados en el 2015 y la necesidad de realizar un experimento a gran escalada controlado por seres humanos teniendo en cuenta la gran capacidad de internet para movilizar masas.


Las secuencias de ceros y unos se podrán mandar durante el día 30 desde las doce de la madrugada en la zona horaria de Australia, hasta las 23.55 de la hora de Colorado. En total, durante casi 48 horas.


Además del ICFO, el resto de laboratorios participantes se encuentran en Estados Unidos, Austria, Alemania, Suiza, Australia, Chile, Italia, China y Buenos Aires.

 

Publicado: 1 dic 2016 07:19 GMT

Máquinas moleculares poseen elevado potencial en la medicina y la electrónica

Son mil veces más pequeñas que el espesor de un cabello y útiles en el desarrollo de nuevos materiales

 

Un músculo artificial, un nanovehículo o un miniascensor... las creaciones de los ganadores del Premio Nobel de Química son tan minúsculas que no se observan a simple vista. Son mil veces más pequeñas que el espesor de un cabello y pueden utilizarse para desarrollar nuevos materiales, sensores y sistemas de almacenaje de energía en las computadoras, explicó la Real Academia de Ciencias Sueca.

El francés Jean-Pierre Sauvage, el británico Fraser Stoddart y al holandés Bernard Ben Feringa son los padres de las minúsculas "máquinas moleculares" que prefiguran los nanorobots del futuro, capaces de cumplir una gran variedad de funciones en medicina o la vida diaria.

Sauvage, de 71 años, profesor de la Universidad de Estrasburgo, es el primero en haber imaginado estas nanomáquinas, que presenta como un "ensamblaje molecular capaz de ponerse en movimiento de forma controlada, en respuesta a señales diversas: luz, cambio de temperatura, etcétera".

La experiencia de Sauvage fue desarrollada luego por Stoddart, de 74 años, profesor en la Northwestern University, de Estados Unidos, quien creó un "rotaxano": enhebró un anillo molecular en un fino eje y demostró que el anillo podía desplazarse a lo largo del eje.

Ascensor y músculo

Este descubrimiento le permitió crear un ascensor y un músculo moleculares.

Stoddart creció en la granja familiar en Escocia. "No había ni televisión ni computadora. Se divertía haciendo rompecabezas, desarrollando así una calidad esencial para un químico: reconocer las formas y entrenarse para ensamblarlas", señaló la academia.

Con dos hijas que también son químicas, soñaba con ser un "artista molecular", añadió.

Sauvage, nacido en París y director emérito del Centro Nacional de Investigación Científica, recibió ya la felicitación del presidente galo, François Hollande, para quien la noticia es "un reconocimiento a la excelencia de la investigación francesa y europea".

Finalmente, en 1999, Feringa, de 65 años, de la Universidad de Groninga, consiguió rotar con motores moleculares un cilindro de vidrio 10 mil veces mayor que éstos. Además, en 2011 diseñó una especie de nanocoche con cuatro ruedas.

"Me siento muy sorprendido y muy feliz, porque comparto el premio con dos investigadores que admiro enormemente", expresó.

El científico afirmó “tener la impresión de ser un poco como los hermanos Wright, que volaron (en avión) por primera vez hace 100 años. La gente dijo: ‘¿para qué necesitamos máquinas que vuelan?’ Y ahora tenemos el Boeing 747 y el Airbus”.

"Cuando me llegó la noticia no supe qué decir", explicó Feringa, quien se quedó “un poco impactado por semejante sorpresa. Mi segunda reacción fue: ‘me siento tan honrado y conmovido’”, añadió en declaraciones telefónicas a los periodistas presentes en la Real Academia de las Ciencias de Suecia.

Según el científico holandés, los descubrimientos hechos por él y los otros dos galardonados podrían servir en el futuro para llevar medicación hasta las células.

"Los tres premios Nobel abrieron este nuevo campo de máquinas moleculares" e iniciaron una "revolución", explicó el miembro del jurado Olof Ramström.

Pueden resultar eficaces a la hora de proteger partes del cuerpo de los efectos tóxicos de ciertos medicamentos, como los de la quimioterapia.

El producto químico quedaría oculto en la nanomáquina, y sería enviado a una parte específica del cuerpo o hacia un tumor, antes de ser estimulada con una señal luminosa y así liberar su poderosa carga.

Imitar la función de células, una de las posibilidades

Jazues Maddaluno, del Instituto de Química del CNRS, imagina un mundo en el que unos nanobots sean utilizados para imitar la función de células humanas o incluso de órganos.

"Podríamos intentar hacer una célula artificial, utilizar máquinas moleculares que hacen lo mismo que estas células", dijo.

"Podríamos realizar copias artificiales de estructuras biológicas, que podrían incluso trabajar afuera del cuerpo humano, como filtros para desintoxicar la sangre", añadió.

Algunos expertos esperan que las nanomáquinas puedan utilizarse en prótesis, por ejemplo moviendo un miembro artificial.

Muchas máquinas moleculares ya imitan la función muscular, contrayéndose y expandiéndose en respuesta a un estímulo externo.

En la actualidad muchos grupos de investigación siguen avanzando sobre los descubrimientos de los tres nuevos premios Nobel, por ejemplo a través de motores con los que se puede ahorrar energía.

El desarrollo de las nanomáquinas todavía se encuentra en fase inicial, subrayó el jurado, que lo comparó con el estado de la investigación de los motores eléctricos en los años 30 del siglo XIX.

En la ciudad francesa de Toulouse se podrá conocer pronto lo que son capaces de hacer por ahora los motores moleculares. A principios de 2017 tendrá lugar una competencia con nanovehículos por un circuito de 100 nanómetros. Los espectadores deberán tener paciencia y observar con mucha atención. Los minúsculos vehículos sólo avanzan entre 5 y 20 nanómetros por hora y la carrera puede seguirse gracias a un microscopio de efecto túnel.

Una pequeña idea en la física cuántica

La teoría cuántica es, sin lugar a dudas, el fundamento de absolutamente todas las tecnologías actuales que nos rodean y hacen posible nuestra existencia.

 

La más sólida, robusta, testeada, verificada, falseada y probada de todas las teorías científicas es la de la física cuántica. En realidad, cabe decir la teoría cuántica, pues ésta no se reduce a la física. Existe también una química cuántica, una biología cuántica, y se estudian los efectos y comportamientos cuánticos también a nivel del cerebro, e incluso a nivel de los sistemas sociales humanos en general, por ejemplo.


Un capítulo medular de la teoría cuántica es la mecánica cuántica. Que, en realidad, consiste en el estudio de los comportamientos de las partículas con ayuda de un muy técnico y robusto aparato matemático destinado justamente a explicar los comportamientos de tipo cuántico. Hay que decir que al lado de la mecánica cuántica existe igualmente la mecánica de ondas y los fenómenos de entrelazamiento, todos los cuales constituyen verdaderas puntas de investigación y de conocimiento.


Pues bien, en el marco de la mecánica cuántica, las partículas sólo aparecen cuando interactúan con otra cosa, y entonces se localizan en un punto. Mientras no interactúen, sencillamente no están en ninguna parte. Se dice entonces que entonces, cuando están solas, se abren en una nube de posibilidades. Exactamente en este sentido se dice que en la teoría cuántica se estudian los fenómenos sólo en tanto hay interacciones, o lo que es equivalente, se estudian sus efectos.


En otras palabras, una partícula que no tenga ningún efecto, esto es, literalmente, que no afecta, no existe y no se encuentra en ningún lugar. Es, en el mejor de los casos, una probabilidad. Dicho genéricamente, las cosas sólo existen en cuanto nos afectan. Antes o después son simplemente probabilidades.


En un sentido preciso, el tema de trabajo ya no consiste, como en la física y la filosofía clásicas, de saber qué son las cosas. Ya W. Heisenberg, con mucha precisión, estableció que si podemos determinar el lugar de las cosas, no podemos saber hacia dónde se dirigen, y viceversa. Exactamente en este sentido, la física cuántica pone de manifiesto que la realidad es un tejido relacional, mucho antes y mucho mejor que las versiones populares de esta idea, como son el pensamiento sistémico, por ejemplo.


En otras palabras, dicho de forma más directa, el mérito de la física cuántica consiste en poner de manifiesto que el interés ya no es el de establecer qué le ocurre a un sistema físico, sino, tan sólo, cómo un sistema físico incide en otro. Así, la física ya no se ocupa, como en el pasado, de decir lo que es el mundo, la naturaleza o la realidad, sino qué tanto sabemos sobre los mismos, o lo que es equivalente, cómo suceden las interacciones, o cómo un fenómeno incide en otro. Pues, mientras no haya incidencia o afectación, simplemente no existe.


Dicho en términos filosóficos, lógicos o epistemológicos, lo anterior quiere decir que los cosas que están solas son sencillamente nubes de probabilidades, pues una cosa sola es equivalente a que no es nada. Las cosas existen tan solo en la medida en que interactúan, y en el modo mismo de la interacción. Es justamente por esto por lo que la física cuántica en particular, y la teoría cuántica en general, ha sido convenientemente llamada una segunda revolución científica —después de la historia que conduce de Kepler a Newton.


La mecánica cuántica, pues, no describe objetos, a diferencia de la mecánica clásica. Antes bien, describe procesos y acontecimientos que interaccionan entre procesos. Es en este sentido como, en otro contexto, R. Feymann, entre otros, llama a la necesidad de desarrollar una teoría general de procesos. El mundo ha dejado de ser un tejido de objetos e incluso de relaciones entre objetos, para ser comprendido como un fenómeno esencialmente variable, interactuante, cambiante.


Pues bien, las interacciones entre partículas quiere decir que éstas se aparecen en tanto interaccionan con otras, y cuando dejan de interactuar, desaparecen. Más ampliamente, las cosas aparecen y desaparecen, y son significativas en la medida en que afectan a otras. Una vez que la afectación ha cesado, sencillamente ha desaparecido. Este es todo el meollo del famoso debate de Copenhaguen entre Einstein y Bohr. Y dicho de forma más técnica, en esto exactamente consiste el problema de la medición en física cuántica.


Einstein, determinista, sostenía que las cosas existen por sí mismas, independientemente del observador. Bohr, por el contrario, indeterminista, afirmaba que la observación del fenómeno modifica el comportamiento mismo del objeto observado.


El mundo y la realidad, la naturaleza y la cosas están hechas de vibraciones y pululación, de interacciones y acontecimientos. Más exactamente, el mundo y la realidad son esencialmente probabilísticos, y se trata, en verdad, de la probabilidad de que un sistema físico afecte a otro y cómo. De esta suerte, la humanidad aprende la incertidumbre, la cual no tiene, en absoluto, un componente o un significado emocional o cognitivo. La incertidumbre, por el contrario, pertenece a la realidad misma, y significa que las cosas aparecen, afectan y luego dejan de afectar y desaparecen. Ni más ni menos.


La teoría cuántica es, sin lugar a dudas, el fundamento de absolutamente todas las tecnologías actuales que nos rodean y hacen posible nuestra existencia. En medicina o en astronomía, en la vida cotidiana o en los más sofisticados escenarios.


Sorprende, sin embargo, la distancia que aún existe, más de cien años luego de ser formulada originariamente por M. Planck, por Einstein mismo por los años durados que fueron 1924–1926, entre la base de la sociedad y el avance del conocimiento. Mucha gente sigue pensando y actuando como si lo importante fuera lo que son las cosas, cuando, en realidad, las cosas no son nada por fuera de su afectación sobre nosotros. El sentido y el significado sólo existen en la medida misma en que hay efectos. Cuando dejan de haberlos, el mundo es un haz de fenómenos solitarios, inexistentes.

Tesis de Néstor Quintero sobre neutrinos abre paradigmas

El investigador propuso una serie de nuevos procesos de producción y desintegración de estas partículas para descifrar si tienen masa y cuáles serían los mecanismos de su generación

Los neutrinos son partículas elementales que en fechas recientes han cobrado especial relevancia para la comunidad internacional de físicos y astrofísicos debido a que podrían jugar un papel muy importante en la explicación a enigmas como la naturaleza de la materia y la energía oscura.


Por ello, Néstor Quintero Poveda, egresado de doctorado en el Centro de Investigación y de Estudios Avanzados (Cinvestav), formuló una teoría para identificar cómo es que esta partícula obtiene su materia, que eventualmente se convirtió en su tesis, Estudios de violación del número leptónico en procesos resonantes inducidos por un neutrino de Majorana, por la cual recibió el Premio Arturo Rosenblueth 2015.


Por mucho tiempo se pensó que la masa de los neutrinos era cero, pero una serie de experimentos que observaron el fenómeno de oscilaciones de estas partículas han determinado que sí tienen masa, aunque muy diminuta. Aún se ignora, sin embargo, cómo es el mecanismo por el cual la adquirieron, es decir, por qué son partículas masivas.


Un neutrino masivo es denominado de Dirac si su antipartícula es diferente de él, mientras que es llamado de Majorana si ésta coincide. Determinar si los neutrinos son partículas masivas de Dirac o de Majorana es uno de los temas de actualidad más importantes en la física de partículas y de mucha actividad experimental alrededor del mundo.


Quintero Poveda planteó una serie de procesos a fin de identificar si los neutrinos son partículas Majorana, y de ser así cuáles serían los mecanismos de generación de masa.


Este conocimiento –subrayó– podría ayudar (total o parcialmente) a entender mejor parte del universo, como el hecho de la asimetría materia-antimateria, o conocer la naturaleza de la llamada materia oscura.


Lo que nosotros propusimos en la tesis fue una serie de nuevos procesos de producción y desintegración de neutrinos para descifrar si se trata de partículas Majorana. Lo relevante es que la búsqueda de estos procesos está al alcance de diferentes experimentos actuales en la frontera de la alta intensidad, tales como el experimento LHCb (en el Gran Colisionador de Hadrones), o bien en el proyecto japonés Belle II (que espera empezar a tomar datos a partir de 2016), comentó el investigador de origen colombiano.


La propuesta planteada por Quintero Poveda podrá emplearse a corto plazo a través de los proyectos que investigadores del Cinvestav realizan en el experimento japonés Belle II, por lo que puede referirse a su investigación como teórica con aplicaciones prácticas.


De comprobarse su hipótesis, podría contribuir a la generación de nuevos paradigmas para la ciencia moderna. Así fue calificada por funcionarios de la institución, por lo que fue merecedor del Premio Arturo Rosenblueth 2015 en la categoría de ciencias exactas y naturales.


La tesis fue dirigida por Gabriel López Castro, investigador de departamento de física del Cinvestav en el grupo de Física de Altas Energías, quien desde 2009 trabajó con Quintero Poveda en torno al estudio de los neutrinos.
Actualmente Quintero Poveda es profesor de la Universidad de Tolima, en Colombia, y entre sus metas está fortalecer el estudio de la física entre los nuevos investigadores de su país, además de mantener la colaboración con investigadores mexicanos.

El CERN presenta la imagen más nítida del bosón de Higgs

Según la institución, las mediciones combinadas de los equipos de los detectores ATLAS y CMS del Gran Colisionador de Hadrones (LHC) han permitido desvelar nuevos detalles sobre cómo se produce y se desintegra el bosón, además de determinar cómo interactúa con otras partículas.


El CERN ha anunciado en la Conferencia LHCP 2015, que se celebra estos días en San Petersburgo (Rusia), los resultados de las mediciones combinadas de los detectores ATLAS y CMS del Gran Colisionador de Hadrones (LHC). El organismo de investigación ha indicado en un comunicado que los datos recogidos durante 2011 y 2012 por los equipos de los detectores ATLAS y CMS del LHC han dibujado la imagen más nítida de la partícula descubierta hace tres años.

En concreto, los nuevos resultados "ofrecen una mayor precisión sobre la producción y desintegración del bosón. También arrojan luz sobre la forma en la que interactúa con otras partículas", indica la institución.


"Todas las propiedades medidas concuerdan con las predicciones del modelo estándar y se convertirán en la referencia para nuevos análisis en los próximos meses, lo que permitirá la investigación de nuevos fenómenos de la física", añade el CERN.

Los nuevos hallazgos suponen un nuevo avance tras las mejores medidas del bosón, publicadas el pasado mes de mayo, fruto también de la colaboración entre ATLAS y CMS.


El modelo estándar, a prueba


"El bosón de Higgs es una herramienta fantástica para poner a prueba el modelo estándar de la física de partículas y estudiar el mecanismo Brout-Englert-Higgs que da masa a las partículas", ha señalado el director general del CERN, Rolf Heuer.

De acuerdo con el modelo estándar, en el momento en que se produce el bosón, en un 58% de los casos debe desintegrarse de forma inmediata en un quark b y su antipartícula. Los experimentos ATLAS y CMS han podido determinar con una precisión inédita las frecuencias de las desintegraciones más comunes.

El CERN añade que las medidas de precisión de las tasas de desintegración son de vital importancia, ya que están directamente vinculadas a la fuerza de la interacción del bosón de Higgs con otras partículas elementales, así como con sus masas.

"El estudio de su desintegración es esencial para determinar la naturaleza del bosón. Cualquier desviación en las velocidades medidas en comparación con las predichas por el modelo estándar podría poner en tela de juicio el mecanismo Brout-Englert-Higgs y, posiblemente, abrir la puerta a una nueva física más allá del modelo estándar", destaca el CERN.

El CERN espera las primeras colisiones de protones en dos meses

El director general del Centro Europeo de Física de Partículas (CERN), Rolf Heuer, dijo hoy que se espera que las primeras colisiones de protones que han empezado a ser introducidos en el Gran Colisionador de Hadrones (LHC) se produzcan en aproximadamente dos meses. "Tomará unos dos meses llevar la máquina a colisiones a la energía más alta", precisó Heuer en una conferencia de prensa.

Las partículas empezaron a ser introducidas en el acelerador este fin de semana y se prevé que empiecen a circular -en direcciones opuestas que posteriormente producirán las colisiones- dentro de unas dos semanas, señaló. Con sus 27 kilómetros de perímetro, el acelerador de partículas del CERN es el más grande y poderoso que existe, y para funcionar su temperatura debe situarse en 217 grados centígrados bajo cero, lo que se consiguió a finales del año pasado.


El hecho de que esta máquina vuelva a funcionar, tras dos años de minucioso mantenimiento técnico, ha generado mucha expectativa en la comunidad científica sobre los descubrimientos a los que puede dar lugar. El LHC estará encendido durante tres años, tras lo que volverá a ser apagado para un nuevo periodo de revisión y garantizar que cumpla su periodo de vida hasta 2035.

Heuer señaló que hay confianza en que se harán descubrimientos que abrirán nuevos campos a la física moderna, pero que nadie puede predecir cuándo ocurrirán porque "esto está en manos de la naturaleza".

El director de aceleradores del CERN, Frédérick Bordry, explicó que en los últimos dos años se hizo un gigantesco trabajo para inspeccionar cada pieza del acelerador, constituido de imanes de unos 18 metros de longitud y que se conectan entre sí a través de bobinas que han sido revisadas una por una para asegurar la transmisión de la energía.

"Hemos revisado todas las conexiones, probado todo. El acelerador está preparado para alcanzar el doble de la energía (con respecto a su primer periodo de funcionamiento)", dijo. La energía que se prevé alcanzar en mayo será de 13 TeV, mientras que en la primera etapa el acelerador llegó a funcionar de manera regular a 8 TeV.

Miércoles, 10 Diciembre 2014 08:02

"La física no es una ciencia exacta"

"La física no es una ciencia exacta"

Es investigador principal del Conicet y docente en la UBA. Fue distinguido por su aporte en el Gran Colisionador de Hadrones del CERN. Aquí, explica cuál fue su participación y cuáles son los desafíos que presenta el experimento más grande de la historia de la ciencia.

 

"Siempre fui curioso, cuando era chico desarmaba más cosas de las que podía armar", recuerda Daniel De Florián, doctor en Ciencias Físicas, investigador principal del Conicet y profesor en el Departamento de Física de la Facultad de Ciencias Exactas de la UBA. "En la secundaria tuve muy buenos profesores de física, que me despertaron la pasión de hacerme preguntas nuevas. Ya desde la escuela secundaria tenía decidido estudiar física", dice quien fue el primer universitario de la familia y todos los días viajaba de su casa en Boulogne a Nuñez, sede de la Ciudad Universitaria.


Siendo estudiante, De Florián optó por la física teórica por sobre la experimental. "Hacer física teórica iba a ser menos costoso, no se necesitan tantos equipos, es más fácil", pensó. Y mal no le fue. Sus aportes y los de su equipo son considerados de altísimo nivel y se utilizaron en uno de los hechos científicos más destacados en la física de partículas: la caza del bosón de Higgs, la partícula más buscada de las últimas décadas, que llevó a la Organización Europea para la Investigación Nuclear (CERN) a poner en marcha el acelerador de partículas más grande del mundo, el Large Hadron Collider (LHC) o Gran Colisionador de Hadrones. Por ese aporte fue distinguido recientemente por la Academia Mundial de Ciencias (TWAS), junto a otro investigador argentino (Marcelo Rubinstein, en el área de Biología).


"Me di cuenta de la importancia del premio por los e-mails que recibí de colegas del exterior que se habían enterado y me felicitaban", reconoce en diálogo con Página/12.


–La TWAS premia contribuciones a un área en particular. ¿Cuál fue su aporte como físico teórico?


–Básicamente, mi trabajo consistió en proveer a los experimentos de los cálculos más precisos para determinar la probabilidad de producir el bosón de Higgs en los colisionadores como el LHC, el colisionador de Ginebra. Esos cálculos se usan para comparar con los datos experimentales.


–Es decir que para encontrar una partícula subatómica además de la tan conocida maquinaria tecnológica hace falta un mapa teórico.


–Sí, se necesitan dos cosas: una es el experimento, fundamental porque tiene que lograrse una señal y eso es el 80 por ciento. Pero antes hace falta la hoja de ruta teórica, que orienta dónde buscar. Y luego, una vez encontrado, hay que comparar con la teoría.


–¿Cuál es su participación en el colisionador de Hadrones?


–Colaboro en el Higgs Cross Section Working Group desde 2011, y desde este año soy uno de los coordinadores, junto a otros tres físicos teóricos y cuatro experimentales. Nuestro propósito es proveer a los experimentos de los cálculos. Mi trabajo es teórico. Nuestro grupo es el que básicamente realiza todo el trabajo de recolectar y de producir la información que hace falta para que los experimentos la usen.

–¿Cuántos científicos hay trabajando alrededor del experimento del LHC?


–Es un experimento a escala muy grande. Cada experimento tiene entre dos mil y tres mil miembros de colaboración, además hay varios cientos de científicos teóricos que están relacionados que participan indirectamente. Es llamativo que pueda funcionar con tanta gente, yo creo que además del hecho científico hay un hecho sociológico que es haber logrado que toda esa junta pueda funcionar, estando desparramados por todo el mundo.


–Vayamos al mundo subatómico, ¿en dónde encaja el hallazgo del bosón de Higgs?


–Explicar la física del bosón de Higgs es una de las cosas más complicadas que uno se puede imaginar. Lo primero que creo que hay que dejar claro es que toda la materia que conocemos está formada por las mismas partículas elementales. Y toda la materia quiere decir cualquier objeto, incluyéndonos a nosotros. Todo está formado por electrones, protones y neutrones que están formados por quarks. Esto es algo que sabemos hace cincuenta años. Teníamos una teoría muy hermosa para describir las interacciones entre esas partículas, las fuerzas y sus propiedades, todo formando el modelo estándar. Pero el problema era que no encontrábamos la forma de incluir dentro de ello las masas de las partículas.


–¿Cómo es que una teoría puede resultar hermosa?


–La teoría era bella y simple porque estaba basada en simetrías. Pero esas simetrías impedían que uno pudiese incluir en la teoría a las masas que sabemos que existen, porque las partículas tienen masa. Entonces hubo que inventar un nuevo mecanismo que es este mecanismo de Higgs, por lo cual el precio a pagar era que había que incluir la idea de una nueva partícula que es este bosón de Higgs cuya tarea es básicamente proveer de masas al resto. De alguna forma, la masa no es una propiedad más de las partículas, sino que pasa a ser algo que viene asociado a la interacción, a la fuerza que el bosón de Higgs ejerce en las partículas.


–¿Cómo se puede explicar esa interacción?


–A veces uno usa la siguiente idea que ayuda para explicarlo: el bosón de Higgs es como una especie de fluido viscoso que impregna el espacio, entonces cuando las partículas se mueven en ese espacio –que no es el vacío– adquieren su masa por interactuar con este fluido, cuanto más interactúan más masa tienen y cuanto menos interactúan menos masa tienen.


–¿Cuánto tiempo estuvo buscándose esta partícula elemental?


–Hace cincuenta años que se la buscaba. El postulado nos decía que además esa partícula debía ser observable. Habíamos descubierto a todas salvo a esa. Pero finalmente se encontró, la relevancia desde el punto de vista teórico-experimental es muy grande, porque es la única que faltaba para completar nuestro zoológico de partículas elementales. Por un lado, esto completa el marco teórico que describe a todas las partículas elementales que conocemos. Y por el otro, nos permite entender al menos desde este mecanismo cómo las partículas requieren masa, la masa no es más una propiedad de la partícula elemental, no es algo que la partícula traiga de por sí, sino que es el resultado de la interacción con otro objeto. Y eso es interesante. A escalas subatómicas es una teoría extremadamente exitosa, armónica, que no tiene contradicciones con los experimentos, pero nosotros sabemos que no es el final, que tiene que haber algo superador a eso.

–¿A qué se refiere?


–A que la teoría en algún momento va a fallar. La física es una aproximación a la naturaleza, no es una ciencia exacta. La física lo que hace es describir los fenómenos a ciertas escalas. Por ejemplo, la física de Newton fue extremadamente útil para describir los procesos de la vida cotidiana. Yo siempre le digo a los alumnos que si se me rompe el auto, yo lo llevo al mecánico y no al mecánico cuántico, porque la mecánica cuántica es irrelevante para eso, lo que hace falta es ajustar los tornillos, y ahí la física de Newton es suficiente. Volviendo al modelo estándar, se trata de una teoría extremadamente exitosa, lleva ya decenas de años siendo testeada y funcionando bien, pero sabemos que a ciertas escalas de energías va a fallar. Por ejemplo, sabemos que existe la materia oscura, pero ninguna de las partículas del modelo estándar explica el origen de la materia oscura. Sabemos que tiene que haber algo más, y lo que uno espera ver en el acelerador es eso, ver la prueba de esa falla en forma de, por ejemplo, nuevas partículas.


–¿Hay algo de decepción en el hecho de haber encontrado la pieza que faltaba y comprobar que el modelo es correcto?


–Encontramos exactamente lo que estaba previsto, aunque todavía hay que medir las propiedades, y eso va a llevar un tiempo, pero todo parece indicar que es el esperado. Encontrarlo por un lado fue una gran alegría, por el otro lado, como usted dice, tiene algo de decepcionante. La física, o la ciencia en general, es una de las pocas situaciones en que el ser humano postula algo, prueba que es correcto y se pone mal, porque lo que uno busca son desafíos. En este caso en particular como sabemos que el modelo estándar en algún momento va a fallar, lo que queremos ver es que falle en algún lado para saber por qué camino hay que seguir. Sería un salto de un nuevo paradigma, de los que no ocurren hace más de cincuenta años.


–¿Cuál es la razón por la cual hasta ahora no se lo había podido ver?

 

–La razón es que tiene una masa muy grande, es la segunda más pesada entre las partículas elementales. Tiene una masa que es unas 130 veces la masa del protón, pesa como un núcleo grande. El primer problema es que se necesitan altos niveles de energía para producir esa masa, y a la vez, producirlo copiosamente para poder observarlo. Esta fue la primera vez que se logró juntar la energía suficiente y la cantidad de colisiones suficientes como para generar cientos de miles de bosones de Higgs. La búsqueda es complicada, es un experimento extremadamente sucio, se producen muchas cosas y entre esas hay que encontrar uno. Es como buscar una aguja en un pajar. Entonces, además de energía hace falta gran cantidad de estadística y análisis para poder observarlo. El bosón de Higgs había sido producido antes en otros aceleradores, pero no se lo había podido observar.