Diez avances que quizás podrían cambiar el mundo pronto

Una técnica para hacer transparentes los animales de laboratorio, una pantalla para dispositivos móviles que corrige los defectos visuales y un wifi cargador para eliminar cables son tres de los diez avances actuales que podrían diseñar el futuro. Estas innovaciones, seleccionadas por la revista Scientific American, tienen un gran potencial si logran salir de los laboratorios y muchas también resultarían útiles en países pobres y contribuyen a proteger el medioambiente.

 

Ver cómo se diseminan y multiplican los virus por el cerebro o identificar los nervios periféricos para acelerar la investigación biomédica son algunos de los usos que tiene un animal de laboratorio convertido en transparente una vez muerto. Inspirada por la conocida exposición de cuerpos humanos plastinados, la investigadora Viviana Gradinaru se planteó algo parecido con ratones muertos y consiguió hacerlos transparentes, sustituyendo los lípidos de los tejidos por sustancias químicas y sustituyendo la estructura natural por otra artificial. Los tejidos son tan transparentes que se han conseguido detectar hebras individuals de ARN, dice Gradinaru. También se han podido aislar y marcar células cancerosas de una biopsia de cáncer de piel humano. Obtener mejores mapas de las redes neuronales es otra de las aplicaciones en marcha con esta técnica.


En el área de las aplicaciones de uso cotidiano se presenta una pantalla para dispositivos móviles de comunicación que corrige los defectos visuales del usuario, o sea, las gafas están en la pantalla, mediante una combinación de elementos físicos y programación. Se puede corregir la miopía, la hipermetropía, el astigmatismo y otros problemas de visión, introduciendo los datos del usuario, y se trabaja en un mecanismo de control en el propio teléfono que permita adaptarlo fácilmente a usuarios distintos.


Otra investigadora, Meredith Perry, confió en sus conocimientos para desarrollar una técnica que casi todos le decían que era imposible que funcionara. Es un transmisor de ultrasonidos, en fase de prototipo, que actúa como un altavoz direccional para concentrar en un punto en el espacio la energía mecánica del sonido, energía que un receptor piezoeléctrico conectado a un dispositivo electrónico convierte en electricidad. De esta forma se podrá prescindir de los múltiples cables y cargadores de los dispositivos móviles, afirma la inventora, y también reducir el peso de aviones, naves espaciales y otros vehículos que llevan aparatosos cables de potencia. Antes, se han probado técnicas similares basadas en la resonancia e inducción magnéticas, que funcionan pero tienen muy poco alcance. Los ultrasonidos, en principio, no plantean problemas de seguridad.

En este mismo campo de la energía, se plantea aprovechar la energía disipada en instalaciones industriales en forma de calor, la mayor parte a baja temperatura. Investigadores del MIT han conseguido recuperarla incluso cuando solo se alcanzan los 50 grados, aprovechando el efecto termogalvánico y la creciente eficiencia de los electrodos de las baterías. En el futuro, ven las paredes de las fábricas y las centrales eléctricas cubiertas de baterías que aprovechan el calor para producir electricidad. Mientras tanto, en Arabia Saudí, una diminuta pila de combustible bacteriana, alimentada con saliva, es la base de una interesante línea de investigación. La saliva alimenta las bacterias, que producen electrones, y la pila produce un microvatio de potencia, que es muy poco pero suficiente para alimentar diminutos chips de análisis y seguimiento de enfermedades como la diabetes. Ahora se está experimentando la integración de la célula en un riñón artificial, donde se alimentaría de los fluidos corporales del enfermo para mantener en marcha la máquina.


En biología, la técnica que más atención merece en esta selección es una herramienta para manipular el ADN en un genoma de forma muy precisa y rápida, que ya se está utilizando. Se llama Crispr y que sea tan fácil, rápida y barata está provocando preocupación en algunos sectores científicos por los riesgos que implica éticamente. Al igual que técnicas anteriores que provocaron el auge actual de la ingeniería genética, se basa en un profundo conocimiento de la biología, en este caso de los métodos de defensa de las bacterias frente a los virus. Una proteína utilizada como tijeras por una bacteria para destruir un virus atacante ha demostrado ser ideal para inutilizar genes o insertar material genético nuevo. Las aplicaciones posibles son infinitas. Un investigador ha conseguido eliminar en células humanas la infección por VIH (el virus del sida) e incluso inmunizar las células frente a futuros ataques del virus.


Las células también se pueden reprogramar o controlar con otros métodos, como lograr penetrar su membrana simplemente ejerciendo presión hasta que la deformación produce pequeños agujeros temporales por los que se pueden introducir proteínas, ácidos nucleicos y nanotubos de carbono. A nadie se le había ocurrido hasta hace poco, pero ya existen 16 chips diferentes con canales por los que circulan las células, canales que se estrechan hasta que la deformación permite acceder a su interior para múltiples procesos necesarios en los laboratorios.

En física, el Lego a escala atómica representa uno de los futuros grandes logros de la nanotecnología. Es consecuencia de la creación del grafeno, un material que consiste en una finísima capa de solo un átomo de carbono de espesor, obtenida a partir del grafito (el material de los lápices). Construir estructuras con bloques de grafeno y otros materiales monoatómicos, extraídos, por ejemplo, de la mica, es una tecnología que todavía está poco desarrollada porque presenta grandes dificultades. Se han conseguido ensamblar hasta cinco capas diferentes, y el conjunto resulta ser flexible y transparente. La imaginación no tiene límites respecto a las posibles aplicaciones. "El progreso humano siempre ha seguido de cerca al descubrimiento de nuevos materiales", afirma el premio Nobel André Geim, uno de los descubridores del grafeno.

La lista de avances se completa con un plástico ultrarresistente -llamado Titan- salido de los laboratorios de IBM, que además es reciclable. Es el tipo de material que se puede utilizar en aviones y automóviles y que la industria demanda de forma creciente. Y, finalmente, con una cámara de vídeo que puede detectar nanopartículas, con la misma resolución que los carísimos y complicados microscopios electrónicos. Se podría utilizar para leer mensajes de identificación codificados en todo tipo de materiales, desde un medicamento a un explosivo, por poner un solo ejemplo.

Logran teleportación cuántica a distancia récord de 25 kilómetros

Investigadores de la NASA han logrado teletransportar información sobre el estado cuántico de un fotón, una partícula de luz, a 25 kilómetros de fibra óptica hasta un 'banco de memoria' en cristal.

 

El récord anterior en la fibra óptica era de 6 kilómetros. Este fenómeno complejo de teleportación cuántica podría tener implicaciones para la criptografía, que consiste en la transmisión de información de forma segura, incluidas las comunicaciones entre la Tierra y las naves espaciales.


"Podemos imprimir el estado de un sistema en otro sistema, incluso cuando los dos están muy separados," dijo Francesco Marsili, ingeniero de microdispositivos del Laboratorio de Propulsión a Chorro (JPL) de la NASA en Pasadena. "El uso de este efecto en las comunicaciones podría ayudar a la construcción de una red de comunicaciones espaciales intrínsecamente segura, es decir, canales de comunicación que no puede ser hackeados."


Marsili y sus colegas del InstitutoNacional de Estándares y Tecnología (NIST), desarrollan dispositivos que pueden detectar las partículas individuales de luz, llamados fotones desarrollados.

"Es difícil de detectar un único fotón, por lo que se necesita para hacer un detector sensible", dijo. "Aquí en el JPL, en colaboración con el NIST, hemos desarrollado el detector más sensible en el mundo."


Así funciona


¿Cómo funciona la teleportación cuántica? Es complicado, pero una analogía para el principio en que se sustenta puede ayudar: Digamos que hay dos personas, Alice y Bob. Alice quiere que Bob tenga un fotón que esté en el mismo "estado" que su fotón, que llamaremos fotón P.
En aras de esta analogía, vamos a pretender que el "estado" es un color, y el fotón P es amarillo. Una tercera persona llamada Charlie envía dos fotones entrelazados, fotón A a Alice y fotón B a Bob, que se comportan como si fueran parte de un mismo todo. Ambos de estos fotones se muestran en azul.

 

"En un sistema enredado, cada parte está conectada entre sí de una manera fundamental, de manera que cualquier acción realizada en una parte del sistema enredado tiene un efecto en todo el sistema enredado", dijo Marsili.


Los dos fotones de Alice, P, que es de color amarillo, y A, que es de color azul, "chocan". Alice mide los fotones como se aniquilan entre sí. Aunque P y A son destruidos en el accidente, se conserva el color amarillo de P. Debido a que los fotones A y B de fotones están entrelazados, el color amarillo es "teletransportado" a B. Pero con el fin de hacer que el fotón B se convierta en amarillo, como el fotón P era originalmente, Alicia necesita enviar a Bob dos bits de información a B mediante la manera "clásica" – por ejemplo, mediante el envío de pulsos de luz a través de una fibra óptica.


"Cuando Alice mide el estado de su fotón, los fotones de Bob cambian de estado también, como si se activara un interruptor", dijo Marsili. "Pero Bob no puede saberlo a menos que Alice le envíe los bits de información clásica". Bob no sabe que su fotón ha cambiado a amarillo sin esa información adicional.


El teletransporte cuántico no significa que alguien puede saltar de Nueva York a San Francisco instantáneamente, pero parece ciencia ficción en el sentido de que el estado de una partícula (fotón P) se destruye en un solo lugar, pero se reproduce en otro sistema remoto (fotón B ) sin que las dos partículas hayan interactuado nunca.


Otra pieza fundamental de esta historia es que Bob tiene un cristal específico, que sirve como un banco de memoria, para almacenar su fotón entrelazado y servir como destinatario del estado cuántico.


Los investigadores llegaron a la distancia récord de 25 kilómetetros entre "Alice" y "Bob" gracias a los detectores ultrasensibles desarrollados por el JPL y el NIST. "Llegar a esta distancia no habría sido posible sin esos detectores", dijo Félix Bussières en la Universidad de Ginebra, autor principal del estudio.


El teletransporte cuántico se puede utilizar para hacer que sistemas como cuentas bancarias sean más seguras a través de distancias más largas. Esto también es importante para la prevención de los ataques a los canales de comunicación en el espacio.
"Si te estás comunicando con sus astronautas en Marte, debes impedir que los hackers rompan el canal codificado y les den información falsa", dijo Marsili.


(Con información de Europa Press)

Lunes, 10 Noviembre 2014 06:44

¿Qué es la lógica cuántica?

¿Qué es la lógica cuántica?

De las dos teorías físicas sobre la realidad y el universo, la teoría de la relatividad y la teoría (o física) cuántica, de lejos la primera tiene, seguramente por su acendrado apoyo en el sentido común y en la percepción natural, un arraigo social y cultural muy fuerte. En contraste, a pesar de permear a todas las tecnologías actuales, la teoría cuántica se encuentra aún lejos de ser un patrimonio social y cultural. Después de más de cien años de haber sido formulada por primera vez.
Análogamente, desde el punto de vista social y cultural prevalece aún la vieja idea de que hay una sola lógica y que ésta se origina en Aristóteles. Las lógicas no–clásicas esperan todavía un enraizamiento social y cultural; algo que tomará aún un tiempo largo, a decir verdad.


Pues bien, existe una lógica no–clásica que se encuentra estrechamente vinculada con la teoría o física cuántica: se trata de la lógica cuántica, la cual es una lógica alternativa, o complementaria (como se prefiera) a la lógica formal clásica.


La lógica cuántica se origina en un famoso paper publicado en 1936 por G. Birkhoff y J. Von Neumann llamado "la lógica de la mecánica cuántica". La idea del paper es la de estudiar, desde el punto de vista lógico, los más importantes fenómenos y comportamientos de la mecánica cuántica.


Ahora bien, la mecánica cuántica es sencillamente un muy complicado aparato matemático (formulado originariamente por M. Born) para explicar esencialmente el colapso de onda y cuyo problema ontológico y epistemológico fundamental se denomina "el problema de la medición". Es decir, ¿la realidad tiene un fundamento propio en sí mismo (fundamento in re, digamos), o bien la realidad depende del observador. La dificultad estriba en el hecho de que el observador modifica por el acto mismo de la observación el comportamiento del fenómeno (cuántico) observado.


En otras palabras, ¿es posible saber y determinar lo que es la realidad por sí misma, independientemente de cualquier observador particular? Así, por ejemplo, si es humano o no, y si es humano según su historia, su biografía, sus circunstancias y demás. O bien, por el contrario, ¿el observador y, por consiguiente, su conocimiento, su posición en el universo, su biografía y su historia, por ejemplo, determinan y alteran el fenómeno observado por el simple hecho de la observación?


Esto es lo que se denomina el famoso debate de Copenhaguen, y que ocupó a todos los más grandes científicos ocupados con la física cuántica en la primera parte de la historia (1900–1934) hasta cuando, con la subida de Hitler al poder, esta historia se interrumpe dramáticamente debido a la irrupción de la Segunda Guerra Mundial. Con ella, la física cuántica es desplazada a lugares muy secundarios, y prácticamente desaparece: lo que vendrá a ocupar la mirada y los intereses será la física atómica (Hiroshima, Nagasaki, bomba de hidrógenos, energía nuclear, etc.).

Pues bien, la lógica cuántica se ocupa, dicho de manera general, de un problema puntual: ¿lo que sabemos del mundo macroscópico se corresponde o no con lo que sabemos del universo microscópico? ¿Si o no, y si sí, cómo y por qué?
Como tal, la lógica cuántica ha sido vista en una buena parte de la historia como una lógica no–asociativa polivalente; esto es, una lógica de múltiples valores que no obedece o responde al principio de asociatividad. Análogamente a los comportamientos cuánticos, justamente.

Más recientemente, ha habido desarrollos de la lógica cuántica muy interesantes, en especial, el formalismo de historias consistentes, que consiste en el trabajo con historias paralelas que son consistentes con un comportamiento cuántico.
Para entender esta idea es necesario atender a lo siguiente: la teoría cuántica nos enseña que los fenómenos y el mundo, la naturaleza, en general, son esencialmente probabilística. Esto es, no sabemos con exactitud el lugar de un cuerpo o fenómeno si logramos identificar la dirección en la que se mueve, y al revés. Lo mejor que podemos decir es: existe la probabilidad de que se encuentre en tal lugar o de que se dirija en tal dirección. Punto.

Esta idea de probabilidad es la mejor expresión de lo que genéricamente se conoce como el principio de incertidumbre (formulado originalmente por W. Heisenberg). Lo cual no tiene absolutamente nada que ver con el sentido que habitualmente le asigna la gente como queriendo denotar "incertidumbre emocional", "incertidumbre psicológica" o incluso "incertidumbre cognitiva". Ampliamente difundidas, estas ideas son, sin embargo, erróneas.

Así las cosas, ¿el modo como (sabemos que) se comporta el universo macroscópico se corresponde —o no— con la forma como se comporta el universo microscópico? ¿Y al revés? El tema es verdaderamente apasionante y ciertamente poco evidente.

En efecto, la lógica formal clásica, y el pensamiento que se funda o se deriva de ella, es: (a) lógica de estados, no de procesos; (b) lógica de fenómenos y comportamientos macroscópicos. Así las cosas, mas vale dejar a aquella lógica y a su pensamiento muy de lado; por decir lo menos.

¿El universo microscópico? En rigor, puede decirse que éste fue descubierto apenas en 1959, en una famosa conferencia que dictó R. Feynman el 29 de Diciembre en el Caltech (California Technical Institute), llamada There is plenty of room at the bottom. Literalmente: "hay una cantidad de espacio allá abajo".


Con la conferencia de Feynman nace el universo microscópico: la nanotecnología y la nanociencia, y ulteriormente la femtoquímica y la femtobiología. Esto es, el estudio de procesos y fenómenos físicos, químicos y biológicos que suceden en tiempos inmensamente más vertiginosos que los tiempos macroscópicos.


Pues bien, a ello apunta la lógica cuántica: debe ser posible que lo que sepamos y digamos de una dimensión de la realidad (microscópica) tenga alguna correspondencia no trivial con la otra dimensión del mundo (macroscópica). La lógica cuántica: formulada al comienzo en 1936, no son muchos los desarrollos que ha tenido aunque sí altamente significativos. Un campo joven y promisorio.

Lunes, 29 Septiembre 2014 06:03

¿Qué es el yo biológico?

¿Qué es el yo biológico?

Nuestro yo es, esencial y ulteriormente, un acontecimiento biológico. Con una salvedad: la biología es un fenómeno físico, y la física actual ya no se ocupa de la materialidad del universo o las cosas.


Maturana y Varela producen con El árbol del conocimiento (1984) una inflexión importante en la biología y en el conocimiento en general que, aunados a otros trabajos e investigadores, tales como B. Goodwin, R. Solé, S. Kauffmann, entre otros, habrán de designar lo que entonces se llamaba "la nueva biología".


La idea de base es, aquí, que el conocimiento tiene una base material: la biología. En efecto, el "yo" fue un tema habitualmente exclusivo de filósofos, teólogos ("persona"), psicólogos y teóricos del conocimiento. Maturana y Varela ponen de manifiesto que la quintaesencia de la psicología es la biología y que el fundamento de la filosofía es la biología. Sin embargo, esta idea jamás debe ser entendida como una especie de reduccionismo biologista, sino, por el contrario, en el sentido de que la base material del conocimiento y de todo lo que sea el yo no puede ser entendida sin el recurso a la biología.

Más o menos por la misma época la inmunología cobrará una importancia social, cultural y científica sin iguales en la historia de la medicina, la sociedad y la biología. El acontecimiento que, puntualmente, lanzará al primer plano a la inmunología es el descubrimiento del sida y, concomitantemente, todos los temas y problemas relacionados con enfermedades del sistema autoinmune.


Pues bien, los nuevos estudios en torno al sistema inmune tuvieron durante muchos años, hasta hace muy poco, un foco central: el sistema inmune define lo que es propio (self) de lo ajeno o impropio (non–self), en particular a partir de las relaciones entre antígenos y anticuerpos. Así, el sistema inmunológico es el que permite definir lo propio del cuerpo, la salud, y el yo, frente a lo ajeno, lo impropio, lo extraño.

Profundizando esta idea, el complejo mayor de histocompatibilidad (CMH), descubierto inicialmente en el contexto de los primeros trasplantes de órganos en 1940 (y que le valdría a su autor, Snell, el premio Nobel en 1980) —un grupo de genes situado en el cromosoma 6— cumple la función de presentar los antígenos a los linfocitos T, y, en consecuencia, distinguir claramente lo propio de lo ajeno. El lugar en el que tiene lugar esta diferenciación es el sistema linfático.
En otras palabras, todo lo que sea el yo —en la acepción al mismo tiempo más amplia y fuerte de la palabra— tiene lugar en la escala más fundamental, que es la defensa del organismo frente a lo ajeno, peligroso, diferente, y que se designa con el nombre genérico de "antígenos". Del buen funcionamiento del sistema inmunológico depende la salud del organismo vivo, un acontecimiento que encuentra dos niveles, así: cabe distinguir el sistema inmune natural y el sistema inmune adquirido (o adaptativo). El primero es propio de todos los sistemas vivos en general. El segundo es específico de los vertebrados, de mayor complejidad estructural, fisiológica, anatómica y termodinámica. Más exactamente, son dos los mecanismos de memoria de un organismo superior frente a la agresión: el sistema nervioso central (= cerebro) y el sistema inmunológico. Los linfocitos B le presentan a los linfocitos T lo ajeno y éstos proceden a generar células asesinas (natural killers, o NK cells).

Una función del sistema inmune es la de proteger al organismo de virus, bacterias, hongos y parásitos. Pero la otra función fundamental del sistema inmune es la de permitir la auto–reparación de células, tejidos y órganos, el balance entre células normales y bacterias y virus —por ejemplo, la flora intestinal—, controlar la homeostasis y los procesos de metabolización. Para todo ello, en realidad son tres los sistemas que interactúan y que constituyen una sólida unidad: el sistema nervioso central, el sistema hormonal y el sistema inmunológico. Y el lugar en el que opera el sistema inmune es el organismo a través de la sangre (sistema sanguíneo) y los linfos (sistema linfático —"de agua") del organismo.

En otras palabras, el lenguaje del sistema inmunológico es un lenguaje hormonal (químico) en el que la comunicación y los procesamientos de información son determinantes. El cerebro produce hormonas que actúan con los linfocitos B y C, y que se complementan con las hormonas en todo el organismo. Lo maravilloso es que el sistema inmunológico es el único sistema no localizado ni centralizado del cuerpo y, por el contrario, es un sistema literalmente ubicuo, de acción no–local, procesamiento en paralelo, dinámico y distribuido que evoluciona acorde al medio ambiente en general: natural y social o cultural.


Así las cosas, la salud de los organismos vivos depende de la estupenda comunicación entre el cerebro (in extremis, si se quiere, la mente), el sistema y balance hormonal, y ulteriormente el CMH. En otras palabras, aquello que somos no depende de la idea de identidad personal o cualquier otra, de las creencias sociales y demás; no sin ellas, lo que cada quien y puede es el resultado del equilibrio dinámico de la biología, y muy especialmente del sistema inmunológico, el único que no puede ser "desconectado" y que trabaja 24/7.

Nuestro yo es, esencial y ulteriormente, un acontecimiento biológico. Con una salvedad: la biología es un fenómeno físico, y la física actual ya no se ocupa de la materialidad del universo o las cosas. Por el contrario, la buena física de punta de hoy se ocupa de qué tanto sabemos del mundo, la naturaleza y el universo. Pues la física y "lo" físico ya no consiste, en absoluto, como en el pasado, en materialidad, sino en funciones de onda, procesos, coherencia y de–coherencia, superposición de estados, complementariedad, incertidumbre y danza de fotones, por ejemplo.

La vida es un fenómeno físico; pero la verdad es que aún no terminamos de conocer enteramente qué es la "materia". Pues lo cierto es que "materia" no es ajena ni distinta a "información", ni tampoco a "energía". Y los tres son expresiones de la complejidad de un mismo fenómeno al cual lo mejor de la ciencia dedica sus mejores esfuerzos por comprenderlo.
En cualquier caso, la esfera de lo propio o personal o yoico —el self— es un acontecimiento que se está dirimiendo permanentemente sobre la base del CMH, y el buen funcionamiento del sistema inmune. Con una observación final: no hay, en realidad, para el sistema inmune dos cosas: lo propio y lo ajeno, pues ambos son dos momentos de un mismo proceso. El cuerpo y el yo se conoce a través del sistema inmune y se hace posible por él, y el sistema inmune conoce al cuerpo y lo recorre como la producción de sí mismo. Esa producción es la vida misma. En verdad, para traducirlo en otras palabras, en el sistema inmune no acontece la distinción entre hardware y software, pues en la célula y en el organismo ambos son una sola y misma cosa.

¿Cómo fue el origen de la física cuántica?

La física cuántica nace del resultado de varios antecedentes, directos e indirectos, y de un feliz almuerzo una tarde de domingo con un comensal inteligente y activo en investigación de punta.

 

La física cuántica es, de todas las teorías científicas, la que quizás más verificaciones y contrastaciones ha recibido al mismo tiempo que las más exactas predicciones hasta la fecha, y a la vez la más determinante para la vida que llevamos en el siglo XXI. Originada a partir del estudio de la luz, la física cuántica nos acompaña alrededor nuestro, sin que lo sepamos, en fenómenos y aparatos como todos los sistemas eléctricos, los computadores, toda la tecnología laser, la telefonía celular, las cámaras digitales, la televisión y la radio actuales, los CD que escuchamos, los DVD que vemos, y una variedad enorme de fenómenos similares. Toda la tecnología de punta es imposible sin atravesar por los dominios de la física cuántica.


Nuevos artefactos y sucesos que facilitan nuestra vida, que la hacen más placentera. La ciencia, como la vida, está hecha de hebras sutiles, indirectas, muchas azarosas, y, sin embargo, acompañadas en alguna medida por sueños, planes, trabajo, y mucha reflexión e investigación. Los grandes seres humanos siempre han sido posibles sobre otros que por razones diversas han recibido menos atención.


Pues bien, el comienzo de la cuántica se encuentra en el estudio acerca de la naturaleza de la luz, un fenómeno que en el curso del siglo XIX alcanza un impacto cultural y social inaudito, expresado, por ejemplo, en el nombre de París como "la ciudad luz" debido al incremento y cubrimiento rápido del servicio eléctrico a gran escala como ninguna otra ciudad lo había conocido hasta entonces.


En el mismo sentido, a comienzos del siglo XX, en los albores de la revolución rusa de 1917, Lenin definirá al socialismo –en contraste con el sistema capitalista– como "electricidad y poder para los soviets". La luz y la electricidad, el alimento de las ciudades desde finales del siglo XIX y hasta la fecha.


Investigación y logros


La discusión acerca de la naturaleza corpuscular u ondulatoria de la luz se remonta hasta Newton y Faraday, pero encuentra en el famoso experimento de Th. Young sobre la doble ranura en 1800–1801 el verdadero punto de partida. La luz es una onda que interviene consigo misma en el experimento mencionado y cuyo comportamiento deberá ser explicado.


En esta historia, varios nombres se destacan con una importancia desigual. James C. Maxwell logra en 1865 la unificación de la electricidad y el magnetismo –en la fuerza electromagnética–, que se corresponden con la velocidad de la luz. Ya en 1862 L. Foucault (el mismo de la novela de U. Eco), establece que la velocidad de la luz es de 298,005 km/s, equivocándose tan sólo en un 1% en la medida establecida actualmente (299,792,458 m/s).


Por su parte G. Kirkhhoff estudia (1862) la idea de un cuerpo negro y la radicación del cuerpo negro –que habrá de conducir posteriormente a los fenómenos de singularidad cósmica que son los agujeros negros–; J. Stefan es el primero en establecer la relación entre la tasa a la que un cuerpo emite radicación y su temperatura (1879); y W. Wien estudia (1893) la longitud de onda de máxima intensidad de un cuerpo negro y su temperatura, lo que permitirá a los astrónomos medir la temperatura de las estrellas.


Es importante observar que el ojo humano sólo puede observar longitudes de onda entre 450 y 700 nanómetros, y que el resto del universo escapa a nuestra visión directa: ondas infrarrojas, microondas, radioondas, ultravioleta, rayos X, rayos gama. Nuestra vida y sus avatares, el amor y la política, la poesía y las guerras suceden esencialmente entre la escala de 450 y 700 nm. En ese espectro vemos lo que nos resulta amable u odioso.


En este panorama, Max Planck y su esposa invitan a un almuerzo a Heinrich Rubens y su esposa. Rubens era un experto en radiación infrarroja, que sucede en la escala de micrones. El almuerzo tiene lugar el domingo 7 de octubre de 1900. Allí, Rubens le menciona a Planck sus experimentos y resultados sobre la radiación infrarroja. Planck queda impactado y sorprendido por los comentarios de Rubens, pues sus propios datos no coincidían con los comentarios de Rubens relacionados directamente con unos estudios que unos meses antes había realizado Lord Rayleigh –ambos estudiando exactamente el mismo fenómeno.


Pues bien, una vez que el almuerzo ha terminado y los invitados han partido, Planck se concentra en la conversación y se sienta a trabajar en nuevos cálculos mediante los cuales obtiene otra expresión teórica para los fenómenos de radiación. En síntesis, Planck logra resolver lo que técnicamente es conocido como la catástrofe ultravioleta, un defecto serio de Rayleigh.


Como resultado de lo anterior, Planck presenta, primero el 19 de octubre de 1900, y posteriormente el 14 de diciembre ante la Sociedad Alemana de Física sus resultados: la radiación de cuerpo negro sólo puede ser explicada si la luz es emitida o absorbida por átomos en fotones discretos llamados quanta. En otras palabras, la naturaleza de la luz sucede por "paquetes", y en forma discreta, no continua. Nace así la física cuántica.


Planck tardará aún un tiempo, al igual que sus contemporáneos, en interpretar matemática y conceptualmente el significado de su descubrimiento. Ello habrá de conducir a "los años dorados" de la física cuántica, entre 1922 y 1926, y que sólo es, en realidad, el cénit de la primera etapa de la física cuántica.


Como quiera que sea, un hecho científico y cultural queda establecido: la luz o la energía no es continua, sino discreta. Cinco años más tarde, Einstein pondrá de manifiesto que la materia y la energía son una sola y misma cosa, supuesta la velocidad de la luz. Con lo cual, también la materia será descubierta como con una naturaleza discreta y no continua.


En términos más generales, toda la matemática de punta contemporánea es matemática de sistemas discretos, y culturalmente, ello comienza el 14 de diciembre de 1900. En la historia subsiguiente, los temas que surgen son las discusiones acerca del carácter discreto del espacio, y del tiempo. Una auténtica revolución con respecto a toda la historia de la humanidad se ha producido, pues toda la historia de Occidente ha consistido en la creencia o la afirmación de que la naturaleza, el universo, la vida y la sociedad son continuos.


La teoría cuántica pone al descubierto, en contraste, que vivimos en un universo esencialmente discreto. Años más tarde, C. Shannon (1948) y W. H. Zurek (1991–1996) pondrán de manifiesto que también la información es discreta.


En cualquier caso, la física cuántica nace del resultado de varios antecedentes, directos e indirectos, y de un feliz almuerzo una tarde de domingo con un comensal inteligente y activo en investigación de punta. Un acontecimiento a todas luces fortuito.

 

Actualizado: 22 de septiembre de 2014

Logran británicos convertir la luz en materia

Tres científicos británicos de la Escuela Imperial de Londres lograron probar una teoría de 80 años de antigüedad, que determinaba que la luz podría ser convertida en materia, se informó.


En un primer momento, los expertos investigaban los problemas vinculados a la energía de fusión, cuando se dieron cuenta de que aquello en lo que trabajaban podría aplicarse a la teoría sobre la materialización de la luz, propuesta en 1934.


En ese año los científicos estadunidenses Gregory Breit y John Wheeler admitieron que debería ser posible convertir la luz en materia rompiendo a la vez sólo dos partículas de luz (fotones), para crear un electrón y un positrón.

Uno de los especialistas británicos aseguró que pese a que todos los físicos aceptan la teoría como verdadera, pocos esperaban que se pudiera lograr en un laboratorio.


Proponen método de dos etapas


En la investigación, publicada en la revista especializada Nature Photonics, los científicos proponen un método de dos etapas, cuya idea principal se basa en el uso de un láser de alta intensidad extremadamente potente.


Por medio de él sería posible acelerar los electrones hasta la velocidad de la luz y dirigirlos a una superficie de oro, de esa forma aparecería un haz de fotones que sería mil millones de veces más potente que la luz visible.


Al mismo tiempo, los expertos proponen enfocar un láser de alta energía en la superficie interna de otra placa de oro para crear un campo de radiación térmica.


Si la luz de la primera fase se proyecta dentro de ese campo, según presumen los físicos británicos, los fotones empezarán a chocar y a formar electrones y positrones.

Publicado enInternacional
Miércoles, 16 Abril 2014 05:25

En busca de la identidad de las partículas

En busca de la identidad de las partículas

La supersimetría representa la correspondencia entre los tipos de partículas elementales que existen en la naturaleza: los bosones y los fermiones. El modelo estándar de Higgs arroja luz en este sentido y permite describir de dónde proviene la masa de las partículas.


–Cuénteme qué es lo que hace.


–Yo trabajo en lo que se llama supersimetría, física más allá del modelo estándar de partículas. Para empezar a hablar de eso tendríamos que hablar primero un poco del modelo estándar, justamente.
–Me parece bien.


–Y también tenemos que hablar de la física de Higgs, que tiene hoy la mayor relevancia. Está en boca de todo el mundo que se descubrió el bosón, y eso para la física de partículas es importantísimo. Gracias al descubrimiento podemos saber de dónde vienen las masas de las partículas.


–¿Pero comprendemos por qué el bosón de Higgs hace que una partícula tenga más masa que otra?

–Lo puedo explicar con una analogía que le gusta mucho al propio Higgs. Imagínese un espacio lleno de periodistas: yo paso por allí y nadie se me acerca ni me dice nada, mi movimiento es rápido y, como el peso se puede pensar como resistencia al movimiento, peso poco. En cambio, si entra una estrella de la farándula, los periodistas se le van a abalanzar y va a "pesar" mucho (le va a costar mucho moverse). Imagínese entonces que los periodistas son como los bosones, yo soy el electrón y la estrella de la farándula es el protón. El protón pesa más que el electrón porque le cuesta mucho más ser movido. El Higgs se asocia con las partículas, salvo con algunas que van como libremente: el fotón, por ejemplo, que no tiene masa, no siente la presencia del Higgs. Sin embargo, hay otras partículas que sienten que el Higgs existe; algunas lo sienten más, otras menos, y eso es lo que hace que sean más lentas o más rápidas. Esa es la idea general. El propio Higgs siente el campo y también, por eso, tiene una masa. Ese es el origen, entonces, de la masa de las partículas: están sintiendo la masa del Higgs.
–¿Se lo encontró o no se lo encontró? Porque las noticias fueron un poco confusas.


–En realidad no es que fueran confusas; el anuncio fue que se lo encontró. Lo que pasa es que los experimentadores siempre son muy cautos. No van a asegurar que es realmente el Higgs hasta que estén completamente seguros, pero eso ya ha sucedido. Ellos querían determinar absolutamente todas las propiedades para que no hubiera ninguna duda de que fuera el bosón.

–¿Cómo se sabe que efectivamente era el bosón?


–Por la forma en que decae. La cuestión que queda ahora abierta es si es el Higgs del modelo estándar, del modelo mínimo que explica todo, o si es un Higgs un poco más raro. A partir del hallazgo, entonces, podemos empezar a ver si se comporta distinto de lo que prevé el modelo estándar, que es el modelo más simple y feliz. Pero se comporta muy acorde con eso; fíjese que las masas de todas las partículas que describe el modelo no tienen un origen arbitrario, sino que vienen todas dadas por el Higgs. Cuanto más se acopla, más masa va a tener, y eso da un patrón de cómo se comporta el Higgs, que es muy particular.

–¿Por qué una partícula se va a acoplar más que otra?


–Porque hay algunos acoples que son libres, que son a determinar, son algo fundamental de la teoría que hay que describir. Hay partículas a las que les "gusta" acoplarse más, otras a las que les "gusta" acoplarse menos, y eso hay que medirlo. Lo importante es que hay una partícula que les da la masa a las demás; no es que la masa sea algo aparte, sino que es una propiedad que adquieren por su interacción.
–¿Y cómo interactúa usted con eso?


–Yo trabajo con la supersimetría. Es una simetría de la naturaleza, tal como las que estamos acostumbrados a ver: algo totalmente esférico, una pelota perfecta, o quizás imperfecta pero con imperfecciones importantes. Las simetrías no siempre son exactas, a veces son sutilmente inexactas. La supersimetría, justamente, es una simetría que estaría rota. La supersimetría supone que todas las partículas que conocemos tienen un compañero.


–¿A qué se refiere con "compañero"? ¿Están descriptos en el modelo estándar?

–No. Todos los compañeros son "nuevos". Todas tendrían una nueva partícula asociada.


–¿Y qué pasa con este compañero?

–Este compañero, como está rota la supersimetría, tiene una masa. El Higgs formaría parte de ese grupo, tendría masa, pero además tendría la propiedad de darles masa a sus compañeros y a todas las partículas que conocemos. Mejora en cierto sentido la idea que tenemos de dónde salen las masas, porque el origen de estas masas sería la ruptura de esta simetría. Hay muchos modelos supersimétricos, pero lo que uno debería hacer es buscar modelos "mínimos", es decir, modelos que expliquen la mayor cantidad de fenómenos al menor costo posible. Modelos mínimos está el Modelo Mínimo Supersimétrico, que es completamente mínimo: lo que hace es agarrar las partículas del modelo estándar y decir que hay el doble de partículas. Eso lleva a dos cosas: lo primero es que no se puede explicar la física de los neutrinos, problema que ya tiene el modelo estándar. Lo segundo es que hace una predicción muy concreta para la materia oscura. El modelo estándar tiene dos cosas que no puede explicar: una es la física de los neutrinos, que se puede arreglar. Las partículas se pueden distinguir en dos grupos: las que intuitivamente las asociamos con una fuerza y las que intuitivamente las asociamos con una materia conocida. La supersimetría lo que va a hacer, justamente, es una simetría entre ambas, pero no entre las que conocemos. Las partículas de materia, entonces, tienen todas una parte derecha y una parte izquierda (todas menos el neutrino). Una forma de darle masa es agregarle la parte derecha, haciendo que el neutrino tenga masa, pero la gente inventó muchísimas modificaciones para darles masa a los neutrinos. Lo que le decía es que el modelo mínimo no tiene masa para los neutrinos, pero además dice que una partícula va a ser completamente estable y va a ser candidato a materia oscura.


–La materia oscura..

.
–Cuando uno mira a gran escala las galaxias, uno ve que se comportan a gran escala de manera rara y no rotan de acuerdo con la masa que uno supone que tienen, sino que rotan como si tuvieran más masa. Cuando uno mira un conjunto de galaxias pasa lo mismo, y lo mismo si observa todo el universo. Eso se debe a la materia oscura. Justamente en su versión más simple, la supersimetría dice que hay una partícula que es completamente estable, que podría ser el compañero de Higgs y que podría ser la partícula que conforma la materia oscura. Y lo mejor de todo es que teóricamente se puede detectar.


–¿Cómo?

–Hay experimentos hechos para detectarla, pero lo cierto es que por ahora no se ha visto nada. Por otro lado, hay otro approach distinto, que consiste en incluir desde el principio los neutrinos derechos, supersimetrizamos eso, escribimos lo más fácil posible, y eso lleva a que el compañero de Higgs no puede ser materia oscura. Hay una cosa que se llama "neutralino", que es la materia oscura en el modelo mínimo, que no puede ser materia oscura porque no está la simetría que hace que se quede estable para siempre, pero lo que hay es algo muy curioso. La física de neutrinos se produce de forma muy sencilla, porque no sólo sabemos que tienen masa, sino que sabemos que les gusta mucho mezclarse entre sí. Si usted pone solamente neutrinos radicantes puede hacer que se mezclen mucho entre sí, pero tiene que forzar un poco las cosas. El compañero del Higgs forma parte del mecanismo de darles masa a los neutrinos y hace que todo se mezcle de forma muy sencilla. Ese es un patrón que observamos, que los neutrinos se mezclan mucho. Esa es una predicción del modelo que concebimos. Toda la tecnología cambia completamente respecto del modelo mínimo. La materia oscura en principio puede ser el compañero de la gravedad: se llama "gravitino". Entonces es también un modelo que en cierto sentido es mínimo, pero se llega a conclusiones distintas. Toda la búsqueda de nueva física que ya se venía haciendo hay que hacerla de otra manera. Y ésa es una de las cosas fundamentales en la que estamos trabajando.

Publicado enInternacional
Al confirmarse el bosón de Higgs se abrieron nuevas interrogantes

Luego de comprobar la existencia del bosón de Higss (o bosón B) en el campo de Higgs en 2012 y responder una de las preguntas "más elementales, ¿cuál es el origen de la masa?", gracias al Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) de la Organización Europea para la Investigación Nuclear (CERN, por sus siglas en francés), actualmente se plantean por lo menos cuatro preguntas más de alta prioridad, aseguró el doctor Gerardo Herrera Corral investigador de esa organización y del Instituto Politécnico Nacional (IPN).

 

Al impartir las charlas "Las partículas del universo" y "El origen del universo: el Gran Colisionador de Hadrones y la innovación tecnológica" en la Universidad Lasalle de Oaxaca y el Centro Académico y Cultural San Pablo, respectivamente, el investigador refirió que unas de las interrogantes son ¿por qué el universo está hecho de materia y no de antimateria? y ¿existen otras dimensiones?


Dijo que los humanos habitamos en tres dimensiones espaciales y una temporal, pero ¿acaso hay más dimensiones que no conocemos? Otras preguntas son ¿qué es la materia oscura? y ¿de qué esta hecha?


Estas, precisó, son preguntas que actualmente se hacen los físicos de partículas en el CERN y las cuales algún día serán contestadas. Durante mucho tiempo, la prioridad fue demostrar la existencia del bosón de Higss, con lo que se pudo probar cual es el origen de la masa y cómo el campo de Higgs da inercia a las partículas; "éste es el descubrimiento más importante de los pasados 30 años; el más importante en la física de partículas y uno de los más relevantes en las ciencias en general. Por un lado viene a completar la visión del universo. Hemos dado un paso importante", aseguró.


Explicó que el Gran Colisionador de Hadrones es un instrumento por el cual se pueden lograr muchos descubrimientos, los cuales son de suma trascendencia, aun cuando la mayoría de las personas no lo crean.


Los avances tecnológicos que se han desarrolla en los años recientes son en beneficio de la humanidad. El CERN los pone al servicio de todos. Una de esas innovaciones es la radiografía a color, que podrá realizarse gracias al proyecto MARS (Medipix All Resolution System) el cual se encuentra en su tercera etapa y que dispara 10 millones de fotones. Por medio de ella los médicos podrán ver los órganos del cuerpo humano a todo color y podrán hacer diagnósticos más acertados. "No es sólo juguete de físicos, como piensa la gente; esto tiene consecuencias benéficas para el mundo entero" afirmó.

 

El LHC es un proyecto de largo plazo, que abarca hasta 2025; se llevó mucho tiempo su construcción y tendrá muchos aportes que ofrecer", afirmó.


Agregó que es por esa razón que las potencias mundiales financian al CERN, y es necesario que lo sigan haciendo. "Nosotros sostenemos que las grandes sumas de dinero que se invierten no son recursos perdidos, en tanto que dan resultados, como lo hará la radiografía a color, pero no se lo dará al CERN, porque éste no patenta, cuando lo hace es para proteger la libertad de uso, no para obtener recursos".


Microescopios
Luego de recordar que el universo tiene 13 mil 800 millones de años de edad, Herrera Corral destacó que para seguir estudiando el universo en la actualidad ya no se requieren los grandes telescopios; ahora son necesarios los microescopios.


Explicó que al usar los telescopios entre más lejos se ve lo que se observa es hacia el pasado, pero que al llegar a los 380 mil años se topan con un muro de oscuridad, donde se requiere un microescopio que permitirá "observar lo que ocurrió detrás de ese velo de oscuridad. En el CERN se construyó el LCH precisamente para ver cómo era el universo detrás de ese velo de oscuridad y cuál ha sido el origen de todo".
Ante decenas de estudiantes de diversas facultades y público en gneral, el físico aseguró que pese a lo que muchas personas han llegado a pensar de que los experimentos realizados en el LHC no crearán agujeros negros, se tienen grandes precauciones para evitar cualquier catástrofe en la explosión de protones, los cuales generan mínima radiación. "La naturaleza efectúa cada segundo 10 mil experimentos de los que hacemos en el colisionador y el mundo no se ha acabado".


Lamentó que en México no haya mucho interés por participar en experimentos científicos, como ocurre en Europa, donde los políticos participan, opinan y financian constantemente proyectos, pues saben que de ahí surgirán los avances tecnoglógicos, como la radiografía a color.

Publicado enInternacional
Miércoles, 09 Octubre 2013 08:26

Día de gloria en el Gran Colisionador

Día de gloria en el Gran Colisionador

La teoría que el británico Peter Higgs y el belga François Englert plantearon hace medio siglo recién pudo ser comprobada el año pasado gracias a la llamada "máquina de Dios". Los postulados de los premiados buscan explicar cómo está construido el mundo.

 

El Premio Nobel de Física fue concedido al británico Peter Higgs y al belga François Englert por una idea que tuvieron, cada uno por su lado y de modo contemporáneo, hace 50 años, pero que fue comprobada recién el año pasado, cuando el Gran Colisionador de Hadrones halló el bosón de Higgs. En su fallo, la Real Academia de Ciencias sueca destacó que premiaba a los científicos por el "descubrimiento teórico de un mecanismo que contribuye a nuestro entendimiento del origen de las partículas subatómicas con masa", uno de los descubrimientos más importantes del último medio siglo, porque se considera clave para comprender el Universo. Al conocer la noticia, Higgs, de 84 años, se declaró "abrumado" por el premio, mientras que Englert dijo estar "muy feliz". Rolf Heuer, el director del Centro Europeo de Física de Partículas (CERN), donde en 2012 se demostró la existencia de la partícula, felicitó a Higgs y Englert "de corazón" y dijo que la entrega del Nobel a estos dos científicos es "una muy buena noticia" para el CERN, porque "de alguna manera es también un reconocimiento a nuestro trabajo". En ese centro, agregó, la noticia fue celebrada con gritos, aplausos y champagne.

 

El argentino Ricardo Piegaia, profesor de la UBA, investigador del Conicet y director de uno de los dos equipos argentinos que participaron en el proyecto del CERN, dijo a este diario que "es el premio a una idea muy ingeniosa, elegante, original" y que "reformula el concepto de masa de una manera tal que es compatible con la teoría y el concepto macroscópico que tenemos de masa". La idea, recordó, fue publicada en la década del '60, pero "la comprobación experimental y la verificación de que la teoría era correcta ocurrió el año pasado", en Ginebra, cuando el Colisionador de Hadrones demostró que el bosón de Higgs existe. "La idea tiene años, pero faltaba la tecnología para verificarla", agregó.

 

"Hace 50 años, cuando Higgs y Elbert postularon esta teoría, había inconsistencias, porque experimentos sobre la composición de la materia habían arrojado resultados que eran inconsistentes con nuestro concepto de masa. En ese momento, la teoría no podía incorporar al mismo tiempo masas e interacciones. Estos científicos propusieron una idea elegante que reformula el concepto de masa, de manera que fuera compatible con la teoría y con el concepto macroscópico que tenemos de masa: dijeron que esta partícula de Higgs evitaba la muerte de las cosas si interactúan con ella. Que la masa podía interpretarse a partir de esa interacción: algo con mucha masa es algo que interactuó mucho con el bosón; algo con poca, poco; algo sin masa, no interactúa. ¿Qué cosa no tiene masa? El fotón, por ejemplo, que compone la luz. El fotón no interactúa con la partícula de Higgs. Fue una idea genial", explicó Piegaia. "La idea de que la masa es la manifestación macroscópica de un fenómeno microscópico que es la interacción con el bosón permitió recuperar el concepto de masa y conciliarlo con nuestra nueva comprensión de la materia", agregó el científico ante la consulta de este diario, y señaló: "El premio es a los que reformularon el concepto de masa para incorporarla en la teoría de las interacciones fundamentales de la naturaleza, y esa explicación arrojó una predicción, la del bosón, que verificó el experimento del año pasado".

 

La Real Academia de Ciencias de Suecia señaló que la teoría postulada por Higgs y Elbert es "una parte central" del modelo estándar de la física elemental "que describe cómo está construido el mundo".

 

Durante las décadas de 1950 y 1960 los científicos observaron, de forma separada, la existencia de nuevas partículas en radiación cósmica con aceleradores recién construidos, pero sólo el proyecto del CERN permitió probar la existencia de la partícula que era el bosón de Higgs.

 

Tras conocer la noticia, Rolf Heuer, director del CERN, felicitó "de corazón" a los científicos distinguidos y señaló que era una "muy buena noticia" para la institución que, tras casi treinta años de investigación, probó la existencia del bosón. "Hubiese sido fantástico que el premio fuera para nosotros, pero de alguna manera es también un reconocimiento a nuestro trabajo", dijo en una conferencia de prensa. Heuer señaló: "La breve explicación sobre el Nobel tiene tres líneas, y en esas líneas se menciona al CERN como el centro que probó la existencia del bosón y, honestamente, creo que es maravilloso". En la institución, contó, los investigadores "han recibido la noticia con gritos, aplausos y brindando con champagne". Que este año la distinción de Física recayera sobre estos científicos, interpretó, implica que se premia a "la ciencia fundamental", a la física de partículas, y ha recaído sobre dos individuos "porque es imposible reconocer el trabajo de más de mil personas implicadas" en los dos proyectos del CERN –CMS y Atlas–, que han trabajado desde 1984 de manera paralela, aunque independiente, para verificar las teorías de Higgs y Englert.

Publicado enInternacional
Miércoles, 04 Septiembre 2013 06:10

Caos y control en el mundo cuántico

Caos y control en el mundo cuántico

La mecánica cuántica puede ser antiintuitiva y bizarra, pero es la teoría física más exitosa. En ese mundo extraño se intenta el control de los sistemas y también averiguar el lugar del caos, para desarrollar tecnología.

 


–Cuénteme en qué se especializó.

 

–Hoy en día, mis dos líneas de trabajo son el control cuántico y el caos cuántico.

 

–Empecemos por el control, que resulta más tranquilizador. ¿Qué es?

 

–Lo que yo trato es de establecer recetas o procedimientos para regular el comportamiento de un sistema cuántico. La idea es ver cómo hacer para que ese sistema haga lo que uno quiere que haga y termine en el estado que uno está buscando.

 

–¿Cómo son esos sistemas?

 

–Pueden ser desde un ion, un electrón, una juntura de Josephson. Cualquier sistema de propiedades cuánticas. Nosotros hace un tiempo diseñamos un método de control que funcionaba muy bien para sistemas aislados. Pero el problema con los sistemas cuánticos es que muchas veces no son sistemas aislados, y el hecho de no ser aislados les saca las propiedades cuánticas. Entonces la pregunta principal que tratamos de responder es cómo hacer para que ese método que parecía tan universal y funcionaba en un montón de situaciones, funcione en una situación más realista. Y lo que encontramos es que la mejor manera era hacerlo muy rápido, para que el entorno actuara lo menos posible.

 

–¿A qué se refiere con que un sistema cuántico haga lo que uno quiera? Deme un ejemplo.

 

–Interactuar, por ejemplo. Agarrar un electrón e iluminarlo con láser, o agarrar una trampa de iones e iluminarlos con un láser para que ese sistema termine en el estado en que uno quiere. Esto es fundamental en problemas de tecnología cuántica: uno lo que quiere es que el sistema opere de determinada manera, y eso es lo que busca con el sistema de control cuántico.

 

–¿Qué es un sistema de información cuántica?

 

–Es un sistema de información que usa las propiedades de la mecánica cuántica.

 

–¿Por ejemplo?

 

–La criptografía cuántica consiste en usar la mecánica cuántica para transmitir información, y se ha visto que es mucho más segura que los métodos clásicos de criptografía. Y de hecho hoy por hoy existen aparatos que usan fotones que están entrelazados. Usando esa propiedad, es muy fácil detectar si un espía se metió en el medio. Pero el problema de todos esos sistemas, el problema fundamental, es la decoherencia, o sea, la pérdida muy rápida de las propiedades cuánticas. Lo que tratamos de ver es cómo preservar ese sistema de la decoherencia. Ahora hay ideas de usar el entorno a favor. Nosotros teníamos un método que funcionaba bien pero que –nos dimos cuenta– era medio lento. Encontramos entonces una manera de hacerlo rápido, y no sólo rápido, sino de la manera más rápida que permite la mecánica cuántica. En la mecánica cuántica, si uno quiere pasar de un estado a otro hay una cosa que se llama quantum speed limit: no se puede hacer a una velocidad más rápida que ésa. Nuestro método está dentro de ese límite, y supongo que en algún momento, en el futuro, encontraremos una mejor manera. Hay gente que propone, por ejemplo, hacerle cosas al entorno para aprovecharlo; nosotros lo que hicimos fueron cosas sobre el sistema.

 

–¿Y su otra línea de trabajo?

 

–Es la principal, que tiene que ver con el caos cuántico. El caos es una propiedad clara en la mecánica clásica: hipersensibilidad a las condiciones iniciales que hace que los sistemas sean impredecibles y que el caos sea la fundamentación de la termodinámica y de la mecánica estadística. Ahora... ¿qué pasa en la cuántica? En la cuántica, la ecuación fundamental de Schrödinger es lineal, y la no linealidad que necesita el caos no existe. Pero una teoría es el límite de la otra, de modo que la pregunta es: ¿cómo se manifiesta el caos en la mecánica cuántica?

 

–¿Cómo?

 

–Esa fue la pregunta inicial, la pregunta de la que se partió. Se encontraron muchas manifestaciones, por ejemplo, en la estadística de los niveles. Los niveles de energía en un sistema cuántico son discretos. Entonces: ¿cómo se distribuyen esos niveles? Si el sistema es caótico, clásicamente, es de una manera y, si no, es de otra. Esa es una manifestación. Una cosa que nosotros hicimos hace unos años fue probar qué pasaba si uno perturbaba un sistema. Si el sistema es caótico, le pasa algo que es universal. La manera de reaccionar de un sistema caótico ante perturbaciones es universal. Todos los sistemas reaccionan de la misma manera. La que yo creo que es la pregunta fundamental hoy en el tema de caos cuántico es que se está empezando a pensar cómo juega el caos en los sistemas de muchos cuerpos. Los desarrollos fueron mayormente hechos, hasta ahora, para sistemas de una partícula. La pregunta de cómo juega el caos en la termalización, proceso por el que las partículas alcanzan el equilibrio térmico mediante la interacción entre ellas, de los sistemas cuando éstos son cuánticos es fundamental, no sólo a nivel teórico, porque hoy en día se hacen redes ópticas donde se meten partículas y se las hace interactuar. Hoy se hacen experimentos con muchas partículas y se las termaliza. Ver cómo juega ahí el caos es una pregunta fundamental.

 

–¿Y esto está llegando a la práctica?

 

–Hacer experimentos de muchos cuerpos es una tecnología que hoy se hace en muchos laboratorios: hacer cadenas de iones, por ejemplo, y hacerlas interactuar, iluminando un ion con un láser por ejemplo, es una tecnología no corriente pero sí muy usada.

 

–Explique un poco qué es la mecánica cuántica.

 

–Es la teoría más exitosa de la ciencia de los últimos cien años. Explica el comportamiento del mundo microscópico y, fundamentalmente, es absolutamente antiintuitiva y bizarra.

 

–¿Por qué?

 

–Bueno, por poner sólo un ejemplo, la idea que uno tiene de que las partículas tienen su trayectoria en mecánica cuántica no pasa. Otra cosa rara es la famosa dualidad onda-partícula, o el entrelazamiento de partículas.

 

–El entrelazamiento de partículas... eso no podría transmitir información, ¿no?

 

–No. No transmite información, de hecho.

 

–¿Qué es el entrelazamiento?

 

–Uno tiene dos partículas, y las puede poner en un estado cuántico en el que están “entrelazadas”: las propiedades de cada una implican cosas sobre la otra, que no es lo que uno está acostumbrado en el mundo clásico. En el mundo clásico, si yo tengo la conjunción de una partícula roja y una verde, no dejo de tener una partícula roja y una verde, conjuntas; en el mundo cuántico tengo algo nuevo rojo y verde al mismo tiempo. Y si uno mide una, perturba la otra y viceversa.

 

–¿Tiene algo que ver todo esto con las computadoras cuánticas?

 

–Están íntimamente relacionadas, porque finalmente un cómputo cuántico es una operación cuántica: agarra un sistema en un estado y lo transmite en otro. El sistema evoluciona de la manera que uno quiere, uno observa el sistema y obtiene el resultado. Eso finalmente es controlar el estado del sistema. Para hacer una computadora cuántica, uno tiene que poder inicializarla, y para poder inicializarla se tiene que poder controlar el sistema.

 

–Las computadoras cuánticas están en el candelero hace mucho tiempo, ¿no? Pero no parece avanzar demasiado la cosa.

 

–Bueno, no sé si vamos a llegar a tener en nuestras casas computadoras cuánticas. Hoy por hoy eso no se puede predecir: somos cautos. Efectivamente hubo un crecimiento muy rápido del control de las tecnologías cuánticas, pero todavía no se logró ninguna tecnología que cumpla con todos los criterios. Ahora, lo que está empezando a aparecer son tecnologías que conectan diversas tecnologías, valga la redundancia. Por ejemplo, una trampa de iones donde uno hace el cálculo, que se envía a través de fotones, y esa información se guarda en otra tecnología. Y me parece que eso es lo que se está trabajando hoy: en la conexión de distintas tecnologías.

Publicado enInternacional