La fuerza de la luz, gran impulso para pequeños y grandes objetos

La interacción de la luz con la materia permite mayor control de los objetos que se manipulan, lo que la convierte en herramienta eficaz, ejemplo de ello son las pinzas ópticas, instrumento de micromanipulación con una amplia variedad de aplicaciones en biología y física

El estudio de la luz y la óptica brinda grandes posibilidades para realizar investigación de frontera y desarrollo tecnológico. La luz tiene fascinantes efectos sobre la materia, uno de ellos es su capacidad de ejercer fuerza y presión, destacó Karen Volke, investigadora del Instituto de Física de la UNAM (Ifunam).


Ejemplo de lo anterior es que gracias a la luz se puede lograr desde la propulsión de un velero solar hasta la captura de una bacteria por medio de un láser, fenómenos que se explican por la fuerza que ejerce la luz sobre la materia, propiedad que explicó el físico británico James Clerk Maxwell en el siglo XVIII:


"En un medio en el que las ondas se propagan –escribió– hay una presión en la dirección normal a las ondas, numéricamente igual a la energía en una unidad de volumen."


Velero solar


Ahora se sabe que la luz es capaz de ejercer presión sobre los objetos, pero llegar a esta afirmación requirió de muchos años de trabajo, teorías y experimentos. En la primera mitad del siglo XVII Johannes Kepler se preguntó si la radiación ejercía algún tipo de presión.


El propio astrónomo y matemático alemán respondió de forma afirmativa a la interrogante, y para ello explicó el fenómeno con la dirección que toma la cola de los cometas. Dijo que este objeto, independientemente de donde se moviera su cauda, siempre apuntaba en dirección opuesta al Sol. Hoy sabemos que este efecto de la cola de los cometas no es sólo por la radiación, sino principalmente por el viento solar, señaló la investigadora.


Dos siglos después, en 1873, Maxwell demostró teóricamente que la luz por sí misma podía ejercer fuerzas ópticas, denominadas presión de radiación.
Quien también intentó demostrar la fuerza de la luz sobre la materia fue el científico Williams Crookes, inventor del radiómetro de Crookes o molino de luz, el cual consiste en una bombilla en cuyo interior se halla un bulbo y en la punta de éste, contraria a la base, una aguja con cuatro pequeñas paletas, dos plateadas de un lado y dos negras del otro.


Lo que se buscaba con este invento es que las paletas giraran cuando la luz fuera reflejada por la cara plateada, ya que la transferencia de momento lineal –es decir, la fuerza– de la luz reflejada sería aproximadamente el doble que el de la luz absorbida en la cara negra.


Efectivamente, el molino gira al ser expuesto a la luz, pero de manera contraria a lo que se esperaba. Esto ocurre porque los efectos térmicos que provoca un movimiento hacia las zonas de menor temperatura dominan sobre la presión de radiación. Entonces, este experimento tampoco logró explicar la fuerza de la luz.


En 1972 el escritor y científico Arthur C. Clarke, publicó El viento del Sol: relatos de la era espacial, en el cual propone una carrera de veleros solares impulsados por el viento solar, una de las ideas con las que trabajaba en ese entonces, y tal vez inspirados por este libro, a inicios del presente siglo, se iniciaron proyectos con veleros solares –impulsados gracias a la luz del Sol–, como el caso del Cosmos1, velero con forma de disco de 100 kilogramos de peso y ocho velas triangulares dispuestas como las aspas de un ventilador que, unidas, formaban un círculo de 30 metros de diámetro.
Se trataba de un proyecto privado desarrollado por la Sociedad Planetaria, entidad cofundada por el célebre astrónomo y cosmólogo Carl Sagan y financiado por varias organizaciones.


El velero fue desarrollado por el Centro Científico Espacial Lavochkin, de Moscú, y otras entidades. Se lanzó al espacio el 21 de julio de 2005, pero no alcanzó su órbita debido a una falla en los propulsores del cohete que lo transportaba y que había sido lanzado desde un submarino ruso en el mar Barents.


Con este experimento fallido, en 2009 se inició el LightSail1, el cual aún se encuentra en tierra pero su lanzamiento está programado para abril de 2016, después de 20 años del fallecimiento de Sagan. Se trata de un pequeño satélite de 30 centímetros de diámetro con forma de cubo, construido por la firma Stellar Exploration. Este nuevo proyecto también es financiado por la Sociedad Planetaria.


Karen Volke destacó que pese a estas fallas "el funcionamiento de un velero solar ya se demostró en 2010 con el proyecto japonés Ikaros, nave-papalote interplanetaria de 15 kilogramos. Un año después, la NASA puso en órbita el velero solar NanoSail-D, con lo que quedó plenamente demostrado que la luz es capaz de empujar aun objetos macroscópicos mediante la presión (fuerza) de radiación".


Las delicadas manos de la luz


Mientras en el mundo ha habido gente que ha dedicado sus esfuerzos a demostrar la fuerza de la luz sobre objetos en el espacio, en otros puntos del planeta se empezó a estudiar su efecto sobre objetos microscópicos: Se dieron cuenta de que la luz no sólo podía ejercer presión sobre ellos y empujarlos, sino también atraparlos en las regiones de mayor intensidad, con lo que surgieron las pinzas ópticas.


Desde su invención en 1986, las pinzas ópticas son una potente herramienta de micromanipulación que actualmente cuenta con una amplia gama de aplicaciones en biología y física, áreas en las que es posible guiar, atrapar y separar objetos microscópicos, como una célula.


Las pinzas ópticas son capaces de manipular partículas dieléctricas tanto de tamaño nanométrico como micrométrico, ejerciendo fuerzas extremadamente pequeñas por medio de un haz láser altamente enfocado. El haz es típicamente enfocado enviándolo a través de un objetivo microscópico.


Una explicación apropiada del comportamiento del atrapamiento óptico depende del tamaño de la partícula capturada relativo a la longitud de onda de la luz utilizada para tomarla. En casos donde las dimensiones de la partícula son mayores que esta longitud de onda, un simple tratamiento de rayos es suficiente.


Por otro lado, si la longitud de onda de la luz excede las dimensiones de la partícula, entonces éstas deberán ser tratadas como pequeños dipolos eléctricos en un campo eléctrico.


Karen Volke mencionó, en la conferencia Historias breves de luz y fuerza, en el auditorio del edificio Yelizcalli de la Facultad de Ciencias de la UNAM, que la interacción de la luz con la materia permite mayor control de los objetos que se manipulan, aspecto importante, porque se ha vuelto una herramienta eficaz.


La plática impartida por Volke en abril pasado fue la segunda programada en el ciclo de conferencias magistrales que organizan la Sociedad Mexicana de Física, la Academia Mexicana de Ciencias y la Facultad de Ciencias, como parte de las actividades de 2015 Año Internacional de la Luz y las tecnologías basadas en ésta.

El CERN logra un nuevo hito en la velocidad de la colisión de protones

Por primera vez en la historia, dos haces de protones colisionaron ayer a una energía de 13 TeV (teraelectronvoltios) en el interior del Gran Acelerador de Hadrones (LHC) del CERN, el Centro Europeo de Física de Partículas. Cada haz de protones consiguió circular a una energía de 6,5 TeV lo que permitió las colisiones a una energía de 13 TeV.

 

Estas primeras colisiones se realizaron para poder comprobar los sistemas que protegen al propio acelerador, a los imanes y a los detectores de las partículas que se desvían del haz, según explicó hoy el CERN en un comunicado. Era clave que los test de seguridad se realizaran al mismo tiempo que los haces de protones circulaban y colisionaban entre ellos, para poder verificar como funcionan en condiciones reales.

 

Los choques se produjeron ayer por la noche y continuarán durante todo el día de hoy para que los técnicos puedan seguir realizando pruebas de funcionamiento. Estos test permitirán la puesta a punto del LHC para que esté listo para que entren en funcionamiento los cuatro detectores: ALICE, ATLAS, CMS y LHCb.


Se espera que el acelerador vuelva a ponerse a funcionar a principio de junio y que los cuatro detectores comiencen a recabar información y datos en ese momento. En esta nueva etapa de operaciones, el acelerador mejorado podrá utilizar toda su capacidad en favor de la física en el periodo comprendido entre 2016 y 2018, durante el cual pretende arrojar luz sobre la composición de la materia oscura.

 

El LHC es el mayor y más potentes acelerador del mundo, con imanes conductores que funcionan a modo de pilas, y su energía almacenada equivale a la de un portaaviones desplazándose a 43 kilómetros por hora o a la de un avión Airbus 380 volando a setecientos kilómetros por hora.

 

El acelerador tiene la forma de un anillo de 27 kilómetros de circunferencia y se encuentra dentro de un túnel localizado a unos ochenta metros bajo tierra, en la frontera de Suiza y Francia. Para funcionar requiere estar a una temperatura de 217 grados centígrados bajo cero, más baja que la del espacio.

 

En 2012, el LHC permitió uno de los mayores descubrimientos realizado hasta la fecha en el mundo de la física: demostrar empíricamente el bosón de Higgs, lo que confirmó el Modelo Estándar en el que se basa la física de partículas.

Científicos detectan universo paralelo de materia oscura

Docenas de colisiones cósmicas entre cúmulos de galaxias han arrojado luz muy necesaria sobre la materia oscura, misteriosa sustancia que forma la mayor parte del universo, pero que es invisible para los telescopios.


Científicos creen poder eliminar algunas de las teorías más exóticas acerca de esta materia luego de estudiar 72 colisiones entre cúmulos, cada uno de los cuales contiene hasta mil galaxias, que han chocado a una velocidad de mil kilómetros por segundo a lo largo de 100 millones de años.


Los resultados de un estudio parecen confirmar que la materia oscura forma un universo paralelo invisible, compuesto de subpartículas atómicas que no interactúan con la materia visible de las estrellas y planetas.


No hemos mostrado que sea alguna cosa, pero hemos descartado muchas otras que podría ser, comentó Richard Massey, astrónomo de la Universidad de Durham, uno de los investigadores participantes en el estudio, publicado en la revista Science.
Hemos mostrado que la materia oscura interactúa incluso menos de lo que se pensaba. Esto descarta varios tipos de partículas que se habían propuesto. Aún quedan varios candidatos viables, así que el juego no ha terminado, pero nos acercamos a una respuesta, dijo el doctor Massey.


Reflejo

Teorías anteriores habían sugerido que la materia oscura es una especie de defecto cuántico que apareció luego del Big Bang, o que es una forma extrañamente modificada de la gravedad. Sin embargo, los hallazgos sugieren que es otro tipo de partícula subatómica, que posiblemente forma un universo paralelo de supersimetría lleno de materia supersimétrica que se comporta con una imagen de espejo de la materia ordinaria, pero invisible.


Sabemos que existe. Intento medir las propiedades que tiene. Si la supersimetría existe, tal vez quiere decir que cada partícula de materia tiene una imagen de espejo supersimétrica, señaló Massey. Podría significar que hay muchos tipos diferentes de materia oscura. Añade mucho sabor y carácter a la materia oscura; la hace más interesante.


El estudio se basó en observar colisiones a cientos de miles de años luz de distancia, las cuales revelaron que la materia oscura interactúa muy poco, incluso consigo misma.


Mientras el Gran Colisionador de Hadrones del laboratorio nuclear Cern de Ginebra mide las colisiones entre partículas subatómicas en la Tierra, el telescopio espacial Hubble y el observatorio espacial de rayos X Chandra pueden observar colisiones mucho más grandes en el espacio, añadió.


El Cern hace chocar fragmentos de protones entre sí para ver de qué están hechos, pero no puede hacer chocar pedazos de materia oscura. Podemos echar una ojeada al universo para ver dónde ocurren esos choques, y estudiar cómo esos grandes colisionadores de partículas en el espacio hacen chocar la materia oscura.


Aunque la materia oscura es invisible, se puede detectar mediante las distorsiones gravitacionales que produce sobre la luz estelar, que se registran en mapas. Esos mapas tridimensionales ya han revelado que actúa como un andamio invisible alrededor del cual se acumula la materia ordinaria.


Los astrónomos lograron superimponer mapas de materia oscura en imágenes de 72 colisiones de cúmulos de galaxias, observadas desde varias direcciones en el espacio, para ver cómo se comportaba durante los choques. Esto les permitió estudiar las distintas etapas de varias colisiones para construir una imagen móvil en el tiempo.


Las galaxias están formadas de tres ingredientes: estrellas, nubes remolineantes de gas y materia oscura. Durante las colisiones, las estrellas casi siempre se pasan de largo. Son puntitos de materia separados por vastos espacios vacíos, explica Masset. "A la inversa, las nubes de gas se estrellan unas con otras y se paran, como un gigantesco choque de autos. La materia oscura se comporta de algún modo entre esos dos extremos, y su trayectoria al salir de una colisión revela sus propiedades. Ahora... podemos empezar a armar la película completa y entender mejor."


La materia oscura no se desaceleró en forma medible cuando la materia ordinaria de las estrellas y galaxias chocó en una conocida colisión de galaxias llamada Cúmulo Bala.


"Esta falta de interacción con nuestro mundo sugiere que la materia oscura podría ser una de las partículas supersimétricas hipotéticas... Si la teoría es correcta, debería haber al menos un tipo de pareja supersimétrica de todos los diferentes tipos de partículas que conocemos."

The Independent
Traducción: Jorge Anaya

El CERN espera las primeras colisiones de protones en dos meses

El director general del Centro Europeo de Física de Partículas (CERN), Rolf Heuer, dijo hoy que se espera que las primeras colisiones de protones que han empezado a ser introducidos en el Gran Colisionador de Hadrones (LHC) se produzcan en aproximadamente dos meses. "Tomará unos dos meses llevar la máquina a colisiones a la energía más alta", precisó Heuer en una conferencia de prensa.

Las partículas empezaron a ser introducidas en el acelerador este fin de semana y se prevé que empiecen a circular -en direcciones opuestas que posteriormente producirán las colisiones- dentro de unas dos semanas, señaló. Con sus 27 kilómetros de perímetro, el acelerador de partículas del CERN es el más grande y poderoso que existe, y para funcionar su temperatura debe situarse en 217 grados centígrados bajo cero, lo que se consiguió a finales del año pasado.


El hecho de que esta máquina vuelva a funcionar, tras dos años de minucioso mantenimiento técnico, ha generado mucha expectativa en la comunidad científica sobre los descubrimientos a los que puede dar lugar. El LHC estará encendido durante tres años, tras lo que volverá a ser apagado para un nuevo periodo de revisión y garantizar que cumpla su periodo de vida hasta 2035.

Heuer señaló que hay confianza en que se harán descubrimientos que abrirán nuevos campos a la física moderna, pero que nadie puede predecir cuándo ocurrirán porque "esto está en manos de la naturaleza".

El director de aceleradores del CERN, Frédérick Bordry, explicó que en los últimos dos años se hizo un gigantesco trabajo para inspeccionar cada pieza del acelerador, constituido de imanes de unos 18 metros de longitud y que se conectan entre sí a través de bobinas que han sido revisadas una por una para asegurar la transmisión de la energía.

"Hemos revisado todas las conexiones, probado todo. El acelerador está preparado para alcanzar el doble de la energía (con respecto a su primer periodo de funcionamiento)", dijo. La energía que se prevé alcanzar en mayo será de 13 TeV, mientras que en la primera etapa el acelerador llegó a funcionar de manera regular a 8 TeV.

Confirma el Hubble la teoría de la relatividad de Albert Einstein

Una asombrosa confirmación de la teoría de la relatividad de Albert Einstein ha sido aportada por el telescopio espacial Hubble, luego de que astrónomos capturaron las primeras imágenes de luz de una estrella que estalló, distorsionadas por un conglomerado de galaxias.


El científico más famoso del mundo predijo este efecto hace más de un siglo y ahora, después de 50 años de escudriñar los cielos, por fin ha sido detectado.


Las fotografías muestran la firma reveladora de cuatro puntos de luz, originados por la explosión de una sola supernova, dispuestos en forma de cruz de Einstein en torno a un lejano conglomerado de galaxias. Los cuatro puntos son resultado de una masa oculta de materia oscura dentro de la galaxia, que dobla la luz de la supernova, la cual está a muchos años luz de distancia, pero cae directamente detrás de ella cuando es avistada por el Hubble.


Cada uno de los cuatro puntos de luz toma una ruta diferente en el espacio, y sus tiempos de travesía son afectados por la cantidad de materia faltante –la invisible materia oscura que forma la mayor parte del universo– que tienen que atravesar en el trayecto, explicó Patrick Kelly, de la Universidad de California en Berkeley, quien formó parte del equipo internacional respaldado por las agencias espaciales de Estados Unidos y Europa, Nasa y AEE.


El efecto es análogo al de varios trenes que partieran de la misma estación al mismo tiempo, pero siguiendo rutas diferentes, algunas más lentas que otras, hacia el mismo destino final, explicó Steve Rodney, de la Universidad Johns Hopkins, uno de los autores del estudio, publicado en la revista Science.


La teoría general de la relatividad de Einstein predice que densas concentraciones de materia en el universo ejercerán un tirón gravitacional tan fuerte sobre la luz que pase por ella, que la luz se doblará, tal como una lente en unos anteojos.
A 9 mil 300 millones de años luz


Aunque la primera lente gravitacional se descubrió en 1979, y otras han sido confirmadas posteriormente en objetos como galaxias y cuásares, es la primera vez que se ha encontrado una por la intensa luz emitida por una explosión estelar, en este caso de una supernova, que ocurrió a 9 mil 300 millones de años luz de distancia.


Astrónomos que trabajan en las imágenes recabadas por el Hubble vieron primero cuatro puntos de luz dispuestos en cruz alrededor de un conglomerado de galaxias a 5 mil millones de años luz el 11 de noviembre del año pasado, y desde entonces analizan las imágenes con otros telescopios basados en tierra. Las cuatro imágenes de la supernova captadas por el Hubble con diferencia de unas semanas entre sí. "Realmente di una vuelta de campana cuando detecté las cuatro imágenes rodeando la galaxia... fue una completa sorpresa", comentó el doctor Kelly.


Básicamente, vimos la supernova cuatro veces y medimos los intervalos de tiempo entre su llegada en las cuatro diferentes imágenes, lo cual esperamos que nos permita aprender algo de la supernova y de la estrella de la cual estalló, así como de las lentes gravitacionales, señaló.

Traducción: Jorge Anaya

Afinan planes para el sucesor del Gran Colisionador de Hadrones

Escasos cinco años después de que el Gran Colisionador de Hadrones empezó a estrellar unos átomos con otros para tratar de resolver los misterios del universo, los científicos ya planean remplazarlo con una enorme máquina cuatro veces más grande.


Los planes, discutidos por científicos en una reunión sobre futuros colisionadores circulares, la semana pasada en Ginebra, implican construir un supercolisionador en torno de esa ciudad suiza, en un túnel de 100 kilómetros de largo. El colisionador actual, construido por la Organización Europea de Investigación Nuclear (Cern) a un costo de 9 mil 200 millones de dólares, se comenzó a edificar a finales de 2008.


Apenas una semana después de que el GCH entró en operación, una fuga de varias toneladas de helio líquido retrasó las pruebas más de un año. Pero de entonces a la fecha ha compensado la fe de los físicos de partículas y el año pasado demostró la existencia del bosón de Higgs, la partícula subatómica que da masa a la materia.


Sin embargo, como el GCH debe quedar fuera de servicio antes de 2040, no hay tiempo que perder para planear su remplazo, sostuvo el profesor Philip Burrows, investigador en física de la Universidad de Oxford.


Puesto que el tiempo de gestación de los aceleradores grandes es de un par de décadas, necesitamos comenzar a pensar ahora si queremos tener un diseño a la mano para que una posible máquina nueva entre en operación en la Cern a finales de la década de 2030, expuso.


El doctor Rolf Heuer, director general de la Cern, comentó: Tenemos grandes esperanzas de que ahora que el GCH marche a mayor energía, el año próximo, podríamos obtener la primera visión de lo que es la materia oscura. Y ya después de eso yo asumiría que podríamos tener argumentos de física para contar con un futuro colisionador circular.
El nuevo tunel Cern de 100 kilómetros es una de varias propuestas que se consideran para remplazar el GCH, el cual lanza unos átomos contra otros virtualmente a la velocidad de la luz.


De ningún modo es seguro que el nuevo colisionador esté siquiera en Europa, pues Japón y China están interesados en albergar uno, y los científicos también discuten respecto de qué partículas deben probarse. Algunos favorecen las colisiones de protones, como se hace en el GHC, de 27 kilómetros, señalando la capacidad de alcanzar energías mucho más altas y condiciones extremas en un intento de estimular las que prevalecían durante el Big Bang. Otros apoyan usar electrones, que son más fáciles de dirigir y arrojan resultados más sencillos de interpretar.


Otros planes comprenden un colisionador lineal compacto, desarrollando nuevas tecnologías para poner energía en haces de partículas en distancias cortas.


Los costos de crear un nuevo colisionador, en un túnel de 100 kilómetros, serían enormes. Se calcula que haría falta extraer 10 millones de metros cúbicos de roca. La Cern rehúsa especular sobre las sumas requeridas, pero, dado el costo de 9 mil 200 millones de dólares del GCH, en el que sólo se retiraron 1.5 millones de metros cúbicos de roca, es probable que llegue a decenas de miles de millones.


Científicos deben informar a la Cern en 2018 qué es lo que debe construirse. Suponiendo que lleguen a un acuerdo, tardaría otros 15 años o más crear el nuevo colisionador.


También persisten inquietudes sobre las consecuencias imprevistas de la investigación de alto nivel. Científicos y expertos legales advirtieron que los planes de perfeccionar el acelerador de partículas más poderoso después del GHC, en el Laboratorio Nacional Brookhaven de Nueva York, conllevan el riesgo de crear microhoyos negros y strangelets, forma teórica de materia que podría provocar una reacción en cadena que convierta todo en materia extraña y destruya el planeta. Pero algunos temían lo mismo con el GHC, y hasta ahora hemos sobrevivido.


© The Independent
Traducción: Jorge Anaya

Crean una máquina para "teletransportar" objetos vía internet

Un grupo de ingenieros alemanes ha construido una máquina capaz de teletransportar objetos a través de Internet. Lo que parecía un sueño inalcanzable ya parece una realidad más que tangible.


Aunque el invento llamado 'Scotty' todavía es imperfecto y destruye algunos objetos, han conseguido procesar y transportar los datos de los objetos a través de Internet, y esperan que se convierta en un verdadero prototipo de teletransportación, al igual que podíamos ver en la serie de ciencia ficción Star Trek, según informó el diario 'The Telegraph'.


El dispositivo se encarga de escanear los objetos a teletransportar con una cámara, previamente cortándolos en capas con el objetivo de mejorar el procesamiento de sus datos. Después la información tratada se cifra y se envía a una impresora 3D conectada a un ordenador en cualquier rincón del mundo, que reproduce su modelo reconstruido.


Este parece ser un gran avance en la ciencia contemporánea, aunque por el momento la máquina todavía presenta algunas deficiencias, dado que destruye las cosas y solamente teletransporta los objetos pequeños y de color negro.


Sin embargo los ingenieros aseguran que ha sido un buen comienzo, y en breve podrán mejorar las prestaciones del invento.


(Con información de The Telegraph)

Diez avances que quizás podrían cambiar el mundo pronto

Una técnica para hacer transparentes los animales de laboratorio, una pantalla para dispositivos móviles que corrige los defectos visuales y un wifi cargador para eliminar cables son tres de los diez avances actuales que podrían diseñar el futuro. Estas innovaciones, seleccionadas por la revista Scientific American, tienen un gran potencial si logran salir de los laboratorios y muchas también resultarían útiles en países pobres y contribuyen a proteger el medioambiente.

 

Ver cómo se diseminan y multiplican los virus por el cerebro o identificar los nervios periféricos para acelerar la investigación biomédica son algunos de los usos que tiene un animal de laboratorio convertido en transparente una vez muerto. Inspirada por la conocida exposición de cuerpos humanos plastinados, la investigadora Viviana Gradinaru se planteó algo parecido con ratones muertos y consiguió hacerlos transparentes, sustituyendo los lípidos de los tejidos por sustancias químicas y sustituyendo la estructura natural por otra artificial. Los tejidos son tan transparentes que se han conseguido detectar hebras individuals de ARN, dice Gradinaru. También se han podido aislar y marcar células cancerosas de una biopsia de cáncer de piel humano. Obtener mejores mapas de las redes neuronales es otra de las aplicaciones en marcha con esta técnica.


En el área de las aplicaciones de uso cotidiano se presenta una pantalla para dispositivos móviles de comunicación que corrige los defectos visuales del usuario, o sea, las gafas están en la pantalla, mediante una combinación de elementos físicos y programación. Se puede corregir la miopía, la hipermetropía, el astigmatismo y otros problemas de visión, introduciendo los datos del usuario, y se trabaja en un mecanismo de control en el propio teléfono que permita adaptarlo fácilmente a usuarios distintos.


Otra investigadora, Meredith Perry, confió en sus conocimientos para desarrollar una técnica que casi todos le decían que era imposible que funcionara. Es un transmisor de ultrasonidos, en fase de prototipo, que actúa como un altavoz direccional para concentrar en un punto en el espacio la energía mecánica del sonido, energía que un receptor piezoeléctrico conectado a un dispositivo electrónico convierte en electricidad. De esta forma se podrá prescindir de los múltiples cables y cargadores de los dispositivos móviles, afirma la inventora, y también reducir el peso de aviones, naves espaciales y otros vehículos que llevan aparatosos cables de potencia. Antes, se han probado técnicas similares basadas en la resonancia e inducción magnéticas, que funcionan pero tienen muy poco alcance. Los ultrasonidos, en principio, no plantean problemas de seguridad.

En este mismo campo de la energía, se plantea aprovechar la energía disipada en instalaciones industriales en forma de calor, la mayor parte a baja temperatura. Investigadores del MIT han conseguido recuperarla incluso cuando solo se alcanzan los 50 grados, aprovechando el efecto termogalvánico y la creciente eficiencia de los electrodos de las baterías. En el futuro, ven las paredes de las fábricas y las centrales eléctricas cubiertas de baterías que aprovechan el calor para producir electricidad. Mientras tanto, en Arabia Saudí, una diminuta pila de combustible bacteriana, alimentada con saliva, es la base de una interesante línea de investigación. La saliva alimenta las bacterias, que producen electrones, y la pila produce un microvatio de potencia, que es muy poco pero suficiente para alimentar diminutos chips de análisis y seguimiento de enfermedades como la diabetes. Ahora se está experimentando la integración de la célula en un riñón artificial, donde se alimentaría de los fluidos corporales del enfermo para mantener en marcha la máquina.


En biología, la técnica que más atención merece en esta selección es una herramienta para manipular el ADN en un genoma de forma muy precisa y rápida, que ya se está utilizando. Se llama Crispr y que sea tan fácil, rápida y barata está provocando preocupación en algunos sectores científicos por los riesgos que implica éticamente. Al igual que técnicas anteriores que provocaron el auge actual de la ingeniería genética, se basa en un profundo conocimiento de la biología, en este caso de los métodos de defensa de las bacterias frente a los virus. Una proteína utilizada como tijeras por una bacteria para destruir un virus atacante ha demostrado ser ideal para inutilizar genes o insertar material genético nuevo. Las aplicaciones posibles son infinitas. Un investigador ha conseguido eliminar en células humanas la infección por VIH (el virus del sida) e incluso inmunizar las células frente a futuros ataques del virus.


Las células también se pueden reprogramar o controlar con otros métodos, como lograr penetrar su membrana simplemente ejerciendo presión hasta que la deformación produce pequeños agujeros temporales por los que se pueden introducir proteínas, ácidos nucleicos y nanotubos de carbono. A nadie se le había ocurrido hasta hace poco, pero ya existen 16 chips diferentes con canales por los que circulan las células, canales que se estrechan hasta que la deformación permite acceder a su interior para múltiples procesos necesarios en los laboratorios.

En física, el Lego a escala atómica representa uno de los futuros grandes logros de la nanotecnología. Es consecuencia de la creación del grafeno, un material que consiste en una finísima capa de solo un átomo de carbono de espesor, obtenida a partir del grafito (el material de los lápices). Construir estructuras con bloques de grafeno y otros materiales monoatómicos, extraídos, por ejemplo, de la mica, es una tecnología que todavía está poco desarrollada porque presenta grandes dificultades. Se han conseguido ensamblar hasta cinco capas diferentes, y el conjunto resulta ser flexible y transparente. La imaginación no tiene límites respecto a las posibles aplicaciones. "El progreso humano siempre ha seguido de cerca al descubrimiento de nuevos materiales", afirma el premio Nobel André Geim, uno de los descubridores del grafeno.

La lista de avances se completa con un plástico ultrarresistente -llamado Titan- salido de los laboratorios de IBM, que además es reciclable. Es el tipo de material que se puede utilizar en aviones y automóviles y que la industria demanda de forma creciente. Y, finalmente, con una cámara de vídeo que puede detectar nanopartículas, con la misma resolución que los carísimos y complicados microscopios electrónicos. Se podría utilizar para leer mensajes de identificación codificados en todo tipo de materiales, desde un medicamento a un explosivo, por poner un solo ejemplo.

Logran teleportación cuántica a distancia récord de 25 kilómetros

Investigadores de la NASA han logrado teletransportar información sobre el estado cuántico de un fotón, una partícula de luz, a 25 kilómetros de fibra óptica hasta un 'banco de memoria' en cristal.

 

El récord anterior en la fibra óptica era de 6 kilómetros. Este fenómeno complejo de teleportación cuántica podría tener implicaciones para la criptografía, que consiste en la transmisión de información de forma segura, incluidas las comunicaciones entre la Tierra y las naves espaciales.


"Podemos imprimir el estado de un sistema en otro sistema, incluso cuando los dos están muy separados," dijo Francesco Marsili, ingeniero de microdispositivos del Laboratorio de Propulsión a Chorro (JPL) de la NASA en Pasadena. "El uso de este efecto en las comunicaciones podría ayudar a la construcción de una red de comunicaciones espaciales intrínsecamente segura, es decir, canales de comunicación que no puede ser hackeados."


Marsili y sus colegas del InstitutoNacional de Estándares y Tecnología (NIST), desarrollan dispositivos que pueden detectar las partículas individuales de luz, llamados fotones desarrollados.

"Es difícil de detectar un único fotón, por lo que se necesita para hacer un detector sensible", dijo. "Aquí en el JPL, en colaboración con el NIST, hemos desarrollado el detector más sensible en el mundo."


Así funciona


¿Cómo funciona la teleportación cuántica? Es complicado, pero una analogía para el principio en que se sustenta puede ayudar: Digamos que hay dos personas, Alice y Bob. Alice quiere que Bob tenga un fotón que esté en el mismo "estado" que su fotón, que llamaremos fotón P.
En aras de esta analogía, vamos a pretender que el "estado" es un color, y el fotón P es amarillo. Una tercera persona llamada Charlie envía dos fotones entrelazados, fotón A a Alice y fotón B a Bob, que se comportan como si fueran parte de un mismo todo. Ambos de estos fotones se muestran en azul.

 

"En un sistema enredado, cada parte está conectada entre sí de una manera fundamental, de manera que cualquier acción realizada en una parte del sistema enredado tiene un efecto en todo el sistema enredado", dijo Marsili.


Los dos fotones de Alice, P, que es de color amarillo, y A, que es de color azul, "chocan". Alice mide los fotones como se aniquilan entre sí. Aunque P y A son destruidos en el accidente, se conserva el color amarillo de P. Debido a que los fotones A y B de fotones están entrelazados, el color amarillo es "teletransportado" a B. Pero con el fin de hacer que el fotón B se convierta en amarillo, como el fotón P era originalmente, Alicia necesita enviar a Bob dos bits de información a B mediante la manera "clásica" – por ejemplo, mediante el envío de pulsos de luz a través de una fibra óptica.


"Cuando Alice mide el estado de su fotón, los fotones de Bob cambian de estado también, como si se activara un interruptor", dijo Marsili. "Pero Bob no puede saberlo a menos que Alice le envíe los bits de información clásica". Bob no sabe que su fotón ha cambiado a amarillo sin esa información adicional.


El teletransporte cuántico no significa que alguien puede saltar de Nueva York a San Francisco instantáneamente, pero parece ciencia ficción en el sentido de que el estado de una partícula (fotón P) se destruye en un solo lugar, pero se reproduce en otro sistema remoto (fotón B ) sin que las dos partículas hayan interactuado nunca.


Otra pieza fundamental de esta historia es que Bob tiene un cristal específico, que sirve como un banco de memoria, para almacenar su fotón entrelazado y servir como destinatario del estado cuántico.


Los investigadores llegaron a la distancia récord de 25 kilómetetros entre "Alice" y "Bob" gracias a los detectores ultrasensibles desarrollados por el JPL y el NIST. "Llegar a esta distancia no habría sido posible sin esos detectores", dijo Félix Bussières en la Universidad de Ginebra, autor principal del estudio.


El teletransporte cuántico se puede utilizar para hacer que sistemas como cuentas bancarias sean más seguras a través de distancias más largas. Esto también es importante para la prevención de los ataques a los canales de comunicación en el espacio.
"Si te estás comunicando con sus astronautas en Marte, debes impedir que los hackers rompan el canal codificado y les den información falsa", dijo Marsili.


(Con información de Europa Press)

Lunes, 10 Noviembre 2014 06:44

¿Qué es la lógica cuántica?

¿Qué es la lógica cuántica?

De las dos teorías físicas sobre la realidad y el universo, la teoría de la relatividad y la teoría (o física) cuántica, de lejos la primera tiene, seguramente por su acendrado apoyo en el sentido común y en la percepción natural, un arraigo social y cultural muy fuerte. En contraste, a pesar de permear a todas las tecnologías actuales, la teoría cuántica se encuentra aún lejos de ser un patrimonio social y cultural. Después de más de cien años de haber sido formulada por primera vez.
Análogamente, desde el punto de vista social y cultural prevalece aún la vieja idea de que hay una sola lógica y que ésta se origina en Aristóteles. Las lógicas no–clásicas esperan todavía un enraizamiento social y cultural; algo que tomará aún un tiempo largo, a decir verdad.


Pues bien, existe una lógica no–clásica que se encuentra estrechamente vinculada con la teoría o física cuántica: se trata de la lógica cuántica, la cual es una lógica alternativa, o complementaria (como se prefiera) a la lógica formal clásica.


La lógica cuántica se origina en un famoso paper publicado en 1936 por G. Birkhoff y J. Von Neumann llamado "la lógica de la mecánica cuántica". La idea del paper es la de estudiar, desde el punto de vista lógico, los más importantes fenómenos y comportamientos de la mecánica cuántica.


Ahora bien, la mecánica cuántica es sencillamente un muy complicado aparato matemático (formulado originariamente por M. Born) para explicar esencialmente el colapso de onda y cuyo problema ontológico y epistemológico fundamental se denomina "el problema de la medición". Es decir, ¿la realidad tiene un fundamento propio en sí mismo (fundamento in re, digamos), o bien la realidad depende del observador. La dificultad estriba en el hecho de que el observador modifica por el acto mismo de la observación el comportamiento del fenómeno (cuántico) observado.


En otras palabras, ¿es posible saber y determinar lo que es la realidad por sí misma, independientemente de cualquier observador particular? Así, por ejemplo, si es humano o no, y si es humano según su historia, su biografía, sus circunstancias y demás. O bien, por el contrario, ¿el observador y, por consiguiente, su conocimiento, su posición en el universo, su biografía y su historia, por ejemplo, determinan y alteran el fenómeno observado por el simple hecho de la observación?


Esto es lo que se denomina el famoso debate de Copenhaguen, y que ocupó a todos los más grandes científicos ocupados con la física cuántica en la primera parte de la historia (1900–1934) hasta cuando, con la subida de Hitler al poder, esta historia se interrumpe dramáticamente debido a la irrupción de la Segunda Guerra Mundial. Con ella, la física cuántica es desplazada a lugares muy secundarios, y prácticamente desaparece: lo que vendrá a ocupar la mirada y los intereses será la física atómica (Hiroshima, Nagasaki, bomba de hidrógenos, energía nuclear, etc.).

Pues bien, la lógica cuántica se ocupa, dicho de manera general, de un problema puntual: ¿lo que sabemos del mundo macroscópico se corresponde o no con lo que sabemos del universo microscópico? ¿Si o no, y si sí, cómo y por qué?
Como tal, la lógica cuántica ha sido vista en una buena parte de la historia como una lógica no–asociativa polivalente; esto es, una lógica de múltiples valores que no obedece o responde al principio de asociatividad. Análogamente a los comportamientos cuánticos, justamente.

Más recientemente, ha habido desarrollos de la lógica cuántica muy interesantes, en especial, el formalismo de historias consistentes, que consiste en el trabajo con historias paralelas que son consistentes con un comportamiento cuántico.
Para entender esta idea es necesario atender a lo siguiente: la teoría cuántica nos enseña que los fenómenos y el mundo, la naturaleza, en general, son esencialmente probabilística. Esto es, no sabemos con exactitud el lugar de un cuerpo o fenómeno si logramos identificar la dirección en la que se mueve, y al revés. Lo mejor que podemos decir es: existe la probabilidad de que se encuentre en tal lugar o de que se dirija en tal dirección. Punto.

Esta idea de probabilidad es la mejor expresión de lo que genéricamente se conoce como el principio de incertidumbre (formulado originalmente por W. Heisenberg). Lo cual no tiene absolutamente nada que ver con el sentido que habitualmente le asigna la gente como queriendo denotar "incertidumbre emocional", "incertidumbre psicológica" o incluso "incertidumbre cognitiva". Ampliamente difundidas, estas ideas son, sin embargo, erróneas.

Así las cosas, ¿el modo como (sabemos que) se comporta el universo macroscópico se corresponde —o no— con la forma como se comporta el universo microscópico? ¿Y al revés? El tema es verdaderamente apasionante y ciertamente poco evidente.

En efecto, la lógica formal clásica, y el pensamiento que se funda o se deriva de ella, es: (a) lógica de estados, no de procesos; (b) lógica de fenómenos y comportamientos macroscópicos. Así las cosas, mas vale dejar a aquella lógica y a su pensamiento muy de lado; por decir lo menos.

¿El universo microscópico? En rigor, puede decirse que éste fue descubierto apenas en 1959, en una famosa conferencia que dictó R. Feynman el 29 de Diciembre en el Caltech (California Technical Institute), llamada There is plenty of room at the bottom. Literalmente: "hay una cantidad de espacio allá abajo".


Con la conferencia de Feynman nace el universo microscópico: la nanotecnología y la nanociencia, y ulteriormente la femtoquímica y la femtobiología. Esto es, el estudio de procesos y fenómenos físicos, químicos y biológicos que suceden en tiempos inmensamente más vertiginosos que los tiempos macroscópicos.


Pues bien, a ello apunta la lógica cuántica: debe ser posible que lo que sepamos y digamos de una dimensión de la realidad (microscópica) tenga alguna correspondencia no trivial con la otra dimensión del mundo (macroscópica). La lógica cuántica: formulada al comienzo en 1936, no son muchos los desarrollos que ha tenido aunque sí altamente significativos. Un campo joven y promisorio.