Lunes, 29 Septiembre 2014 06:03

¿Qué es el yo biológico?

¿Qué es el yo biológico?

Nuestro yo es, esencial y ulteriormente, un acontecimiento biológico. Con una salvedad: la biología es un fenómeno físico, y la física actual ya no se ocupa de la materialidad del universo o las cosas.


Maturana y Varela producen con El árbol del conocimiento (1984) una inflexión importante en la biología y en el conocimiento en general que, aunados a otros trabajos e investigadores, tales como B. Goodwin, R. Solé, S. Kauffmann, entre otros, habrán de designar lo que entonces se llamaba "la nueva biología".


La idea de base es, aquí, que el conocimiento tiene una base material: la biología. En efecto, el "yo" fue un tema habitualmente exclusivo de filósofos, teólogos ("persona"), psicólogos y teóricos del conocimiento. Maturana y Varela ponen de manifiesto que la quintaesencia de la psicología es la biología y que el fundamento de la filosofía es la biología. Sin embargo, esta idea jamás debe ser entendida como una especie de reduccionismo biologista, sino, por el contrario, en el sentido de que la base material del conocimiento y de todo lo que sea el yo no puede ser entendida sin el recurso a la biología.

Más o menos por la misma época la inmunología cobrará una importancia social, cultural y científica sin iguales en la historia de la medicina, la sociedad y la biología. El acontecimiento que, puntualmente, lanzará al primer plano a la inmunología es el descubrimiento del sida y, concomitantemente, todos los temas y problemas relacionados con enfermedades del sistema autoinmune.


Pues bien, los nuevos estudios en torno al sistema inmune tuvieron durante muchos años, hasta hace muy poco, un foco central: el sistema inmune define lo que es propio (self) de lo ajeno o impropio (non–self), en particular a partir de las relaciones entre antígenos y anticuerpos. Así, el sistema inmunológico es el que permite definir lo propio del cuerpo, la salud, y el yo, frente a lo ajeno, lo impropio, lo extraño.

Profundizando esta idea, el complejo mayor de histocompatibilidad (CMH), descubierto inicialmente en el contexto de los primeros trasplantes de órganos en 1940 (y que le valdría a su autor, Snell, el premio Nobel en 1980) —un grupo de genes situado en el cromosoma 6— cumple la función de presentar los antígenos a los linfocitos T, y, en consecuencia, distinguir claramente lo propio de lo ajeno. El lugar en el que tiene lugar esta diferenciación es el sistema linfático.
En otras palabras, todo lo que sea el yo —en la acepción al mismo tiempo más amplia y fuerte de la palabra— tiene lugar en la escala más fundamental, que es la defensa del organismo frente a lo ajeno, peligroso, diferente, y que se designa con el nombre genérico de "antígenos". Del buen funcionamiento del sistema inmunológico depende la salud del organismo vivo, un acontecimiento que encuentra dos niveles, así: cabe distinguir el sistema inmune natural y el sistema inmune adquirido (o adaptativo). El primero es propio de todos los sistemas vivos en general. El segundo es específico de los vertebrados, de mayor complejidad estructural, fisiológica, anatómica y termodinámica. Más exactamente, son dos los mecanismos de memoria de un organismo superior frente a la agresión: el sistema nervioso central (= cerebro) y el sistema inmunológico. Los linfocitos B le presentan a los linfocitos T lo ajeno y éstos proceden a generar células asesinas (natural killers, o NK cells).

Una función del sistema inmune es la de proteger al organismo de virus, bacterias, hongos y parásitos. Pero la otra función fundamental del sistema inmune es la de permitir la auto–reparación de células, tejidos y órganos, el balance entre células normales y bacterias y virus —por ejemplo, la flora intestinal—, controlar la homeostasis y los procesos de metabolización. Para todo ello, en realidad son tres los sistemas que interactúan y que constituyen una sólida unidad: el sistema nervioso central, el sistema hormonal y el sistema inmunológico. Y el lugar en el que opera el sistema inmune es el organismo a través de la sangre (sistema sanguíneo) y los linfos (sistema linfático —"de agua") del organismo.

En otras palabras, el lenguaje del sistema inmunológico es un lenguaje hormonal (químico) en el que la comunicación y los procesamientos de información son determinantes. El cerebro produce hormonas que actúan con los linfocitos B y C, y que se complementan con las hormonas en todo el organismo. Lo maravilloso es que el sistema inmunológico es el único sistema no localizado ni centralizado del cuerpo y, por el contrario, es un sistema literalmente ubicuo, de acción no–local, procesamiento en paralelo, dinámico y distribuido que evoluciona acorde al medio ambiente en general: natural y social o cultural.


Así las cosas, la salud de los organismos vivos depende de la estupenda comunicación entre el cerebro (in extremis, si se quiere, la mente), el sistema y balance hormonal, y ulteriormente el CMH. En otras palabras, aquello que somos no depende de la idea de identidad personal o cualquier otra, de las creencias sociales y demás; no sin ellas, lo que cada quien y puede es el resultado del equilibrio dinámico de la biología, y muy especialmente del sistema inmunológico, el único que no puede ser "desconectado" y que trabaja 24/7.

Nuestro yo es, esencial y ulteriormente, un acontecimiento biológico. Con una salvedad: la biología es un fenómeno físico, y la física actual ya no se ocupa de la materialidad del universo o las cosas. Por el contrario, la buena física de punta de hoy se ocupa de qué tanto sabemos del mundo, la naturaleza y el universo. Pues la física y "lo" físico ya no consiste, en absoluto, como en el pasado, en materialidad, sino en funciones de onda, procesos, coherencia y de–coherencia, superposición de estados, complementariedad, incertidumbre y danza de fotones, por ejemplo.

La vida es un fenómeno físico; pero la verdad es que aún no terminamos de conocer enteramente qué es la "materia". Pues lo cierto es que "materia" no es ajena ni distinta a "información", ni tampoco a "energía". Y los tres son expresiones de la complejidad de un mismo fenómeno al cual lo mejor de la ciencia dedica sus mejores esfuerzos por comprenderlo.
En cualquier caso, la esfera de lo propio o personal o yoico —el self— es un acontecimiento que se está dirimiendo permanentemente sobre la base del CMH, y el buen funcionamiento del sistema inmune. Con una observación final: no hay, en realidad, para el sistema inmune dos cosas: lo propio y lo ajeno, pues ambos son dos momentos de un mismo proceso. El cuerpo y el yo se conoce a través del sistema inmune y se hace posible por él, y el sistema inmune conoce al cuerpo y lo recorre como la producción de sí mismo. Esa producción es la vida misma. En verdad, para traducirlo en otras palabras, en el sistema inmune no acontece la distinción entre hardware y software, pues en la célula y en el organismo ambos son una sola y misma cosa.

¿Cómo fue el origen de la física cuántica?

La física cuántica nace del resultado de varios antecedentes, directos e indirectos, y de un feliz almuerzo una tarde de domingo con un comensal inteligente y activo en investigación de punta.

 

La física cuántica es, de todas las teorías científicas, la que quizás más verificaciones y contrastaciones ha recibido al mismo tiempo que las más exactas predicciones hasta la fecha, y a la vez la más determinante para la vida que llevamos en el siglo XXI. Originada a partir del estudio de la luz, la física cuántica nos acompaña alrededor nuestro, sin que lo sepamos, en fenómenos y aparatos como todos los sistemas eléctricos, los computadores, toda la tecnología laser, la telefonía celular, las cámaras digitales, la televisión y la radio actuales, los CD que escuchamos, los DVD que vemos, y una variedad enorme de fenómenos similares. Toda la tecnología de punta es imposible sin atravesar por los dominios de la física cuántica.


Nuevos artefactos y sucesos que facilitan nuestra vida, que la hacen más placentera. La ciencia, como la vida, está hecha de hebras sutiles, indirectas, muchas azarosas, y, sin embargo, acompañadas en alguna medida por sueños, planes, trabajo, y mucha reflexión e investigación. Los grandes seres humanos siempre han sido posibles sobre otros que por razones diversas han recibido menos atención.


Pues bien, el comienzo de la cuántica se encuentra en el estudio acerca de la naturaleza de la luz, un fenómeno que en el curso del siglo XIX alcanza un impacto cultural y social inaudito, expresado, por ejemplo, en el nombre de París como "la ciudad luz" debido al incremento y cubrimiento rápido del servicio eléctrico a gran escala como ninguna otra ciudad lo había conocido hasta entonces.


En el mismo sentido, a comienzos del siglo XX, en los albores de la revolución rusa de 1917, Lenin definirá al socialismo –en contraste con el sistema capitalista– como "electricidad y poder para los soviets". La luz y la electricidad, el alimento de las ciudades desde finales del siglo XIX y hasta la fecha.


Investigación y logros


La discusión acerca de la naturaleza corpuscular u ondulatoria de la luz se remonta hasta Newton y Faraday, pero encuentra en el famoso experimento de Th. Young sobre la doble ranura en 1800–1801 el verdadero punto de partida. La luz es una onda que interviene consigo misma en el experimento mencionado y cuyo comportamiento deberá ser explicado.


En esta historia, varios nombres se destacan con una importancia desigual. James C. Maxwell logra en 1865 la unificación de la electricidad y el magnetismo –en la fuerza electromagnética–, que se corresponden con la velocidad de la luz. Ya en 1862 L. Foucault (el mismo de la novela de U. Eco), establece que la velocidad de la luz es de 298,005 km/s, equivocándose tan sólo en un 1% en la medida establecida actualmente (299,792,458 m/s).


Por su parte G. Kirkhhoff estudia (1862) la idea de un cuerpo negro y la radicación del cuerpo negro –que habrá de conducir posteriormente a los fenómenos de singularidad cósmica que son los agujeros negros–; J. Stefan es el primero en establecer la relación entre la tasa a la que un cuerpo emite radicación y su temperatura (1879); y W. Wien estudia (1893) la longitud de onda de máxima intensidad de un cuerpo negro y su temperatura, lo que permitirá a los astrónomos medir la temperatura de las estrellas.


Es importante observar que el ojo humano sólo puede observar longitudes de onda entre 450 y 700 nanómetros, y que el resto del universo escapa a nuestra visión directa: ondas infrarrojas, microondas, radioondas, ultravioleta, rayos X, rayos gama. Nuestra vida y sus avatares, el amor y la política, la poesía y las guerras suceden esencialmente entre la escala de 450 y 700 nm. En ese espectro vemos lo que nos resulta amable u odioso.


En este panorama, Max Planck y su esposa invitan a un almuerzo a Heinrich Rubens y su esposa. Rubens era un experto en radiación infrarroja, que sucede en la escala de micrones. El almuerzo tiene lugar el domingo 7 de octubre de 1900. Allí, Rubens le menciona a Planck sus experimentos y resultados sobre la radiación infrarroja. Planck queda impactado y sorprendido por los comentarios de Rubens, pues sus propios datos no coincidían con los comentarios de Rubens relacionados directamente con unos estudios que unos meses antes había realizado Lord Rayleigh –ambos estudiando exactamente el mismo fenómeno.


Pues bien, una vez que el almuerzo ha terminado y los invitados han partido, Planck se concentra en la conversación y se sienta a trabajar en nuevos cálculos mediante los cuales obtiene otra expresión teórica para los fenómenos de radiación. En síntesis, Planck logra resolver lo que técnicamente es conocido como la catástrofe ultravioleta, un defecto serio de Rayleigh.


Como resultado de lo anterior, Planck presenta, primero el 19 de octubre de 1900, y posteriormente el 14 de diciembre ante la Sociedad Alemana de Física sus resultados: la radiación de cuerpo negro sólo puede ser explicada si la luz es emitida o absorbida por átomos en fotones discretos llamados quanta. En otras palabras, la naturaleza de la luz sucede por "paquetes", y en forma discreta, no continua. Nace así la física cuántica.


Planck tardará aún un tiempo, al igual que sus contemporáneos, en interpretar matemática y conceptualmente el significado de su descubrimiento. Ello habrá de conducir a "los años dorados" de la física cuántica, entre 1922 y 1926, y que sólo es, en realidad, el cénit de la primera etapa de la física cuántica.


Como quiera que sea, un hecho científico y cultural queda establecido: la luz o la energía no es continua, sino discreta. Cinco años más tarde, Einstein pondrá de manifiesto que la materia y la energía son una sola y misma cosa, supuesta la velocidad de la luz. Con lo cual, también la materia será descubierta como con una naturaleza discreta y no continua.


En términos más generales, toda la matemática de punta contemporánea es matemática de sistemas discretos, y culturalmente, ello comienza el 14 de diciembre de 1900. En la historia subsiguiente, los temas que surgen son las discusiones acerca del carácter discreto del espacio, y del tiempo. Una auténtica revolución con respecto a toda la historia de la humanidad se ha producido, pues toda la historia de Occidente ha consistido en la creencia o la afirmación de que la naturaleza, el universo, la vida y la sociedad son continuos.


La teoría cuántica pone al descubierto, en contraste, que vivimos en un universo esencialmente discreto. Años más tarde, C. Shannon (1948) y W. H. Zurek (1991–1996) pondrán de manifiesto que también la información es discreta.


En cualquier caso, la física cuántica nace del resultado de varios antecedentes, directos e indirectos, y de un feliz almuerzo una tarde de domingo con un comensal inteligente y activo en investigación de punta. Un acontecimiento a todas luces fortuito.

 

Actualizado: 22 de septiembre de 2014

Logran británicos convertir la luz en materia

Tres científicos británicos de la Escuela Imperial de Londres lograron probar una teoría de 80 años de antigüedad, que determinaba que la luz podría ser convertida en materia, se informó.


En un primer momento, los expertos investigaban los problemas vinculados a la energía de fusión, cuando se dieron cuenta de que aquello en lo que trabajaban podría aplicarse a la teoría sobre la materialización de la luz, propuesta en 1934.


En ese año los científicos estadunidenses Gregory Breit y John Wheeler admitieron que debería ser posible convertir la luz en materia rompiendo a la vez sólo dos partículas de luz (fotones), para crear un electrón y un positrón.

Uno de los especialistas británicos aseguró que pese a que todos los físicos aceptan la teoría como verdadera, pocos esperaban que se pudiera lograr en un laboratorio.


Proponen método de dos etapas


En la investigación, publicada en la revista especializada Nature Photonics, los científicos proponen un método de dos etapas, cuya idea principal se basa en el uso de un láser de alta intensidad extremadamente potente.


Por medio de él sería posible acelerar los electrones hasta la velocidad de la luz y dirigirlos a una superficie de oro, de esa forma aparecería un haz de fotones que sería mil millones de veces más potente que la luz visible.


Al mismo tiempo, los expertos proponen enfocar un láser de alta energía en la superficie interna de otra placa de oro para crear un campo de radiación térmica.


Si la luz de la primera fase se proyecta dentro de ese campo, según presumen los físicos británicos, los fotones empezarán a chocar y a formar electrones y positrones.

Publicado enInternacional
Miércoles, 16 Abril 2014 05:25

En busca de la identidad de las partículas

En busca de la identidad de las partículas

La supersimetría representa la correspondencia entre los tipos de partículas elementales que existen en la naturaleza: los bosones y los fermiones. El modelo estándar de Higgs arroja luz en este sentido y permite describir de dónde proviene la masa de las partículas.


–Cuénteme qué es lo que hace.


–Yo trabajo en lo que se llama supersimetría, física más allá del modelo estándar de partículas. Para empezar a hablar de eso tendríamos que hablar primero un poco del modelo estándar, justamente.
–Me parece bien.


–Y también tenemos que hablar de la física de Higgs, que tiene hoy la mayor relevancia. Está en boca de todo el mundo que se descubrió el bosón, y eso para la física de partículas es importantísimo. Gracias al descubrimiento podemos saber de dónde vienen las masas de las partículas.


–¿Pero comprendemos por qué el bosón de Higgs hace que una partícula tenga más masa que otra?

–Lo puedo explicar con una analogía que le gusta mucho al propio Higgs. Imagínese un espacio lleno de periodistas: yo paso por allí y nadie se me acerca ni me dice nada, mi movimiento es rápido y, como el peso se puede pensar como resistencia al movimiento, peso poco. En cambio, si entra una estrella de la farándula, los periodistas se le van a abalanzar y va a "pesar" mucho (le va a costar mucho moverse). Imagínese entonces que los periodistas son como los bosones, yo soy el electrón y la estrella de la farándula es el protón. El protón pesa más que el electrón porque le cuesta mucho más ser movido. El Higgs se asocia con las partículas, salvo con algunas que van como libremente: el fotón, por ejemplo, que no tiene masa, no siente la presencia del Higgs. Sin embargo, hay otras partículas que sienten que el Higgs existe; algunas lo sienten más, otras menos, y eso es lo que hace que sean más lentas o más rápidas. Esa es la idea general. El propio Higgs siente el campo y también, por eso, tiene una masa. Ese es el origen, entonces, de la masa de las partículas: están sintiendo la masa del Higgs.
–¿Se lo encontró o no se lo encontró? Porque las noticias fueron un poco confusas.


–En realidad no es que fueran confusas; el anuncio fue que se lo encontró. Lo que pasa es que los experimentadores siempre son muy cautos. No van a asegurar que es realmente el Higgs hasta que estén completamente seguros, pero eso ya ha sucedido. Ellos querían determinar absolutamente todas las propiedades para que no hubiera ninguna duda de que fuera el bosón.

–¿Cómo se sabe que efectivamente era el bosón?


–Por la forma en que decae. La cuestión que queda ahora abierta es si es el Higgs del modelo estándar, del modelo mínimo que explica todo, o si es un Higgs un poco más raro. A partir del hallazgo, entonces, podemos empezar a ver si se comporta distinto de lo que prevé el modelo estándar, que es el modelo más simple y feliz. Pero se comporta muy acorde con eso; fíjese que las masas de todas las partículas que describe el modelo no tienen un origen arbitrario, sino que vienen todas dadas por el Higgs. Cuanto más se acopla, más masa va a tener, y eso da un patrón de cómo se comporta el Higgs, que es muy particular.

–¿Por qué una partícula se va a acoplar más que otra?


–Porque hay algunos acoples que son libres, que son a determinar, son algo fundamental de la teoría que hay que describir. Hay partículas a las que les "gusta" acoplarse más, otras a las que les "gusta" acoplarse menos, y eso hay que medirlo. Lo importante es que hay una partícula que les da la masa a las demás; no es que la masa sea algo aparte, sino que es una propiedad que adquieren por su interacción.
–¿Y cómo interactúa usted con eso?


–Yo trabajo con la supersimetría. Es una simetría de la naturaleza, tal como las que estamos acostumbrados a ver: algo totalmente esférico, una pelota perfecta, o quizás imperfecta pero con imperfecciones importantes. Las simetrías no siempre son exactas, a veces son sutilmente inexactas. La supersimetría, justamente, es una simetría que estaría rota. La supersimetría supone que todas las partículas que conocemos tienen un compañero.


–¿A qué se refiere con "compañero"? ¿Están descriptos en el modelo estándar?

–No. Todos los compañeros son "nuevos". Todas tendrían una nueva partícula asociada.


–¿Y qué pasa con este compañero?

–Este compañero, como está rota la supersimetría, tiene una masa. El Higgs formaría parte de ese grupo, tendría masa, pero además tendría la propiedad de darles masa a sus compañeros y a todas las partículas que conocemos. Mejora en cierto sentido la idea que tenemos de dónde salen las masas, porque el origen de estas masas sería la ruptura de esta simetría. Hay muchos modelos supersimétricos, pero lo que uno debería hacer es buscar modelos "mínimos", es decir, modelos que expliquen la mayor cantidad de fenómenos al menor costo posible. Modelos mínimos está el Modelo Mínimo Supersimétrico, que es completamente mínimo: lo que hace es agarrar las partículas del modelo estándar y decir que hay el doble de partículas. Eso lleva a dos cosas: lo primero es que no se puede explicar la física de los neutrinos, problema que ya tiene el modelo estándar. Lo segundo es que hace una predicción muy concreta para la materia oscura. El modelo estándar tiene dos cosas que no puede explicar: una es la física de los neutrinos, que se puede arreglar. Las partículas se pueden distinguir en dos grupos: las que intuitivamente las asociamos con una fuerza y las que intuitivamente las asociamos con una materia conocida. La supersimetría lo que va a hacer, justamente, es una simetría entre ambas, pero no entre las que conocemos. Las partículas de materia, entonces, tienen todas una parte derecha y una parte izquierda (todas menos el neutrino). Una forma de darle masa es agregarle la parte derecha, haciendo que el neutrino tenga masa, pero la gente inventó muchísimas modificaciones para darles masa a los neutrinos. Lo que le decía es que el modelo mínimo no tiene masa para los neutrinos, pero además dice que una partícula va a ser completamente estable y va a ser candidato a materia oscura.


–La materia oscura..

.
–Cuando uno mira a gran escala las galaxias, uno ve que se comportan a gran escala de manera rara y no rotan de acuerdo con la masa que uno supone que tienen, sino que rotan como si tuvieran más masa. Cuando uno mira un conjunto de galaxias pasa lo mismo, y lo mismo si observa todo el universo. Eso se debe a la materia oscura. Justamente en su versión más simple, la supersimetría dice que hay una partícula que es completamente estable, que podría ser el compañero de Higgs y que podría ser la partícula que conforma la materia oscura. Y lo mejor de todo es que teóricamente se puede detectar.


–¿Cómo?

–Hay experimentos hechos para detectarla, pero lo cierto es que por ahora no se ha visto nada. Por otro lado, hay otro approach distinto, que consiste en incluir desde el principio los neutrinos derechos, supersimetrizamos eso, escribimos lo más fácil posible, y eso lleva a que el compañero de Higgs no puede ser materia oscura. Hay una cosa que se llama "neutralino", que es la materia oscura en el modelo mínimo, que no puede ser materia oscura porque no está la simetría que hace que se quede estable para siempre, pero lo que hay es algo muy curioso. La física de neutrinos se produce de forma muy sencilla, porque no sólo sabemos que tienen masa, sino que sabemos que les gusta mucho mezclarse entre sí. Si usted pone solamente neutrinos radicantes puede hacer que se mezclen mucho entre sí, pero tiene que forzar un poco las cosas. El compañero del Higgs forma parte del mecanismo de darles masa a los neutrinos y hace que todo se mezcle de forma muy sencilla. Ese es un patrón que observamos, que los neutrinos se mezclan mucho. Esa es una predicción del modelo que concebimos. Toda la tecnología cambia completamente respecto del modelo mínimo. La materia oscura en principio puede ser el compañero de la gravedad: se llama "gravitino". Entonces es también un modelo que en cierto sentido es mínimo, pero se llega a conclusiones distintas. Toda la búsqueda de nueva física que ya se venía haciendo hay que hacerla de otra manera. Y ésa es una de las cosas fundamentales en la que estamos trabajando.

Publicado enInternacional
Al confirmarse el bosón de Higgs se abrieron nuevas interrogantes

Luego de comprobar la existencia del bosón de Higss (o bosón B) en el campo de Higgs en 2012 y responder una de las preguntas "más elementales, ¿cuál es el origen de la masa?", gracias al Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) de la Organización Europea para la Investigación Nuclear (CERN, por sus siglas en francés), actualmente se plantean por lo menos cuatro preguntas más de alta prioridad, aseguró el doctor Gerardo Herrera Corral investigador de esa organización y del Instituto Politécnico Nacional (IPN).

 

Al impartir las charlas "Las partículas del universo" y "El origen del universo: el Gran Colisionador de Hadrones y la innovación tecnológica" en la Universidad Lasalle de Oaxaca y el Centro Académico y Cultural San Pablo, respectivamente, el investigador refirió que unas de las interrogantes son ¿por qué el universo está hecho de materia y no de antimateria? y ¿existen otras dimensiones?


Dijo que los humanos habitamos en tres dimensiones espaciales y una temporal, pero ¿acaso hay más dimensiones que no conocemos? Otras preguntas son ¿qué es la materia oscura? y ¿de qué esta hecha?


Estas, precisó, son preguntas que actualmente se hacen los físicos de partículas en el CERN y las cuales algún día serán contestadas. Durante mucho tiempo, la prioridad fue demostrar la existencia del bosón de Higss, con lo que se pudo probar cual es el origen de la masa y cómo el campo de Higgs da inercia a las partículas; "éste es el descubrimiento más importante de los pasados 30 años; el más importante en la física de partículas y uno de los más relevantes en las ciencias en general. Por un lado viene a completar la visión del universo. Hemos dado un paso importante", aseguró.


Explicó que el Gran Colisionador de Hadrones es un instrumento por el cual se pueden lograr muchos descubrimientos, los cuales son de suma trascendencia, aun cuando la mayoría de las personas no lo crean.


Los avances tecnológicos que se han desarrolla en los años recientes son en beneficio de la humanidad. El CERN los pone al servicio de todos. Una de esas innovaciones es la radiografía a color, que podrá realizarse gracias al proyecto MARS (Medipix All Resolution System) el cual se encuentra en su tercera etapa y que dispara 10 millones de fotones. Por medio de ella los médicos podrán ver los órganos del cuerpo humano a todo color y podrán hacer diagnósticos más acertados. "No es sólo juguete de físicos, como piensa la gente; esto tiene consecuencias benéficas para el mundo entero" afirmó.

 

El LHC es un proyecto de largo plazo, que abarca hasta 2025; se llevó mucho tiempo su construcción y tendrá muchos aportes que ofrecer", afirmó.


Agregó que es por esa razón que las potencias mundiales financian al CERN, y es necesario que lo sigan haciendo. "Nosotros sostenemos que las grandes sumas de dinero que se invierten no son recursos perdidos, en tanto que dan resultados, como lo hará la radiografía a color, pero no se lo dará al CERN, porque éste no patenta, cuando lo hace es para proteger la libertad de uso, no para obtener recursos".


Microescopios
Luego de recordar que el universo tiene 13 mil 800 millones de años de edad, Herrera Corral destacó que para seguir estudiando el universo en la actualidad ya no se requieren los grandes telescopios; ahora son necesarios los microescopios.


Explicó que al usar los telescopios entre más lejos se ve lo que se observa es hacia el pasado, pero que al llegar a los 380 mil años se topan con un muro de oscuridad, donde se requiere un microescopio que permitirá "observar lo que ocurrió detrás de ese velo de oscuridad. En el CERN se construyó el LCH precisamente para ver cómo era el universo detrás de ese velo de oscuridad y cuál ha sido el origen de todo".
Ante decenas de estudiantes de diversas facultades y público en gneral, el físico aseguró que pese a lo que muchas personas han llegado a pensar de que los experimentos realizados en el LHC no crearán agujeros negros, se tienen grandes precauciones para evitar cualquier catástrofe en la explosión de protones, los cuales generan mínima radiación. "La naturaleza efectúa cada segundo 10 mil experimentos de los que hacemos en el colisionador y el mundo no se ha acabado".


Lamentó que en México no haya mucho interés por participar en experimentos científicos, como ocurre en Europa, donde los políticos participan, opinan y financian constantemente proyectos, pues saben que de ahí surgirán los avances tecnoglógicos, como la radiografía a color.

Publicado enInternacional
Miércoles, 09 Octubre 2013 08:26

Día de gloria en el Gran Colisionador

Día de gloria en el Gran Colisionador

La teoría que el británico Peter Higgs y el belga François Englert plantearon hace medio siglo recién pudo ser comprobada el año pasado gracias a la llamada "máquina de Dios". Los postulados de los premiados buscan explicar cómo está construido el mundo.

 

El Premio Nobel de Física fue concedido al británico Peter Higgs y al belga François Englert por una idea que tuvieron, cada uno por su lado y de modo contemporáneo, hace 50 años, pero que fue comprobada recién el año pasado, cuando el Gran Colisionador de Hadrones halló el bosón de Higgs. En su fallo, la Real Academia de Ciencias sueca destacó que premiaba a los científicos por el "descubrimiento teórico de un mecanismo que contribuye a nuestro entendimiento del origen de las partículas subatómicas con masa", uno de los descubrimientos más importantes del último medio siglo, porque se considera clave para comprender el Universo. Al conocer la noticia, Higgs, de 84 años, se declaró "abrumado" por el premio, mientras que Englert dijo estar "muy feliz". Rolf Heuer, el director del Centro Europeo de Física de Partículas (CERN), donde en 2012 se demostró la existencia de la partícula, felicitó a Higgs y Englert "de corazón" y dijo que la entrega del Nobel a estos dos científicos es "una muy buena noticia" para el CERN, porque "de alguna manera es también un reconocimiento a nuestro trabajo". En ese centro, agregó, la noticia fue celebrada con gritos, aplausos y champagne.

 

El argentino Ricardo Piegaia, profesor de la UBA, investigador del Conicet y director de uno de los dos equipos argentinos que participaron en el proyecto del CERN, dijo a este diario que "es el premio a una idea muy ingeniosa, elegante, original" y que "reformula el concepto de masa de una manera tal que es compatible con la teoría y el concepto macroscópico que tenemos de masa". La idea, recordó, fue publicada en la década del '60, pero "la comprobación experimental y la verificación de que la teoría era correcta ocurrió el año pasado", en Ginebra, cuando el Colisionador de Hadrones demostró que el bosón de Higgs existe. "La idea tiene años, pero faltaba la tecnología para verificarla", agregó.

 

"Hace 50 años, cuando Higgs y Elbert postularon esta teoría, había inconsistencias, porque experimentos sobre la composición de la materia habían arrojado resultados que eran inconsistentes con nuestro concepto de masa. En ese momento, la teoría no podía incorporar al mismo tiempo masas e interacciones. Estos científicos propusieron una idea elegante que reformula el concepto de masa, de manera que fuera compatible con la teoría y con el concepto macroscópico que tenemos de masa: dijeron que esta partícula de Higgs evitaba la muerte de las cosas si interactúan con ella. Que la masa podía interpretarse a partir de esa interacción: algo con mucha masa es algo que interactuó mucho con el bosón; algo con poca, poco; algo sin masa, no interactúa. ¿Qué cosa no tiene masa? El fotón, por ejemplo, que compone la luz. El fotón no interactúa con la partícula de Higgs. Fue una idea genial", explicó Piegaia. "La idea de que la masa es la manifestación macroscópica de un fenómeno microscópico que es la interacción con el bosón permitió recuperar el concepto de masa y conciliarlo con nuestra nueva comprensión de la materia", agregó el científico ante la consulta de este diario, y señaló: "El premio es a los que reformularon el concepto de masa para incorporarla en la teoría de las interacciones fundamentales de la naturaleza, y esa explicación arrojó una predicción, la del bosón, que verificó el experimento del año pasado".

 

La Real Academia de Ciencias de Suecia señaló que la teoría postulada por Higgs y Elbert es "una parte central" del modelo estándar de la física elemental "que describe cómo está construido el mundo".

 

Durante las décadas de 1950 y 1960 los científicos observaron, de forma separada, la existencia de nuevas partículas en radiación cósmica con aceleradores recién construidos, pero sólo el proyecto del CERN permitió probar la existencia de la partícula que era el bosón de Higgs.

 

Tras conocer la noticia, Rolf Heuer, director del CERN, felicitó "de corazón" a los científicos distinguidos y señaló que era una "muy buena noticia" para la institución que, tras casi treinta años de investigación, probó la existencia del bosón. "Hubiese sido fantástico que el premio fuera para nosotros, pero de alguna manera es también un reconocimiento a nuestro trabajo", dijo en una conferencia de prensa. Heuer señaló: "La breve explicación sobre el Nobel tiene tres líneas, y en esas líneas se menciona al CERN como el centro que probó la existencia del bosón y, honestamente, creo que es maravilloso". En la institución, contó, los investigadores "han recibido la noticia con gritos, aplausos y brindando con champagne". Que este año la distinción de Física recayera sobre estos científicos, interpretó, implica que se premia a "la ciencia fundamental", a la física de partículas, y ha recaído sobre dos individuos "porque es imposible reconocer el trabajo de más de mil personas implicadas" en los dos proyectos del CERN –CMS y Atlas–, que han trabajado desde 1984 de manera paralela, aunque independiente, para verificar las teorías de Higgs y Englert.

Publicado enInternacional
Miércoles, 04 Septiembre 2013 06:10

Caos y control en el mundo cuántico

Caos y control en el mundo cuántico

La mecánica cuántica puede ser antiintuitiva y bizarra, pero es la teoría física más exitosa. En ese mundo extraño se intenta el control de los sistemas y también averiguar el lugar del caos, para desarrollar tecnología.

 


–Cuénteme en qué se especializó.

 

–Hoy en día, mis dos líneas de trabajo son el control cuántico y el caos cuántico.

 

–Empecemos por el control, que resulta más tranquilizador. ¿Qué es?

 

–Lo que yo trato es de establecer recetas o procedimientos para regular el comportamiento de un sistema cuántico. La idea es ver cómo hacer para que ese sistema haga lo que uno quiere que haga y termine en el estado que uno está buscando.

 

–¿Cómo son esos sistemas?

 

–Pueden ser desde un ion, un electrón, una juntura de Josephson. Cualquier sistema de propiedades cuánticas. Nosotros hace un tiempo diseñamos un método de control que funcionaba muy bien para sistemas aislados. Pero el problema con los sistemas cuánticos es que muchas veces no son sistemas aislados, y el hecho de no ser aislados les saca las propiedades cuánticas. Entonces la pregunta principal que tratamos de responder es cómo hacer para que ese método que parecía tan universal y funcionaba en un montón de situaciones, funcione en una situación más realista. Y lo que encontramos es que la mejor manera era hacerlo muy rápido, para que el entorno actuara lo menos posible.

 

–¿A qué se refiere con que un sistema cuántico haga lo que uno quiera? Deme un ejemplo.

 

–Interactuar, por ejemplo. Agarrar un electrón e iluminarlo con láser, o agarrar una trampa de iones e iluminarlos con un láser para que ese sistema termine en el estado en que uno quiere. Esto es fundamental en problemas de tecnología cuántica: uno lo que quiere es que el sistema opere de determinada manera, y eso es lo que busca con el sistema de control cuántico.

 

–¿Qué es un sistema de información cuántica?

 

–Es un sistema de información que usa las propiedades de la mecánica cuántica.

 

–¿Por ejemplo?

 

–La criptografía cuántica consiste en usar la mecánica cuántica para transmitir información, y se ha visto que es mucho más segura que los métodos clásicos de criptografía. Y de hecho hoy por hoy existen aparatos que usan fotones que están entrelazados. Usando esa propiedad, es muy fácil detectar si un espía se metió en el medio. Pero el problema de todos esos sistemas, el problema fundamental, es la decoherencia, o sea, la pérdida muy rápida de las propiedades cuánticas. Lo que tratamos de ver es cómo preservar ese sistema de la decoherencia. Ahora hay ideas de usar el entorno a favor. Nosotros teníamos un método que funcionaba bien pero que –nos dimos cuenta– era medio lento. Encontramos entonces una manera de hacerlo rápido, y no sólo rápido, sino de la manera más rápida que permite la mecánica cuántica. En la mecánica cuántica, si uno quiere pasar de un estado a otro hay una cosa que se llama quantum speed limit: no se puede hacer a una velocidad más rápida que ésa. Nuestro método está dentro de ese límite, y supongo que en algún momento, en el futuro, encontraremos una mejor manera. Hay gente que propone, por ejemplo, hacerle cosas al entorno para aprovecharlo; nosotros lo que hicimos fueron cosas sobre el sistema.

 

–¿Y su otra línea de trabajo?

 

–Es la principal, que tiene que ver con el caos cuántico. El caos es una propiedad clara en la mecánica clásica: hipersensibilidad a las condiciones iniciales que hace que los sistemas sean impredecibles y que el caos sea la fundamentación de la termodinámica y de la mecánica estadística. Ahora... ¿qué pasa en la cuántica? En la cuántica, la ecuación fundamental de Schrödinger es lineal, y la no linealidad que necesita el caos no existe. Pero una teoría es el límite de la otra, de modo que la pregunta es: ¿cómo se manifiesta el caos en la mecánica cuántica?

 

–¿Cómo?

 

–Esa fue la pregunta inicial, la pregunta de la que se partió. Se encontraron muchas manifestaciones, por ejemplo, en la estadística de los niveles. Los niveles de energía en un sistema cuántico son discretos. Entonces: ¿cómo se distribuyen esos niveles? Si el sistema es caótico, clásicamente, es de una manera y, si no, es de otra. Esa es una manifestación. Una cosa que nosotros hicimos hace unos años fue probar qué pasaba si uno perturbaba un sistema. Si el sistema es caótico, le pasa algo que es universal. La manera de reaccionar de un sistema caótico ante perturbaciones es universal. Todos los sistemas reaccionan de la misma manera. La que yo creo que es la pregunta fundamental hoy en el tema de caos cuántico es que se está empezando a pensar cómo juega el caos en los sistemas de muchos cuerpos. Los desarrollos fueron mayormente hechos, hasta ahora, para sistemas de una partícula. La pregunta de cómo juega el caos en la termalización, proceso por el que las partículas alcanzan el equilibrio térmico mediante la interacción entre ellas, de los sistemas cuando éstos son cuánticos es fundamental, no sólo a nivel teórico, porque hoy en día se hacen redes ópticas donde se meten partículas y se las hace interactuar. Hoy se hacen experimentos con muchas partículas y se las termaliza. Ver cómo juega ahí el caos es una pregunta fundamental.

 

–¿Y esto está llegando a la práctica?

 

–Hacer experimentos de muchos cuerpos es una tecnología que hoy se hace en muchos laboratorios: hacer cadenas de iones, por ejemplo, y hacerlas interactuar, iluminando un ion con un láser por ejemplo, es una tecnología no corriente pero sí muy usada.

 

–Explique un poco qué es la mecánica cuántica.

 

–Es la teoría más exitosa de la ciencia de los últimos cien años. Explica el comportamiento del mundo microscópico y, fundamentalmente, es absolutamente antiintuitiva y bizarra.

 

–¿Por qué?

 

–Bueno, por poner sólo un ejemplo, la idea que uno tiene de que las partículas tienen su trayectoria en mecánica cuántica no pasa. Otra cosa rara es la famosa dualidad onda-partícula, o el entrelazamiento de partículas.

 

–El entrelazamiento de partículas... eso no podría transmitir información, ¿no?

 

–No. No transmite información, de hecho.

 

–¿Qué es el entrelazamiento?

 

–Uno tiene dos partículas, y las puede poner en un estado cuántico en el que están “entrelazadas”: las propiedades de cada una implican cosas sobre la otra, que no es lo que uno está acostumbrado en el mundo clásico. En el mundo clásico, si yo tengo la conjunción de una partícula roja y una verde, no dejo de tener una partícula roja y una verde, conjuntas; en el mundo cuántico tengo algo nuevo rojo y verde al mismo tiempo. Y si uno mide una, perturba la otra y viceversa.

 

–¿Tiene algo que ver todo esto con las computadoras cuánticas?

 

–Están íntimamente relacionadas, porque finalmente un cómputo cuántico es una operación cuántica: agarra un sistema en un estado y lo transmite en otro. El sistema evoluciona de la manera que uno quiere, uno observa el sistema y obtiene el resultado. Eso finalmente es controlar el estado del sistema. Para hacer una computadora cuántica, uno tiene que poder inicializarla, y para poder inicializarla se tiene que poder controlar el sistema.

 

–Las computadoras cuánticas están en el candelero hace mucho tiempo, ¿no? Pero no parece avanzar demasiado la cosa.

 

–Bueno, no sé si vamos a llegar a tener en nuestras casas computadoras cuánticas. Hoy por hoy eso no se puede predecir: somos cautos. Efectivamente hubo un crecimiento muy rápido del control de las tecnologías cuánticas, pero todavía no se logró ninguna tecnología que cumpla con todos los criterios. Ahora, lo que está empezando a aparecer son tecnologías que conectan diversas tecnologías, valga la redundancia. Por ejemplo, una trampa de iones donde uno hace el cálculo, que se envía a través de fotones, y esa información se guarda en otra tecnología. Y me parece que eso es lo que se está trabajando hoy: en la conexión de distintas tecnologías.

Publicado enInternacional
Logran teletransporte estable a larga distancia

Un grupo internacional de científicos ha encontrado un método estable de teletransporte cuántico entre dos nubes de átomos, un paso importante hacia una red de comunicación cuántica del futuro.

 

Científicos del Instituto Niels Bohr de la Universidad de Copenhague junto con colegas españoles y británicos afirman haber transportado información entre dos nubes de átomos a través de un haz de luz láser a 50 centímetros de distancia.En ese experimento las nubes de miles de millones de átomos de gas cesio estaban contenidas en dos recipientes de vidrio dentro de una cámara en campo magnético.En cuanto la luz láser, con una longitud de onda específica, incide en los átomos de gas, los electrones más externos de los átomos reaccionan como agujas magnéticas apuntando en la misma dirección, arriba o abajo. Es esta dirección la que compone la información cuántica, igual que la información de un ordenador se compone de los números 0 y 1.


 
El gas después emite fotones, unidades de luz indivisibles, que contienen la información cuántica. La información sobre el posicionamiento de los electrones de los átomos en un recipiente es grabado en el fotón. Enviado al otro recipiente y descifrado a través de un detector, el fotón sincroniza los átomos del segundo recipiente con los del primero.


 
Una de las dificultades encontradas en tales experimentos era que los átomos perdían el posicionamiento de electrones grabado cada vez que colisionaban contra la pared de vidrio.


 
Para resolver el problema, los investigadores recubrieron el interior de cada contenedor con una capa de tipo parafina, evitando así que los átomos de gas perdieran su codificación.


 
Eugene Polzik, profesor y director del centro de investigación en el Instituto Niels Bohr, dijo: “Podríamos aumentar el alcance [del teletransporte] si tuviéramos más espacio y, en principio, se podría teletransportar información, por ejemplo a un satélite”.


 
Los resultados se publicaron en la revista científica ‘Nature Physics’.
 

12 junio 2013


(Con información de RT)

Publicado enInternacional
Hallan evidencia de interacción entre antimateria y gravedad

La antimateria, lo opuesto a la materia que conocemos, ¿está sometida a la gravedad clásica o a una forma desconocida de antigravedad? Científicos aseguran, en un estudio publicado el miércoles por la revista británica Nature, que pronto podrán responder a esa interrogante, que los intriga desde hace mucho tiempo.

 

En la investigación efectuada por un equipo de físicos del Laboratorio de Berkeley y sus colegas del equipo Alpha del CERN (centro europeo de investigación nuclear), los científicos advierten que aún no es posible responder a esa pregunta sobre el movimiento de la antimateria.

 

Pero la importancia del estudio publicado por Nature es que presenta la primera evidencia directa de cómo los átomos de la antimateria interaccionan con la gravedad.

 

“En el caso improbable de que la antimateria cayera hacia arriba, debemos revisar nuestra concepción de la física y repensar la manera cómo funciona el universo”, subrayó Joel Fajans, del Laboratorio Nacional Lawrence Berkeley, en California.

 

La antimateria está constituida de antipartículas, conformadas por una carga eléctrica opuesta a la de la materia clásica.

 

Materia y antimateria habrían sido creadas en cantidades iguales instantes después del Big Bang, pero por una razón desconocida el universo privilegió la materia, y sólo quedan ínfimas cantidades de antimateria, principalmente cerca de los hoyos negros o los rayos cósmicos.

 

Medir la acción de la gravedad en la antimateria es un sueño de los científicos desde hace más de 50 años, al punto que ese tema centra innumerables coloquios internacionales.

 

Según las observaciones indirectas, se supone que la gravedad se aplica de la misma manera a la materia y a la antimateria en “caída libre”.

 

Pero para estar seguros, es necesario medir directamente los átomos de la antimateria.

 

Pero la antimateria se destruye al menor contacto con la materia, por lo que es particularmente difícil de estudiar.
En 1995, el CERN, cuya sede está en Ginebra, logró producir sus primeros átomos de antihidrógeno, que se destruyeron casi instantáneamente.

 

Grandes avances

 

Desde entonces, el equipo Alpha del CERN logró inmensos avances: en 2011, átomos de antihidrógeno pudieron ser aislados durante más de 16 minutos en una “trampa magnética”, abriendo la vía a la observación de sus propiedades.

 

Luego, el equipo Alpha decidió utilizar los datos recogidos en 434 átomos de antihidrógeno que habían atrapado para intentar medir la influencia de la gravedad sobre ellos.

 

Para hacerlo, compararon la relación entre la “masa de inercia” (la resistencia a la aceleración) del átomo de antihidrógeno, equivalente a la de un átomo de hidrógeno ordinario, y su “masa gravitacional” (que se aplica a la fuerza de gravedad registrada por un cuerpo) desconocida.

 

Pero los primeros resultados no han permitido dar una respuesta a la interrogante sobre el movimiento de la antimateria, ni comprobar si ésta se mueve en sentido inverso a la materia común.

 

Para su último experimento, Alpha empezó creando átomos de antihidrógeno uniendo un antiprotón (un protón con carga negativa) a un antielectrón (un electrón con carga positiva), y procedió a diferentes experimentos, que arrojaron resultados que provocaron optimismo en los científicos.

 

“¿Existe la antigravedad? Basados en experimentos realizados hasta el momento, no podemos decir sí o no”, señaló Fajans. “Sin embargo, no está dicha la última palabra”, subrayó el investigador, sugiriendo que la luz está al final del túnel, en relación a esta cuestión que los intriga.

 

El experimento de Alpha va a prolongarse en el proyecto Alpha-2, y será posible proceder a pruebas de precisión en un lapso de uno a cinco años, anticipó el estudio publicado por Nature.

Publicado enInternacional
Significado e impacto social de las ciencias de la complejidad

 

1era reimpresión, 2015
Edición 2013. Formato: 11,5 x 17,5 cm, 76 páginas
P.V.P: $15.000 ISBN: 978-958-8554-66-5

 

Reseña:

La ciencia, no cabe duda, tiene implicaciones de orden social y político. En la amplia y creciente bibliografía sobre complejidad no existe ningún trabajo acerca del significado y el impacto social de los estudios sobre la misma. Este libro quiere llenar ese vacío y sirve, a la vez, de introducción básica a los más importantes conceptos y ejes de las ciencias de la complejidad.

 

Carlos Eduardo Maldonado. Ph.D. en filosofía por la KU Leuven ( Bélgica); postdoctorados como Visiting Scholar, University of Pittsburgh, como Visiting Research Professor, The Catholic University of America, Washington, D.C, como Visiting Scholar, University of Cambridge ( Inglaterra). Doctor Honoris Causa, por la Universidad de Timisoara, Rumania. Profesor Titular, Universidad del Rosario ( Bogotá, Colombia), Facultad de Ciencia Política y Gobierno.

 


 

Índice.

 

Prefacio de la segunda edición.

Introducción.

El carácter de la ciencia hoy.

La comunidad académica y la comunidad científica.

Las ciencias de la complejidad.

¿Qué significa pensar en el sentido de las ciencias de la complejidad? 

La complejidad tiene implicaciones sociales y políticas.

Tres tipos de sistemas sociales.

Un aspecto de la ciencia de punta actual: la compútación.

Addenda: I.

Addenda: II.

Referencias bibliográficas.

 

 

Adquirir en Librería Virtual

 

 

 

Informes-Pedidos.

 


Transv 22 N 53D-42. Int 102 (Bogotá)

Carrera 48 N 59-52 Of. 105 (Medellín)

E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. (todas las ciudades)

Teléfonos: 345 18 08 / 217 89 92 (Bogotà y otras ciudades) / 291 09 69 ( Medellìn)

Whatsapp: 3204835609

Facebook : http://bit.ly/2bwXbER