El teletransporte de información, clave para las comunicaciones del futuro

La filosofía alemana -tan dada a condensar en una sola palabra conceptos muy complejos- llamó zeitgeist al espíritu de un tiempo, refiriéndose al clima intelectual y cultural dominante en una época histórica. Ese algo intangible que comparten las sociedades en un determinado momento y que impregna el arte, la ciencia y las convenciones institucionalizadas. La palabra, extendida gracias a la obra de Hegel, fue asumida incluso por Google para explicar el mundo a través de sus búsquedas. Y si el gigante tecnológico da su bendición, se abren las puertas de par en par para que algo llegue a la calle y corra desbocado por Internet. Por eso se puede decir que el zeitgeist de esta era es -o será en breve- lo cuántico. Lo cuántico no sólo como esa parte de la física que trata de llegar donde no alcanza la mecánica clásica, sino como un demiurgo que abraza y acoge toda actividad humana. Medicina cuántica, filosofía cuántica, programación cuántica, alimentación cuántica, música cuántica y, en fin, espiritualidad cuántica. La fama, desde luego, es merecida, porque la física cuántica nos habla de cosas como la teletransportación; algo tan estimulante y asombroso que hasta hace poco sólo podíamos ubicarlo como uno más de los extras, junto con propulsores de velocidad warp, que la nave Enterprise incluye de fábrica.


El austriaco Anton Zeilinger no ha conseguido todavía teletransportar a un vulcaniano, aunque todo se andará... Comenzó con algo igual de ambicioso, pero mucho más pequeño. En 2005 su equipo logró que dos fotones -bautizados como Alice y Bob- entrelazados cuánticamente se teletransportaran de un lado al otro del Danubio. Aquellos 600 metros se convirtieron un par de años después en 144 kilómetros, los que separan las islas de La Palma y Tenerife. Entender la formulación teórica que explica el logro de Zeilinger no está al alcance de cualquiera, pero sus utilidades prácticas comienzan a vislumbrarse. “Gracias a la comunicación cuántica podemos llegar a la criptografía cuántica. Que es un método seguro de enviar información de un emisor a un receptor. Es tan seguro que no es posible, ni siquiera en teoría, descifrar el código”, asegura Zeilinger.


En el futuro nuestros ordenadores serán cuánticos y al igual que ahora estarán conectados entre ellos, será el momento de la Internet cuántica, un proyecto que el físico austriaco ve todavía lejano pero no imposible. Para explicar la capacidad de estas futuras computadoras, Zeilinger echa mano de un ejemplo que, como cuántico de pro, recuerda al famoso gato de Schrödinger y su capacidad para estar vivo y muerto a la vez: “un bit clásico de información puede ser 0 o 1, como cuando usas Internet: o es un 0 o un 1. Pero el qbit puede estar en una superposición de 0 y 1. De manera poca precisa podríamos decir que es 0 y 1 a la vez”.


Por muy apasionante que suene como desafío teórico, Zeilinger no quiere que sus aportes se queden en el limbo de la especulación intelectual, aunque reconoce que no tiene muy claro cómo podremos beneficiarnos de ellas: “las aplicaciones importantes y reales no se conocen a la hora de inventarlas. Esto ha ocurrido muchas veces en la historia de la humanidad, que se ha inventado algo fundamental y que más tarde la gente ha descubierto que puede utilizarlo para algo más”. Tal vez el sueño de la Enterprise no sea imposible...


Edición: J.C. Rodríguez / George Karja


Texto: José L. Álvarez Cedena

Los próximos wearables los llevaremos bajo la piel

Si pudiéramos ver lo que nos rodea como Neo en “Matrix” nos pasaríamos el día abrumados. Tendríamos ceros y unos todo el tiempo a nuestro alrededor: ceros y unos en la parada del autobús, en la cola del supermercado, en la puerta del colegio; ceros y unos haciendo scroll en el estadio de fútbol y en las butacas del cine, en la consulta del médico y en el parque infantil. Una imagen así invita al desasosiego y, sin embargo, no se aleja demasiado de la realidad. No lo vemos, pero “estamos rodeados de electrónica”, asegura Gadi Amit, uno de los diseñadores tecnológicos más importantes del mundo. “Cuando hablamos de ordenadores ponemos el foco en cajas, más grandes o más pequeñas, pero hay un polvo mágico de hadas que nos envuelve y nos conecta”. Esa invisibilidad de la tecnología que hemos asumido como natural, asegura Gadi Amit, es la que hará que en muy pocos años consideremos que llevar microelectrónica implantada en nuestro cuerpo nos resulte tan normal como subir las fotos de las vacaciones a la nube gracias a nuestro smartphone.


Desde su estudio NewDealDesign el equipo de Gadi Amit es responsable de algunos de los diseños más impactantes que se hayan originado en Silicon Valley. Uno de los más conocidos es la línea de dispositivos inteligentes creados para Fitbit desde el año 2007, cuando la palabra wearable no era todavía un término de moda. NewDealDesing consiguió transformar los gigantescos y antiestéticos aparatos utilizados por los aficionados al deporte en elegantes clips y pulseras que registran y envían datos de la actividad física del usuario.


Pero el futuro de los wearables no está en cosas que llevaremos puestas encima, sino que tendremos dentro de nosotros. Tecnología de punta, conectada y actualizable debajo de la piel. La solución para controlar toda esa electrónica invisible, esos ceros y unos que nos rodean. El proyecto Underskin en el que trabaja NewDealDesign consiste en un tatuaje digital insertado en la mano del usuario, desde el que podrá autentificar tarjetas de crédito, medir niveles de azúcar en sangre y ritmo cardíaco o desbloquear puertas, además de permitir controlar el resto de dispositivos digitales que llevemos con nosotros. Un proyecto ambicioso que, sin embargo, abre las puertas a grandes posibilidades: “será imprescindible crear algo similar a nuestra idea. La proliferación de dispositivos digitales seguirá creciendo y será imposible controlarlo todo”, afirma Amit. Lo que comenzó como la provocación de un grupo de diseñadores visionarios ya está en la agenda de varias compañías dispuestas a desarrollarlo; la era de los implantes electrónicos está cerca...

 

Científicos estadounidenses anuncian el descubrimiento de la quinta fuerza de la naturaleza

De confirmarse este "hallazgo revolucionario" la quinta fuerza se uniría a las otras cuatro conocidas: la gravitatoria, la electromagnética, la nuclear fuerte y la nuclear débil.

 

Recientes hallazgos protagonizados por físicos de la Universidad de California en Irvine (EE.UU.) indican la posible existencia de una partícula subatómica previamente desconocida. Su descubrimiento puede ser la evidencia de una quinta fuerza fundamental de la naturaleza, escribe el portal Público.es. Hasta ahora conocemos cuatro: la fuerza gravitatoria, la electromagnética, la nuclear fuerte y la nuclear débil.


Según han explicado el líder de la investigación, Jonathan Feng, se trata de un hallazgo "revolucionario" porque una quinta fuerza podría "cambiar completamente la comprensión del universo".


Los físicos de la citada universidad californiana comenzaron su estudio a través de unos colegas húngaros que buscaban 'fotones oscuros', unas partículas de la materia oscura invisible. Fue entonces cuando acabaron descubriendo una anomalía de la desintegración radiactiva. Su hallazgo apuntaba a la existencia de una partícula de luz solo 30 veces más pesada que un electrón.


"No estaba claro para ellos si se trataba de una partícula de materia o una partícula portadora de fuerza", cita a Feng el portal Space.com. Los físicos norteamericanos llegaron a la conclusión de que los datos de los experimentos chocan con ambas teorías. De esta forma, propusieron una nueva hipótesis: el descubrimiento puede evidenciar la existencia de una quinta fuerza fundamental.


Investigaciones recientes demuestran que en lugar de ser un fotón oscuro, la partícula puede ser una 'X Higgs protophobic'. Mientras que la fuerza eléctrica normal actúa sobre los electrones y protones, esta nueva partícula de Higgs interactúa únicamente con electrones y neutrones y en una gama muy limitada.

Prototipo de kilogramo guardado bajo llave en las afueras de París.

 

Un premio Nobel de Física explica en el foro de Lindau la base de la inminente reforma del Sistema Internacional de Unidades.

 


MADRID.- “¿Cuándo descubriste el efecto que lleva tu nombre, a los 20 años?”, le pregunta un premio Nobel de Física a otro premio Nobel de Física, desde el escenario del teatro municipal de Lindau, en Alemania. “A los 22”, contesta el aludido, sentado en primera fila, tras pensarlo unos segundos. No se trataba de rememorar por rememorar. Lo que Klaus von Klitzing (alemán, 73 años), estaba explicando es que tanto su descubrimiento premiado -el efecto Hall cuántico- como el de Brian Josephson (británico, 76 años) -el efecto Josephson- se están utilizando 50 años después para redefinir el Sistema Internacional de Unidades (SI), un proceso a punto de concluir. Un ejemplo más de la importancia de la ciencia básica, y de la juventud en su desarrollo.

 

El nuevo kilogramo, la unidad de masa, dejará de ser un cilindro de iridio y platino para adentrarse en el mundo cuántico y también se redefinirán sobre constantes físicas el amperio, el kelvin y el mol. El resto de las siete unidades básicas, -el segundo, el metro y la candela, que ya se basan en constantes físicas - mantendrá la definición. Falta ya poco para que se produzca este hito en el establecimiento de los patrones que permiten que el mundo funcione. Previsiblemente se adoptará en un congreso de especialistas en 2018 y será el primer gran cambio en el SI desde 1960.


Josephson y Von Klitzing son solo dos de los 29 premios Nobel que han participado este año en el foro de Lindau, una ocasión anual de encuentro de los laureados con jóvenes científicos en el lago Constanza que va por la edición número 66 y esta vez se dedicó a la física. Este año acudieron más de 400 jóvenes investigadores, de 80 países, entre ellos nueve del Consejo Superior de Investigaciones Científicas de España.

 

Von Klitzing hizo reír a su joven audiencia cuando mostró un vídeo de la ceremonia anual durante la cual tres personas muy serias, cada una de las cuales porta una llave, bajan a la cámara de la Oficina Internacional de Pesas y Medidas (BIPM) en Sèvres (Francia) en la que se guarda el prototipo de kilogramo (un cilindro de platino e iridio) para comprobar que sigue allí, bajo campanas protectoras de cristal. Este viejo kilogramo data de 1879 y se ha quedado muy antiguo. “No existía hasta ahora una definición del kilogramo que sea independiente de este objeto, que se ha comprobado que ha perdido masa debido a los gases que se difunden desde él, se ha contaminado e incluso tiene un arañazo”, comentó Von Klitzing. “El nuevo sistema de unidades nada cambiará en nuestra vida diaria pero el mundo será más estable y seguro”, añadió.


El proceso para redefinir el kilogramo empezó hace muchos años ya, pero los cambios siempre llevan tiempo en el campo de la metrología. Las nuevas unidades se basarán en la constante de Planck, la carga eléctrica elemental, la constante de Boltzmann y la constante de Avogadro y medirlas con precisión, especialmente la de Planck y la de Avogadro, ha sido el objetivo de intrincados proyectos de investigación en las últimas décadas. Parece que ya existe consenso sobre su valor con un altísimo grado de precisión y se puede avanzar en la redefinición del Sistema Internacional de Unidades.

 

Terry Quinn, un prestigioso metrólogo ya jubilado, lleva desde los años noventa abogando por el cambio. “Es un poco ridículo en esta época, porque no es solo la masa la que depende del prototipo. Es toda la energía, toda la fuerza, todas las unidades que están ligadas de alguna manera al kilogramo”, recordó hace unos años. Y es que las unidades básicas se relacionan entre sí. El metro, por ejemplo, se define por la distancia que recorre la luz en una fracción determinada de segundo y ya estableció Einstein la relación entre energía, masa y velocidad de la luz.

 

De las siete básicas derivan muchas otras unidades en el SI, 22 de las cuales, como el voltio, el vatio o el ohmio tienen nombre propio y forman un sistema coherente con las básicas, pero este no es el caso de las unidades cuánticas, incluida la constante que lleva el nombre de Von Klitzing. “Las unidades cuánticas están fuera del SI pero la reforma del sistema coordinará los dos mundos”, recordó el premio Nobel en Lindau.

 

¿Cómo se plasmaría el nuevo kilogramo? En realidad, cualquier laboratorio podría “construir” un kilogramo como medida de referencia con la nueva definición, pero existe la propuesta de que tome la forma de una esfera de silicio ultrapuro.

 

“La innovación depende de la transferencia de conocimiento, la inspiración y la colaboración”, recordó Bettina Bernadotte, presidenta del consejo del Foro de Premios Nobel de Lindau, en la inauguración del evento el pasado 26 de junio. Al acto asistieron el presidente de Austria, el tercer país de la Unión Europea en inversión en I+D respecto al PIB, el presidente de Singapur y la ministra alemana de Educación e Investigación.

 

 

Complejidad de las ciencias sociales.  Y de otras ciencias y disciplinas

 

Edición 2016. Formato: 17x 24 cm. 308 páginas.

P.V.P: $ 35.000  USD: 8  ISBN: 978-958-8926-26-1

 

 

Reseña:

Cada época desarrolla la ciencia que necesita y la ciencia que puede. Asistimos a una época de una impresionante complejidad de la sociedad, el mundo y la naturaleza. Nuevas ciencias, nuevos enfoques, nuevas metodologías y nuevos lenguajes emergen y se dan a la tarea al mismo tiempo de comprender las cosas, y de hacerlas posibles en entornos recientemente inestables y turbulentos. Este libro estudia el proceso mismo de complejización de las ciencias sociales –ese conjunto de ciencias nacidas entre el siglo XIX y la primera mitad del siglo XX–, pero con ella, entonces también la complejización del conjunto restante de ciencias y disciplinas.

 

 Carlos Eduardo Maldonado.

 

Carlos Eduardo Maldonado. Profesor titular de la Universidad del Rosario en Bogotá, Colombia. Autor de numerosos libros, artículos y ensayos sobre ciencia, política y cultura. Ph.D. en Filosofía por la Universidad Católica de Leuven (KU Leuven, Bélgica). Postdoctorados en Universidad de Cambridge, Universidad Católica de América (Washington, D. C.), Universidad de Pittsburgh. Mas del autor: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. @philocomplex www.carlosmaldonado.org

 

Tienda Virtual: http://www.desdeabajo.info/libreria-virtual.html

 

 

Informes-Pedidos:



Transv 22 N 53D-42. Int 102 (Bogotá)

Carrera 48 N 59-52 Of. 105 (Medellín)

E-mail: Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo. (todas las ciudades)

Teléfonos: 345 18 08 / 217 89 92 (Bogotà y otras ciudades) / 291 09 69 ( Medellìn)

Whatsapp: 3204835609

Facebook : http://bit.ly/2bwXbER

 

 

 

Publicado enCiencia y Sociedad
Detectan "espectaculares" ondas gravitacionales en el espacio

"La observación futura permitirá comprender cómo se forman los hoyos negros a partir de la muerte de estrellas enormes y probar si son como las predijo Einstein", afirma experto

 

Ondas gravitacionales en el tejido del espacio-tiempo, una de las predicciones formuladas por Albert Einstein hace un siglo, han sido detectadas por segunda vez. Los descubridores creen que este hallazgo "espectacular" podría anunciar una nueva era de entendimiento del universo.

Un equipo internacional de más de mil investigadores, entre ellos varios profesores británicos, observó la colisión y fusión de dos hoyos negros, que liberó fuerzas colosales rara vez vistas.

El suceso, ocurrido a mil 400 millones de años luz de distancia, causó una cantidad de energía equivalente grosso modo a la masa del sol convertida en ondas gravitacionales. Estas ondas fueron "capturadas" por los detectores gemelos Ligo (Observatorio Interferómetro Láser de Ondas Gravitacionales) emplazados en Livingston, Luisiana, y Hanford, Washington (EU). La observación se realizó el pasado diciembre, pero apenas se da a conocer al público.

Las ondas gravitacionales fueron predichas en la teoría de la relatividad general de Einstein, la cual plantea que la gravedad ocurre a causa del espacio y el tiempo curvos. Las ondas se estrechan y comprimen todo en su camino, sean humanos o planetas enteros, al distorsionarse el tejido del espacio-tiempo.

El doctor Stephen Fairhurst, uno de los miembros del equipo en la Universidad de Cardiff, señaló: “Este hecho anuncia el verdadero principio de la astronomía de ondas gravitacionales y la apertura una nueva ventana hacia el universo.

“Las diferentes masas y giros observables que presenciamos en el evento mostraron que estamos comenzando a recabar información vital acerca de la población de hoyos negros en el universo.

"La observación futura de ondas gravitacionales nos permitirá entender cómo se forman los hoyos negros a partir de la muerte de estrellas enormes, y probar si en verdad son como las predice la teoría de Einstein."

Visión diferente

Los científicos esperan que las ondas gravitacionales ofrezcan una visión por completo diferente del universo, y les permitan estudiar hechos que podrían estar ocultos a los tradicionales telescopios ópticos y radiotelescopios. Al analizar la detección más reciente, pudieron inferir que los hoyos negros en colisión eran 14 y ocho veces más grandes que el Sol, respectivamente.

Sheila Rowan, directora del Instituto de Investigación Gravitacional de la Universidad de Glasgow, quien también participó en el descubrimiento, expresó: “Sabemos por esta segunda detección que las propiedades medidas por Ligo nos permitirán comenzar a responder algunas preguntas claves mediante astronomía gravitacional.

“Podremos estudiar este fenómeno y entender mejor la historia cósmica, con el objetivo de llenar los ‘eslabones perdidos’ en nuestro conocimiento.”

Los hallazgos han sido aceptados para publicación en la revista Physical Review Letters.

El doctor Chad Hanna, de la Universidad Estatal de Pensilvania, en EU, quien codirigió el equipo de detección, señaló: “Ahora tenemos mucho más confianza en que las fusiones de dos hoyos negros son comunes en el universo cercano.

"Puesto que ya podemos detectar ondas gravitacionales, serán una fuente fenomenal de nueva información acerca de nuestra galaxia y un canal enteramente nuevo de descubrimientos sobre el universo."

La Colaboración Científica Ligo está integrada por más de mil científicos de 17 países, entre ellos investigadores de 17 universidades del Reino Unido. Cada instalación de Ligo cuenta con dos tubos, cada uno de 4 kilómetros de largo, dispuestos en forma de L. Se proyecta un haz láser por cada tubo para determinar con gran precisión la distancia entre espejos ubicados a cada extremo. Si una onda gravitacional está presente, alterará la distancia entre los espejos en una cantidad mínima.

El profesor Andreas Freise, de la Escuela de Física y Astronomía de la Universidad de Birmingham, cuyo equipo contribuyó a desarrollar instrumentos para Ligo, indicó: "Los detectores de Ligo Avanzado son una obra maestra de física experimental. Son los detectores de ondas gravitacionales más sensibles jamás construidos. Partimos de un concepto bien conocido, un interferómetro de luz, pero requería nuevas tecnologías que hemos desarrollado a lo largo de varias décadas para crear estos dispositivos de escucha extremadamente sensibles a las señales de gravedad del universo".

El doctor Ed Daw, del Departamento de Física y Astronomía de la Universidad de Sheffield, quien ha investigado las ondas gravitacionales con Ligo desde 1998, añadió: “La detección de la colisión de un par de hoyos negros fue asombrosa; la detección de una segunda es espectacular, porque apunta a que pasan muchas cosas de estas allá.

"Pero también plantea más preguntas: ¿qué formó estos hoyos negros? ¿Cuántos hay? ¿Podremos empezar a probar en verdad la relatividad general en detalle?"

Traducción: Jorge Anaya

¿Por qué el espacio es tridimensional?
Los científicos proponen que el espacio es tridimensional a causa de una magnitud termodinámica llamada la densidad de energía libre de Helmholtz.

 

 

MADRID.- La cuestión de por qué el espacio es tridimensional (3D) y no de algún otro número de dimensiones ha desconcertado a los filósofos y científicos desde la antigua Grecia.

 

El espacio-tiempo total es de cuatro dimensiones, o dimensión 3+1, donde el tiempo es la cuarta dimensión. Es bien sabido que la dimensión del tiempo se relaciona con la segunda ley de la termodinámica: el tiempo tiene una dirección (hacia adelante), ya que la entropía (una medida del desorden) nunca disminuye en un sistema cerrado como el universo.

 

En un nuevo artículo publicado en Europhysics Letters (EPL), los investigadores han propuesto que la segunda ley de la termodinámica también puede explicar por qué el espacio es 3D.

 

"Diferentes investigadores en los campos de la ciencia y la filosofía han abordado el problema de la naturaleza del espacio-tiempo en la dimensión 3+1, al justificar la elección adecuada de su dimensionalidad con el fin de mantener la vida, la estabilidad y la complejidad", dijo a Phys.org el coautor Julián González-Ayala, del Instituto Politécnico Nacional de México y la Universidad de Salamanca.

 

"La mayor importancia de nuestro trabajo es que se presenta una deducción basada en un modelo físico de la dimensionalidad del universo con un escenario adecuado y razonable de espacio-tiempo. Esta es la primera vez que el número 'tres' de las dimensiones del espacio surge como la optimización de una magnitud física ".

 

Los científicos proponen que el espacio es 3D a causa de una magnitud termodinámica llamada la densidad de energía libre de Helmholtz. En un universo lleno de radiación, esta densidad se puede considerar como una especie de presión en todo el espacio, que depende de la temperatura del universo y su número de dimensiones espaciales.

 

Aquí, los investigadores demostraron que, mientras el universo comenzó el enfriamiento desde el momento después del big bang, la densidad de Helmholtz alcanzó su primer valor máximo a una muy alta temperatura que corresponde a cuando el universo tenía sólo una fracción de segundo de edad, y cuando el número de dimensiones espaciales fue de aproximadamente tres.

 

La idea clave es que el espacio 3D fue "congelado" en este punto cuando la densidad de Helmholtz alcanzó su valor máximo en primer lugar, que prohíbe el espacio 3D a partir de la transición a otras dimensiones.

 

Esto es porque la segunda ley permite transiciones a dimensiones más altas sólo cuando la temperatura está por encima de este valor crítico, no por debajo. Puesto que el universo se está enfriando continuamente hacia abajo, la temperatura actual está muy por debajo de la temperatura crítica necesaria para la transición desde el espacio 3D con un espacio de más dimensiones. De esta manera, explican los investigadores, las dimensiones espaciales son vagamente análogas a fases de la materia, donde la transición a una dimensión diferente se asemeja a una transición de fase tal como la fusión del hielo, algo que sólo es posible a temperaturas suficientemente altas.

 

"En el proceso de enfriamiento del universo temprano y después de la primera temperatura crítica, el principio de incremento de entropía para sistemas cerrados podría haber prohibido ciertos cambios de dimensionalidad", explicaron los investigadores.

 

La propuesta aún deja espacio para que dimensiones superiores se hayan producido en la primera fracción de segundo después del Big Bang, cuando el universo era aún más caliente de lo que era a la temperatura crítica. Dimensiones adicionales están presentes en muchos modelos cosmológicos, sobre todo la teoría de cuerdas. El nuevo estudio podría ayudar a explicar por qué, en algunos de estos modelos, las dimensiones adicionales parecen haber colapsado, mientras que el espacio 3D siguió creciendo en todo el universo observable.

 

En el futuro, los investigadores planean mejorar su modelo para incluir los efectos cuánticos adicionales que puedan haber ocurrido durante la primera fracción de segundo después del Big Bang, la llamada "época de Planck." Además, los resultados de un modelo más completo pueden proporcionar una guía para los investigadores que trabajan en otros modelos cosmológicos, como la gravedad cuántica.

 

 

¿Qué es el principio de acción de Hamilton?

Mientras que las leyes de Newton describen cómo un sistema se desarrolla en el tiempo, Hamilton estudia todas las rutas disponibles hacia el futuro y elige la mejor de todas ellas. Es esto lo que se conoce como el principio de acción de Hamilton.

 

Los seres humanos son sistemas clásicos que se mueven en un mundo que no es, sin embargo, enteramente clásico. La ciencia clásica y el mundo clásico se caracterizan por ser deterministas, sujetos a leyes; predecibles, por tanto, y susceptibles de ser explicados en términos de la mecánica clásica. Esto es, por ejemplo, en términos de acción–reacción, en función de fuerzas y demás.


Ese mundo clásico es ulteriormente explicado y entendido a la vez por Newton, con todo y sus adalides y satélites. Gente como Galileo y Laplace, Kepler y Descartes, Copérnico y Gibbs. Estos son, dicho en otras palabras, los fundamentos de la modernidad, y que en términos sociológicos o históricos corresponde al ascenso y al triunfo ulterior de la burguesía; primero con la revolución francesa de 1789 y luego con la Revolución Industrial en el siglo XIX. Naturalmente, otros nombres, enfoques, teorías y disciplinas vienen al mismo tiempo a afirmar y a desarrollar este cuadro general.


Una de las formas como la ciencia clásica y el mundo clásico son superados es mediante una reformulación más abstracta de sus fundamentos. Esto es justamente lo que acontece gracias a los trabajos del irlandés W. R. Hamilton (1805–1865). Hamilton lleva a cabo una reformulación de la mecánica newtoniana, gracias a la cual se puede hacer el tránsito hacia la teoría cuántica de campos y la mecánica cuántica.


Notablemente, mientras que las leyes de Newton describen cómo un sistema se desarrolla en el tiempo, Hamilton estudia todas las rutas disponibles hacia el futuro y elige la mejor de todas ellas. Es esto lo que se conoce como el principio de acción de Hamilton.


En verdad, este principio afirma que, en algunas circunstancias, el mundo puede seguir más de una historia. Esto es, el mundo no está sujeto a las determinaciones del pasado, a la necesidad de los hechos (lo que quiera que ello sea), o las determinaciones del inicio de un acontecimiento. En otras palabras, un sistema cualquiera minimiza una determinada cantidad, denominada “acción”, de tal suerte que, a partir de algún momento inicial, el sistema en consideración valora todas las historias posibles con vistas a su momento final.


La historia de la ciencia y de la cultura humana tiene una deuda enorme con William Rowan Hamilton. Se trata del hecho de que gracias a este físico, astrónomo y matemático es posible tomar distancia, desde el interior de un sistema clásico, en contra del determinismo. Esto es, la creencia según la cual, el pasado contiene el futuro, y la línea de tiempo que conduce del pasado al presente permite determinar sin más el futuro. En realidad, nos encontramos a menos de un metro de distancia de la idea de bifurcaciones.


Así, la “ley de la menor acción” establece la forma como un fenómeno determinado se mueve bajo la influencia de fuerzas. Esta ley, dice sin más, grosso modo, que el fenómeno en cuestión considerará todas las alternativas posibles, pero que seguirá aquella que implique el menor trabajo o esfuerzo posible. En verdad, las unidades en las que se mide la acción de Hamilton son energía por tiempo. Así, estaban sentadas todas las condiciones para el advenimiento de ideas provenientes de Planck, y con él, toda la historia subsiguiente de la física cuántica.

A partir de Hamilton podemos decir: existen tres formas como un modelo (clásico) puede ser transformado, así:


• Reinterpretándolo.
• Ampliando o profundizando los niveles de abstracción.
• Enfrentando o identificando anomalías.

Las dos primeras posibilidades son de cuño hamiltoniano; la tercera es, por el contrario, kuhniana. Dos formas complementarias de enfrentar y superar un modelo (clásico) determinado.


La reinterpretación es un acto hermenéutico de profunda radicalidad. La ampliación o profundización de los niveles de abstracción comporta el hecho de que el modelo (clásico), que antes era un todo, se convierte entonces simplemente en una parte de un todo aún mayor, más amplio y comprensivo. Por su parte, la identificación de anomalías quiere decir el choque entre un paradigma vigente o dominante y la emergencia de nuevos paradigmas. Es, sin más, el choque entre ciencia normal y ciencia revolucionaria.


W. R. Hamilton fue un niño precoz y, sin ninguna duda, además, un genio. A los cinco años conocía bien latín, griego y hebreo —los tres idiomas clásicos importantes de occidente—, y a los trece, manejaba más de doce idiomas, que es uno de los rasgos distintivos de esa clase de individuos que muy pronto tienen profundas inflexiones que habrán de marcar su vida. En este sentido, a los dieciocho años entra al Trinity College, en donde muy pronto se destaca como un aventajado estudiante.


Su vida académica, profesional y científica estuvo acompañada de éxitos y desarrollos notables. En contraste, su vida personal y familiar no fue tan afortunada, habiendo tenido un profundo amor desencantado y un matrimonio desafortunado. Al final moriría de un ataque de gota, de la que sufría como consecuencia de depresiones que lo condujeron a una afición por el licor.


La vida de muchos genios no siempre ha sido plana y lineal, tranquila y sosegada, aunque existen, en la historia, notables excepciones a esta observación. Pero este tema es asunto de una consideración aparte.

Miércoles, 24 Febrero 2016 05:44

¿Qué dice el modelo de Ising?

¿Qué dice el modelo de Ising?

El modelo de Ising constituye, en el plano humano y pedagógico, una de esas magníficas excepciones en las que un profesor reconoce el logro de un estudiante suyo, y el profesor desarrolla el modelo otorgándole el mérito al estudiante.


Un tema importante y sensible en física, pero particularmente en el estudio de los sistemas complejos, es el de establecer si y cómo el comportamiento de sistemas macroscópicos se sigue de ciertas asunciones acerca de los elementos que los componen. El tema constituye un capítulo medular de la física estadística, para muchos físicos, la parte más importante de esta ciencia.


En física, un sistema macroscópico es aquel que se compone de un número de partículas verdaderamente grande: la constante de Avogadro (por el físico y químico italiano A. Avogadro, 1776–1856) cuyo valor es de 1023, un número verdaderamente grande. Por su parte, cuando es trasladado a los sistemas sociales humanos, el tema consiste en el estudio de la forma como los comportamientos microscópicos (= individuales) pueden vincularse con los comportamientos macroscópicos. La idea de base es que el conocimiento de una escala permite el conocimiento de la otra escala. Una relación semejante se dice que es estocástica.


Originariamente, es en el estudio del ferromagnetismo donde aparece el problema de base central de la física estadística. El modelo llamado de Ising fue desarrollado por el físico W. Lenz, como homenaje a su estudiante Ernst Ising, a quien le dirigió su tesis doctoral en los años 1920. Pues bien, Lenz le propuso un problema a Ising, quien lo pudo resolver justamente como su tesis doctoral de 1924, determinando que, en el marco de la mecánica estadística, en un sistema de una dimensión no existe una transición de fase, esto es, la transformación de una fase a otra o, lo que es equivalente, un cambio de estado en un sistema.


De esta suerte, la mecánica estadística, es decir, ese capítulo de la física que permite deducir el comportamiento de sistemas macroscópicos a partir de los comportamientos o estados microscópicos mediante la teoría de la probabilidad, permite comprender que existen transiciones de fase. Una transición de fase constituye una de las marcas distintivas que permiten afirmar que existe un sistema o un comportamiento complejo.


No sin buenas justificaciones, referidos a comportamientos sociales humanos, todo el problema da lugar a lo que técnicamente se conoce como una física social. Esto es, el estudio de fenómenos, sistemas y comportamientos humanos con base en la teoría de la probabilidad y en términos estadísticos. Esta idea requiere una breve explicación.


Desde no hace mucho tiempo, la cultura y la ciencia han venido a comprender a los seres humanos en términos estadísticos; más exactamente, en términos de distribuciones estadísticas. Por ejemplo, distribuciones de Poisson, exponencial, normal, y otras —todas, distribuciones de probabilidad—. Antes de este giro, los seres humanos eran entendidos a partir de singularidades individuales: la locura de Nerón, la nariz de Cleopatra, el coraje de Carlomagno, las dudas de Anibal, por ejemplo.


En el modelo de Ising, la física desempeña un papel fundamental. Más exactamente, el marco de las consideraciones es la termodinámica, y así, se trata de establecer si un sistema determinado es entrópico o no; esto es, si tiende al orden o al desorden. Este es un asunto nuclear en el estudio de los sistemas complejos.


Pues bien, un sistema termodinámico se caracteriza, entre otras razones, por un parámetro de orden, que depende a su vez de varios factores tales como temperatura, fuerzas de cohesión, y otros. De forma general, cabe distinguir dos clases de transiciones de fase. En primer lugar, una transición de fase de primer orden es, grosso modo, aquella que es discontinua. Por su parte, una transición de fase de segundo orden es aquella que es continua.


De forma general, cabe identificar varios conceptos importantes al respecto, tales como estados críticos y puntos críticos, que son aquellos en los cuales un fenómeno: a) cambia de estado, o bien b) en el que se produce una bifurcación en la historia de un sistema. El modelo de Ising tiene la virtud de que posee una solución analítica exacta.


En verdad, es sumamente difícil para sistemas macroscópicos llevar un registro detallado de cada una de las partículas o individuos y predecir entonces el comportamiento del sistema. Es por ello por lo que las técnicas estadísticas, y más exactamente, las aproximaciones probabilísticas resultan de gran ayuda. De manera precisa, al conocer el comportamiento estadístico de un macrosistema, cabe deducir los comportamientos individuales de los componentes del sistema.


El modelo de Ising constituye, en el plano humano y pedagógico, una de esas magníficas excepciones en las que un profesor reconoce el logro de un estudiante suyo, y el profesor desarrolla el modelo otorgándole el mérito al estudiante. Todo lo contrario de lo que constituye la regla en el caso de la mayoría de profesores.


W. Lenz, físico alemán, vivió los años más aciagos de su país. Nace en 1888 y muere en 1957. Vive la Primera Guerra Mundial, la crisis de la República de Weimar, y el ascenso y las acciones del nacionalsocialismo y la Segunda Guerra Mundial. Y, sin embargo, vivió un ambiente de inmensa camaradería y colaboración entre profesores y estudiantes, habiendo sido, él mismo, apoyado ampliamente por A. Sommerfeld, una de la figuras centrales de la física cuántica.


W. Pauli, P. Jordan, el propio E. Ising y O. Stern, entre varios otros de sus estudiantes, se vieron beneficiados por la bonhomía e inteligencia investigativa de Lenz. El modelo de Ising constituye una de las herramientas más importantes en el estudio de las relaciones entre un sistema macroscópico y uno microscópico. Este constituye, sin dudas, uno de los problemas fundamentales de la ciencia contemporánea. El tema de base consiste en no reducir la complejidad del macrosistema a las simplificaciones de los comportamientos individuales, pero tampoco en generalizar sin más a un macrosistema a partir de criterios estadísticos de partículas individuales.


Al fin y al cabo, vivimos un universo probabilístico.

Miércoles, 17 Febrero 2016 06:22

Los chips abandonan la Ley de Moore

Los chips abandonan la Ley de Moore

La regla de “más rápido, más pequeño y con menor consumo” alcanza su límite y los investigadores y fabricantes buscan otros caminos para seguir aumentando las prestaciones de los dispositivos electrónicos

 


Del extraordinariamente complejo panorama de la electrónica, la combinación de ciencia y tecnología en la que se basan los ordenadores, Internet y los teléfonos móviles entre otras muchas cosas, muy pocos conceptos han pasado a la cultura popular. Quizás el más conocido es la llamada Ley de Moore, que ni siquiera es una ley física, sino una predicción hecha hace 50 años por el estadounidense Gordon Moore según la cual cada dos años se duplicaría, gracias a los avances tecnológicos, el número de transistores en un chip, el corazón de cualquier dispositivo electrónico. Este crecimiento exponencial daría lugar a dispositivos cada vez más potentes, más rápidos, más pequeños y con menor consumo, lo que se ha ido cumpliendo espectacularmente.

El mes que viene, la industria mundial de semiconductores reconocerá oficialmente que la ley de Moore ya no es su objetivo principal, a través de su informe periódico con la hoja de ruta para los próximos años, el International Roadmap for Devices and Systems (ITRS), que este año estrena también nuevo nombre para adaptarse a los tiempos.


Hay que recordar que en un chip de unos 6 centímetros cuadrados, que además funciona, se han conseguido acumular 10.000 millones de transistores, una cifra mareante. “Donde hace 30 años cabía un transistor ahora hay un millón”, recuerda Mateo Valero, director del Centro Nacional de Supercomputación, en Barcelona y el primer europeo que ha obtenido el prestigioso premio Seymour Cray. “Pero estamos acercándonos al final de esta era, nos quedan unas tres generaciones de chips con la ley de Moore, como mucho, hasta 2023 o así”.

Como recuerda la revista Nature en un informe reciente sobre el tema, la ley de Moore es en realidad un ejemplo único en cualquier sector industrial. La industria de semiconductores (primero la de EE UU solo y luego la mundial) se ha estado coordinando para fijarse como objetivo principal cumplirla a medio plazo a través de las hojas de ruta publicadas periódicamente.


Ha sido un largo periodo de paz duradera, dice Valero, porque la predicción sirvió para que las tecnologías de la información y la comunicación (TIC) avanzaran con unas reglas del juego que estaban escritas. Todos compartían expectativas tecnológicas sobre las que desarrollar productos, aunque luego compitieran para llevarlos al mercado.

Los límites son físicos. Llega un momento en que la exitosa combinación de lógica binaria (todos son ceros y unos en los chips) y transistores de silicio de las últimas décadas no se puede miniaturizar más. Por un lado, acumular cada vez más transistores en un espacio más pequeño produce calor y, si no se limita la frecuencia a la que funcionan los chips, estos se queman. Desde hace más de 10 años, la frecuencia no se ha podido aumentar por esta razón y para conseguir procesadores más rápidos se ha recurrido a chips que tienen varios núcleos que procesan en paralelo, algo que presenta muchas dificultades de programación y no baja el coste. Por otro lado cada transistor se reducirá pronto, si se sigue aplicando la ley de Moore, al tamaño de unos pocos átomos y eso ya no será un transistor, debido a que los efectos cuánticos a esa escala son notables.


“Todos estamos de acuerdo en que, a pesar de que el número de transistores ha seguido creciendo según la ley de Moore, la tecnología CMOS ha llegado a una etapa de graves limitaciones de potencia que han reducido su contribución a las prestaciones en computación. Es urgente conseguir una nueva forma de computar”, afirma Paolo Gargini, el veterano director del ITRS.

¿Y cuál es la solución para que la electrónica siga avanzando al mismo ritmo a que nos tiene acostumbrados y que ha permitido abordar tantos problemas antes sin solución? Hay dos salidas, señala Valero: mantener la lógica binaria pero con otra tecnología distinta de la del silicio (los nanotubos de carbono, el grafeno, los transistores fotónicos, en los que se mueven fotones en vez de electrones, e incluso el ADN son candidatos) o cambiar la lógica de computación, siendo la cuántica la que más interés suscita. Sin embargo, nada de eso está todavía maduro y no existen plazos para su llegada al mercado, aunque sí hay una gran actividad investigadora con un fuerte potencial.

Mientras tanto sí han llegado los dispositivos portátiles, el almacenamiento de información en la “nube” y la introducción de la electrónica en productos de uso cotidiano, como la ropa o el propio cuerpo, lo que se está llamando el Internet de las Cosas. Lo que pretenden los fabricantes es, lógicamente, seguir ganando dinero y para eso tienen que cambiar al ritmo que lo hace un mercado que demanda ahora, además, eficiencia energética (bajo consumo e incluso poder prescindir de las baterías), conectividad (banda ancha) y seguridad en las comunicaciones.


Por otro lado, miniaturizar los componentes todavía más, mientras se pueda, supone altísimas inversiones que los fabricantes empiezan ya, a pesar de haberse concentrado en unas pocas empresas, a no poderse permitir. “Creo que se nos terminará el dinero antes de que se nos termine la física”, dice Daniel Reed, de la Universidad de Iowa (EE UU) en declaraciones a Nature.

Shekhar Borkar, director de investigación en Intel, lo ve de otra manera. Cree que la Ley de Moore está próxima a su fin en sentido literal porque el crecimiento exponencial en el número de transistores no puede continuar, pero que desde el punto de vista del consumidor la ley simplemente significa que el valor para el consumidor se duplica cada dos años y que eso seguirá sucediendo a través de la innovación.

2015 fue el segundo mejor año de la historia, después de 2014, para la industria de los semiconductores, controlada mayoritariamente por unas pocas empresas gigantes de Corea del Sur, Taiwan y Estados Unidos. Las ventas alcanzaron los 335.200 millones de dólares, de los que los circuitos lógicos se llevaron la mayor parte, con 90.800 millones. Los chips de memoria supusieron 77.200 millones y los circuitos integrados de alta densidad (incluidos los microprocesadores) 61.300 millones. Otros sectores que aumentaron sus ventas fueron la optoelectrónica, los sensores y actuadores y la memoria flash NAND.

Con el fin de la ley de Moore se terminará también la hoja de ruta común, señalan los expertos, y países como Estados Unidos, y también China (hasta ahora un gran comprador de chips), preparan planes de futuro propios con mucho dinero para un sector estratégico como es el de las TIC. Un panorama distinto al habitual que puede ser muy interesante y en el que las empresas se arriesgan mucho si no consiguen adaptarse al siguiente cambio, por ahora sin definir.