La decepcionante historia de los rusos que mandaron un electrón al pasado

Esta semana, muchos medios han publicado que un grupo de científicos habían logrado revertir el tiempo. Lo que han conseguido es mucho menos excitante.


En los últimos días, medios de todo el mundo han contado cómo un grupo de científicos rusos ha logrado revertir el tiempo. Sería un pequeño paso para construir una máquina que tendría un valor incalculable para los nostálgicos, los arrepentidos o los insatisfechos con el pasado, pero la posibilidad de viajar al ayer parece tan alejada como hace diez días.


La mayor parte de las leyes de la física no distinguen entre avanzar hacia el futuro o hacia el pasado. Si se observan los movimientos de rotación del sistema solar, las mismas leyes servirían para explicar esas órbitas reproducidas en reverso. Sin embargo, desde nuestro punto de vista, el tiempo es algo absoluto e inexorable, que funciona en todo el universo de la misma manera. Esta percepción tiene que ver con nuestra comprensión intuitiva de la segunda ley de la termodinámica. Si una copa de vino se nos cae de la mano y se hace trizas, podrá irritarnos, pero no nos hará pensar que hemos perdido la cabeza. Todo lo contrario sucedería si los trozos de esa copa, de forma espontánea, se volviesen a reunir para ser de nuevo un recipiente.


La segunda ley de la termodinámica dice que un sistema aislado o permanece estable o cambia hacia un estado de mayor desorden: las copas rotas no se reconstruyen, un café encima de la mesa se enfría en lugar de calentarse y los muertos no resucitan. Lo normal es que el universo avance hacia el caos y en esa intuición se sustenta nuestra idea de un tiempo absoluto. Sin embargo, esa ley no es inviolable, y reconoce que el proceso inverso, aunque improbable, no es imposible.


Con esa idea en mente, un grupo de investigadores liderado desde el Instituto Moscovita de Física y Tecnología calculó las probabilidades de que un solo electrón violase esta segunda ley de la termodinámica de forma espontánea, retornase a un estado anterior y, de alguna forma, viajase hacia el pasado. Sus resultados indican que si se observasen 10.000 millones de electrones cada segundo durante los 13.700 millones de años de vida del universo, el fenómeno solo sucedería una vez, e incluso en ese caso, la partícula solo viajaría una diez mil millonésima de segundo hacia el pasado.


En otro experimento, los científicos utilizaron un ordenador cuántico de IBM para “enviar un electrón al pasado”. Pero en realidad la operación se parece más a una simulación computacional que a Marty McFly viajando a los años 50 para salvar el matrimonio de su padre. Según explica el investigador del Instituto de Física Teórica (IFT) de Madrid Germán Sierra, “los autores de este trabajo proponen que en mecánica cuántica es posible diseñar un algoritmo que invierte la dirección del tiempo de un estado cuántico particular y lo ilustran empleando el ordenador cuántico de la IBM con 5 qubits”. Para conseguirlo, simulan una operación que cambia el signo de la fase de la función de onda que describe el estado del sistema. En esta operación abstrusa “consiste ir hacia atrás en el tiempo en mecánica cuántica”, señala Sierra.


Incluso en el caso de que lo logrado tuviese alguna relevancia para el viaje en el tiempo, los autores del trabajo, que se publica en la revista Scientific Reports, lograron sus resultados planteando una situación artificial que solo funciona en el estrecho ámbito del experimento. “El problema es que la operación que construyen estos autores es ad hoc, es decir que depende del estado elegido y viola el principio de superposición de estados, que es fundamental en la mecánica cuántica”. “En términos matemáticos, la inversión del tiempo en cuántica es una operación antiunitaria y ellos la realizan mediante una transformación unitaria, algo que solo se puede hacer para un estado particular, pero no para todos los estados del sistema”, añade.


Además de las críticas a las conclusiones poco fundadas que se sacan de los resultados del equipo, algunos investigadores han comentado con extrañeza que se destaque en el mismo titular del artículo científico que se ha realizado con un ordenador concreto de IBM, el primer computador cuántico comercial. “Si estás simulando en tu ordenador un proceso en el que el tiempo es reversible, entonces puedes revertir la dirección del tiempo solo revirtiendo la dirección de tu simulación”, aseveraba el director del Centro de Información Cuántica de la Universidad de Texas en Austin (EE UU) en MIT Technology Review. “Después de un rápido vistazo al artículo, confieso que no entiendo por qué esto se vuelve más profundo si la simulación se lleva a cabo en el ordenador cuántico de IBM”, ironizaba. “El artículo es correcto y sugerente, pero no creo que represente un avance fundamental”, asegura Sierra. “Y tampoco entiendo por qué le pone énfasis en el ordenador de IBM, que para hacer lo que han hecho no hace falta”, remacha el investigador del IFT.


El pasado está más lejos que el futuro


La idea de una máquina del tiempo se hizo popular gracias a la novela titulada así que H. G. Wells publicó en 1895, pero fue Albert Einstein quien a partir de 1905 empezó a ofrecer herramientas intelectuales que permitían especular sobre un viaje en el tiempo en el mundo real. Según la teoría de la relatividad especial, el tiempo se acelera y se ralentiza dependiendo de la velocidad relativa a la que uno se mueve con respecto a cualquier otra cosa. Si una persona parte desde la Tierra en una nave que viaja a la velocidad de la luz, envejecerá mucho más despacio que un amigo que se haya quedado en la Tierra.


El físico alemán entendió que el ahora es local y la idea de un tiempo absoluto, que se había aceptado como norma desde Isaac Newton, se resquebrajó aún más cuando la teoría de la relatividad general mostró que la gravedad hace que el tiempo se curve. Este fenómeno, en su versión más extrema, haría que el tiempo de otro viajero espacial orbitando en la proximidad de un agujero negro pareciese detenerse. Aunque no para él. El explorador tendría la sensación de envejecer al mismo ritmo que siempre, pero cuando regresase a casa podría ver que allí el tiempo había transcurrido mucho más rápido y todos sus seres queridos estarían ya muertos o mucho más envejecidos que él.


Esto, de alguna manera, sería parecido a desplazarse al futuro, aunque la percepción del viajero sería bastante distinta de la de utilizar una máquina para dar saltos en el tiempo. La teoría de Einstein también permite, en principio, viajar al pasado a través del espacio tiempo, circulando por túneles abiertos en ese tejido espaciotemporal, pero muchos dudan de que la posibilidad no sea fruto de algún defecto en la propia teoría. Por el momento, habrá que seguir viviendo con cuidado, porque retroceder en el tiempo para arreglar nuestros desaguisados pretéritos parece un sueño muy lejano.


 Por qué no se puede poner una multa de tráfico a un electrón


Explicado de un modo burdo, los físicos tienen dos herramientas para entender cómo funciona el universo. En las grandes escalas, las de las estrellas y los planetas y en general el mundo que percibimos a simple vista, la teoría de la relatividad general funciona a la perfección. La cosa se complica cuando descendemos a las escalas microscópicas. Para entender el extraño comportamiento de partículas como los electrones es necesaria la mecánica cuántica, que explica un mundo con el que no tenemos relación directa y nos resulta muy poco intuitivo.


Una forma de entender la diferencia entre ambos mundos la ofrece Germán Sierra con un chiste. Para que Tráfico nos ponga una multa, es necesario que nos hagan una foto en la que se puede ver dónde estamos y a qué velocidad vamos. Como a nosotros nos aplica la física de Newton, tráfico puede sancionarnos, pero eso no sucede con un electrón. Con ellos, regidos por la mecánica cuántica, hay que elegir entre conocer su velocidad o su posición, algo que haría imposible ponerles una multa de tráfico. El ejemplo muestra las reglas diferentes que afectan a ambos mundos y explica por qué en ocasiones las explicaciones populares sobre la física cuántica, apoyadas en metáforas basadas en el mundo real, pueden ser confusas.


La más famosa de estas metáforas es el experimento mental que planteó Erwin Schrödinger en 1935. En él, se introducía un gato en una caja de acero junto a una pequeña cantidad de material radiactivo. La cantidad era tan pequeña que solo existía un 50% de posibilidades de que durante la hora siguiente uno de los átomos decayese. Si eso sucedía, se activaría un mecanismo que llenaría la caja de ácido cianhídrico y el gato moriría.


De acuerdo con los principios de la mecánica cuántica, durante el tiempo que durase el experimento, el gato estaría vivo y muerto al mismo tiempo, resultado de un fenómeno conocido como superposición. Sin embargo, esa circunstancia cambiaría cuando abriésemos la caja para acabar con la incertidumbre. En ese momento, de vuelta a la realidad de la física clásica, el gato estaría o vivo o muerto. En realidad, el gato hacía las veces de una partícula microscópica a la que aplican normas distintas que al animal. Un gato jamás estará vivo y muerto al mismo tiempo.

17 MAR 2019 - 02:32 COT

 

Físicos consiguen revertir el tiempo durante una fracción de segundo con un ordenador cuántico

El equipo de investigadores decidieron verificar si el tiempo podía revertirse espontáneamente al menos para una partícula individual y una pequeña fracción de segundo.

En un experimento de laboratorio, físicos han conseguido retroceder el estado de un ordenador cuántico una fracción de segundo hacia atrás en el tiempo. En el estudio, publicado en Scientific Reports, también calcularon la probabilidad de que un electrón en el espacio interestelar vacío regrese espontáneamente a su pasado reciente.


"Este es uno de una serie de artículos sobre la posibilidad de violar la segunda ley de la termodinámica. Esa ley está estrechamente relacionada con la noción de la flecha del tiempo que postula la dirección del tiempo en sentido único desde el pasado al futuro", ha explicado el autor principal del estudio, Gordey Lesovik, que dirige el Laboratorio de Física de la Tecnología de la Información Cuántica en MIPT (Moscow Institute of Physics and Technology).


"Comenzamos describiendo una llamada máquina de movimiento perpetuo local. Más tarde, en diciembre, publicamos un documento que analiza la violación de la segunda ley a través de un dispositivo llamado demonio de Maxwell", expresa Lesovik. "El artículo más reciente aborda el mismo problema desde un tercer ángulo: hemos creado artificialmente un estado que evoluciona en una dirección opuesta a la de la flecha termodinámica del tiempo". La mayoría de las leyes de la física no hacen distinción entre el futuro y el pasado.


Los físicos cuánticos de MIPT decidieron verificar si el tiempo podía revertirse espontáneamente al menos para una partícula individual y una pequeña fracción de segundo. Por ello, examinaron un electrón solitario en el espacio interestelar vacío.


Los investigadores intentaron revertir el tiempo en un experimento de cuatro etapas. En lugar de un electrón, observaron el estado de un ordenador cuántico formada por dos y más tarde tres elementos básicos llamados qubits superconductores.


Curiosamente, el algoritmo de inversión de tiempo en sí mismo podría resultar útil para hacer que los ordenadores cuánticos sean más precisos. "Nuestro algoritmo podría actualizarse y usarse para probar programas escritos para ordenadores cuánticos y eliminar el ruido y los errores", explicó Lebedev.


13/03/2019 16:13 Actualizado: 13/03/2019 16:13
europa press

¿Por qué el espacio es tridimensional?
Los científicos proponen que el espacio es tridimensional a causa de una magnitud termodinámica llamada la densidad de energía libre de Helmholtz.

 

 

MADRID.- La cuestión de por qué el espacio es tridimensional (3D) y no de algún otro número de dimensiones ha desconcertado a los filósofos y científicos desde la antigua Grecia.

 

El espacio-tiempo total es de cuatro dimensiones, o dimensión 3+1, donde el tiempo es la cuarta dimensión. Es bien sabido que la dimensión del tiempo se relaciona con la segunda ley de la termodinámica: el tiempo tiene una dirección (hacia adelante), ya que la entropía (una medida del desorden) nunca disminuye en un sistema cerrado como el universo.

 

En un nuevo artículo publicado en Europhysics Letters (EPL), los investigadores han propuesto que la segunda ley de la termodinámica también puede explicar por qué el espacio es 3D.

 

"Diferentes investigadores en los campos de la ciencia y la filosofía han abordado el problema de la naturaleza del espacio-tiempo en la dimensión 3+1, al justificar la elección adecuada de su dimensionalidad con el fin de mantener la vida, la estabilidad y la complejidad", dijo a Phys.org el coautor Julián González-Ayala, del Instituto Politécnico Nacional de México y la Universidad de Salamanca.

 

"La mayor importancia de nuestro trabajo es que se presenta una deducción basada en un modelo físico de la dimensionalidad del universo con un escenario adecuado y razonable de espacio-tiempo. Esta es la primera vez que el número 'tres' de las dimensiones del espacio surge como la optimización de una magnitud física ".

 

Los científicos proponen que el espacio es 3D a causa de una magnitud termodinámica llamada la densidad de energía libre de Helmholtz. En un universo lleno de radiación, esta densidad se puede considerar como una especie de presión en todo el espacio, que depende de la temperatura del universo y su número de dimensiones espaciales.

 

Aquí, los investigadores demostraron que, mientras el universo comenzó el enfriamiento desde el momento después del big bang, la densidad de Helmholtz alcanzó su primer valor máximo a una muy alta temperatura que corresponde a cuando el universo tenía sólo una fracción de segundo de edad, y cuando el número de dimensiones espaciales fue de aproximadamente tres.

 

La idea clave es que el espacio 3D fue "congelado" en este punto cuando la densidad de Helmholtz alcanzó su valor máximo en primer lugar, que prohíbe el espacio 3D a partir de la transición a otras dimensiones.

 

Esto es porque la segunda ley permite transiciones a dimensiones más altas sólo cuando la temperatura está por encima de este valor crítico, no por debajo. Puesto que el universo se está enfriando continuamente hacia abajo, la temperatura actual está muy por debajo de la temperatura crítica necesaria para la transición desde el espacio 3D con un espacio de más dimensiones. De esta manera, explican los investigadores, las dimensiones espaciales son vagamente análogas a fases de la materia, donde la transición a una dimensión diferente se asemeja a una transición de fase tal como la fusión del hielo, algo que sólo es posible a temperaturas suficientemente altas.

 

"En el proceso de enfriamiento del universo temprano y después de la primera temperatura crítica, el principio de incremento de entropía para sistemas cerrados podría haber prohibido ciertos cambios de dimensionalidad", explicaron los investigadores.

 

La propuesta aún deja espacio para que dimensiones superiores se hayan producido en la primera fracción de segundo después del Big Bang, cuando el universo era aún más caliente de lo que era a la temperatura crítica. Dimensiones adicionales están presentes en muchos modelos cosmológicos, sobre todo la teoría de cuerdas. El nuevo estudio podría ayudar a explicar por qué, en algunos de estos modelos, las dimensiones adicionales parecen haber colapsado, mientras que el espacio 3D siguió creciendo en todo el universo observable.

 

En el futuro, los investigadores planean mejorar su modelo para incluir los efectos cuánticos adicionales que puedan haber ocurrido durante la primera fracción de segundo después del Big Bang, la llamada "época de Planck." Además, los resultados de un modelo más completo pueden proporcionar una guía para los investigadores que trabajan en otros modelos cosmológicos, como la gravedad cuántica.

 

 

Miércoles, 24 Febrero 2016 05:44

¿Qué dice el modelo de Ising?

¿Qué dice el modelo de Ising?

El modelo de Ising constituye, en el plano humano y pedagógico, una de esas magníficas excepciones en las que un profesor reconoce el logro de un estudiante suyo, y el profesor desarrolla el modelo otorgándole el mérito al estudiante.


Un tema importante y sensible en física, pero particularmente en el estudio de los sistemas complejos, es el de establecer si y cómo el comportamiento de sistemas macroscópicos se sigue de ciertas asunciones acerca de los elementos que los componen. El tema constituye un capítulo medular de la física estadística, para muchos físicos, la parte más importante de esta ciencia.


En física, un sistema macroscópico es aquel que se compone de un número de partículas verdaderamente grande: la constante de Avogadro (por el físico y químico italiano A. Avogadro, 1776–1856) cuyo valor es de 1023, un número verdaderamente grande. Por su parte, cuando es trasladado a los sistemas sociales humanos, el tema consiste en el estudio de la forma como los comportamientos microscópicos (= individuales) pueden vincularse con los comportamientos macroscópicos. La idea de base es que el conocimiento de una escala permite el conocimiento de la otra escala. Una relación semejante se dice que es estocástica.


Originariamente, es en el estudio del ferromagnetismo donde aparece el problema de base central de la física estadística. El modelo llamado de Ising fue desarrollado por el físico W. Lenz, como homenaje a su estudiante Ernst Ising, a quien le dirigió su tesis doctoral en los años 1920. Pues bien, Lenz le propuso un problema a Ising, quien lo pudo resolver justamente como su tesis doctoral de 1924, determinando que, en el marco de la mecánica estadística, en un sistema de una dimensión no existe una transición de fase, esto es, la transformación de una fase a otra o, lo que es equivalente, un cambio de estado en un sistema.


De esta suerte, la mecánica estadística, es decir, ese capítulo de la física que permite deducir el comportamiento de sistemas macroscópicos a partir de los comportamientos o estados microscópicos mediante la teoría de la probabilidad, permite comprender que existen transiciones de fase. Una transición de fase constituye una de las marcas distintivas que permiten afirmar que existe un sistema o un comportamiento complejo.


No sin buenas justificaciones, referidos a comportamientos sociales humanos, todo el problema da lugar a lo que técnicamente se conoce como una física social. Esto es, el estudio de fenómenos, sistemas y comportamientos humanos con base en la teoría de la probabilidad y en términos estadísticos. Esta idea requiere una breve explicación.


Desde no hace mucho tiempo, la cultura y la ciencia han venido a comprender a los seres humanos en términos estadísticos; más exactamente, en términos de distribuciones estadísticas. Por ejemplo, distribuciones de Poisson, exponencial, normal, y otras —todas, distribuciones de probabilidad—. Antes de este giro, los seres humanos eran entendidos a partir de singularidades individuales: la locura de Nerón, la nariz de Cleopatra, el coraje de Carlomagno, las dudas de Anibal, por ejemplo.


En el modelo de Ising, la física desempeña un papel fundamental. Más exactamente, el marco de las consideraciones es la termodinámica, y así, se trata de establecer si un sistema determinado es entrópico o no; esto es, si tiende al orden o al desorden. Este es un asunto nuclear en el estudio de los sistemas complejos.


Pues bien, un sistema termodinámico se caracteriza, entre otras razones, por un parámetro de orden, que depende a su vez de varios factores tales como temperatura, fuerzas de cohesión, y otros. De forma general, cabe distinguir dos clases de transiciones de fase. En primer lugar, una transición de fase de primer orden es, grosso modo, aquella que es discontinua. Por su parte, una transición de fase de segundo orden es aquella que es continua.


De forma general, cabe identificar varios conceptos importantes al respecto, tales como estados críticos y puntos críticos, que son aquellos en los cuales un fenómeno: a) cambia de estado, o bien b) en el que se produce una bifurcación en la historia de un sistema. El modelo de Ising tiene la virtud de que posee una solución analítica exacta.


En verdad, es sumamente difícil para sistemas macroscópicos llevar un registro detallado de cada una de las partículas o individuos y predecir entonces el comportamiento del sistema. Es por ello por lo que las técnicas estadísticas, y más exactamente, las aproximaciones probabilísticas resultan de gran ayuda. De manera precisa, al conocer el comportamiento estadístico de un macrosistema, cabe deducir los comportamientos individuales de los componentes del sistema.


El modelo de Ising constituye, en el plano humano y pedagógico, una de esas magníficas excepciones en las que un profesor reconoce el logro de un estudiante suyo, y el profesor desarrolla el modelo otorgándole el mérito al estudiante. Todo lo contrario de lo que constituye la regla en el caso de la mayoría de profesores.


W. Lenz, físico alemán, vivió los años más aciagos de su país. Nace en 1888 y muere en 1957. Vive la Primera Guerra Mundial, la crisis de la República de Weimar, y el ascenso y las acciones del nacionalsocialismo y la Segunda Guerra Mundial. Y, sin embargo, vivió un ambiente de inmensa camaradería y colaboración entre profesores y estudiantes, habiendo sido, él mismo, apoyado ampliamente por A. Sommerfeld, una de la figuras centrales de la física cuántica.


W. Pauli, P. Jordan, el propio E. Ising y O. Stern, entre varios otros de sus estudiantes, se vieron beneficiados por la bonhomía e inteligencia investigativa de Lenz. El modelo de Ising constituye una de las herramientas más importantes en el estudio de las relaciones entre un sistema macroscópico y uno microscópico. Este constituye, sin dudas, uno de los problemas fundamentales de la ciencia contemporánea. El tema de base consiste en no reducir la complejidad del macrosistema a las simplificaciones de los comportamientos individuales, pero tampoco en generalizar sin más a un macrosistema a partir de criterios estadísticos de partículas individuales.


Al fin y al cabo, vivimos un universo probabilístico.

Lunes, 04 Mayo 2015 06:19

Tres cápsulas sobre bioeconomía

Tres cápsulas sobre bioeconomía

La bioeconomía constituye la más radical crítica a la economía política desde la crítica de Marx, con la salvedad de que el marxismo jamás conoció ni estudió (hasta la fecha) la bioeconomía.

I
Desarrollada originariamente por el rumano N. Georgescu–Roegen —La ley de la entropía y el proceso económico, originalmente publicado en inglés en 1971 y con traducción al español de 1996—, la bioeconomía produce una verdadera inflexión en la historia de la economía, y constituye un capítulo propio. Sin ambages, la bioeconomía constituye la más radical crítica a la economía política desde la crítica Marx, con la salvedad de que el marxismo jamás conoció ni estudió (hasta la fecha) la bioeconomía.


La bioeconomía toma como hilo conductor a la termodinámica y, más exactamente, al segundo principio de la misma: la ley de la entropía. Consiguientemente, se trata de la más radical crítica a la función de producción —y, por tanto, a la idea de crecimiento como de desarrollo económico— a partir del reconocimiento explícito de que en la naturaleza existe una tendencia constante a que el orden se convierta en desorden. Así las cosas, el principal reto económico consiste en cómo trabajar con entropía baja que tiende a alta entropía. Al fin y al cabo, la vida, la existencia misma, se funda en sistemas de baja entropía.


Georgescu–Roegen alcanza la fama mundial en econometría, estadística y matemática económica. Y, sin embargo, el grueso de sus reflexiones se fundan en profundo y sólido aparato epistemológico que tiene como resultado mostrar la inviabilidad del sistema capitalista o el sistema de libre mercado, a partir de la más fundamental de todas las ideas en la física: el principio de la entropía, algo que los economistas, por lo menos hasta Georgescu–Roegen, jamás habían visto (incluso hasta la fecha).


II


Los cuatro modelos económicos habidos e imperantes son una sola y misma cosa: el modelo clásico, el neoclásico, las economías de escala y el desarrollo (humano) sostenible o sustentable. Propiamente hablando, se trata, gradualmente, cada vez, de una cara más amable del capitalismo. La razón por la que son una sola y misma cosa es que dejan inalterada la función de producción. Frente a esto, todo lo demás es todo lo de menos.


La bioeconomía constituye, manifiestamente, el mejor acercamiento a las relaciones entre economía y complejidad, gracias precisamente al reconocimiento explícito de que la economía es un sistema complejo evolutivo. En otras palabras, la ley de la economía es el cambio, pero si ello es así, no puede resolver la tendencia a generar sistemas de alta entropía. Dicho en términos clásicos, con Schumpeter, por ejemplo, el capitalismo (y las empresas) tienen que innovar, porque no tienen ninguna otra alternativa (de supervivencia).


Así las cosas, la economía queda presa de sí misma, lo cual significa, à la lettre, que los retos, problemas y desafíos económicos no se pueden resolver al interior de la economía misma. Este reconocimiento plantea enormes desafíos al cuerpo duro de la economía: la micro, la macro, las finanzas y el comercio.


III


La bioeconomía tiene una arista importante que, sin embargo sólo puede aquí ser mencionada: se trata de las contribuciones propias e independientes de R. Passet. Lo que sí resulta fundamental es señalar que la bioeconomía se realiza y da lugar al mismo tiempo a dos áreas, cada una más radical: la economía ecológica, y luego también, la ecología política. Al fin y al cabo, la gestión de la economía es imposible sin poner sobre la mesa, a plena luz de día, la importancia de la naturaleza.


En otras palabras, es imposible entender el mundo y gestionarlo al margen de la física y la biología, de la ecología y la política. Pero si ello es así, el reto que la entropía le plantea a la economía merece ser tomado en serio y resuelto. De lo contrario, la sociedad es como una locomotora desenfrenada que ha perdido el control y avanza a velocidades crecientes. Ello implicaría la muerte de la sociedad y de la civilización.


En buenos términos de ciencias de la complejidad y de termodinámica, es evidente que las razones del fracaso de un sistema consisten exactamente en las razones de su triunfo. El capitalismo es un sistema triunfante dado que implica un modo alta y crecientemente complejo de orden, cuyo costo es la generación a su alrededor de una masa igualmente creciente de desechos. En una palabra: a mayor orden de un sistema, mayor generación de entropía a su alrededor.


A su manera, de forma lapidaria (en este contexto), el economista rumano afirma: "Me apresuro a añadir que la innovación y la expansión no son un fin en sí mismas. La única razón para este ajetreo es un mayor placer de vivir". Pero si ello es así, el foco se desplaza de la economía —en toda la extensión de la palabra— a una cierta idea de buen vivir y de saber vivir. Algo que se dice fácil, pero que es sumamente difícil de llevar a cabo.


Las relaciones de complejidad creciente, no–linearidad, inestabilidades y turbulencias entre economía y sociedad tanto como entre economía y naturaleza, plantean reto de una radicalidad y un calibre superior al que el panorama de las discusiones actuales en torno a la economía presente. Incluido Th. Piketty. Piketty, un tibio más.


Comprender la complejidad de la economía implica poner el dedo sobre su núcleo mitocondrial: el desarrollo (= el desarrollo económico). Complejidad y desarrollo: el tema es magnífico y exige una mirada novedosa. Pero ese ya es otro tema aparte.


Como quiera que sea, la complejidad de las relaciones entre economía y vida ponen de relieve la necesidad del diálogo entre termodinámica y, muy especialmente, la termodinámica del no–equilibrio y economía. A nivel anecdótico, existió un debate sordo entre I. Prigogine y Georgescu–Roegen. Pero esa es otra historia.

Publicado enEconomía
Miércoles, 17 Octubre 2012 18:55

La experiencia de la infinitud

Pablo Dávalos escribió una amplia reseña crítica al libro de Carlos Eduardo Maldonado “Termodinámica y complejidad”. En su respuesta, el autor del libro le propone un diálogo. Quiero celebrar ese llamado. Se trata de hacer realidad el propósito que orienta la colección que inaugura ediciones desde abajo con el libro comentado.

En la presentación de la colección se parte del reconocimiento de la existencia de un proceso revolucionario en la ciencia. Se lo declara así: “Asistimos a una auténtica revolución científica”. Luego se agrega: “La ciencia se lleva a cabo en la forma de debates, críticas, refutaciones y la construcción de rigor cada vez mayor. Si ello es así, la ciencia funda una forma de vida fundada en la combinación entre mentes abiertas y críticas y el debate como nutriente de una investigación cada vez más cualificada que nos ayude a entender mejor el mundo en el que vivimos a la vez que incide en el mismo conservando lo mejor del acerbo de la humanidad y transformando el presente en la construcción de mayores y mejores horizontes de posibilidades”.

El diálogo conceptual propuesto hay que mantenerlo para que pueda germinar como forma de vida y, así mismo tiempo, para que enriquezca el sentido y el significado político de la tarea de transformación de nuestra contemporánea realidad planetaria.

Ahora ocupémonos del diálogo y el debate. C.E. Maldonado se plantea su libro como una introducción para las ciencias sociales y humanas de las teorías de la complejidad. Pablo Dávalos tiene reservas sobre la idea de asumir las teorías de la complejidad en las ciencias sociales y humanas y considera que se trata de un nuevo intento de imponer el positivismo, advirtiendo que hay una estrategia política que es necesario develar. Señala que ese intento se da “…en un contexto de un profundo desgaste de la ciencia moderna”. Agrega, además, “…la cuestión es que si la ciencia social incorpora la propuesta epistemológica de las ciencias de la complejidad, se harán más débiles y vulnerables con respecto a las relaciones de poder del sistema, porque todo fortalecimiento de la physis implica mayor opresión para la sociedad”, A modo de conclusión, sostiene: “Mientras más avanza la episteme de la physis, mayor peligro para la sociedad”. Estos juicios están sustentados con amplitud en su texto.

Carlos Eduardo Maldonado, de otro lado, hace una presentación también amplia de sus argumentos y remite a los lectores al estudio de su libro. No quiero abundar en lo escrito por ellos pero considero que el asunto abordado acerca de la “episteme de la physis” abre un tema para la investigación, de amplias implicaciones, en la historia del pensamiento de Marx y Engels respecto a los intercambios entre naturaleza y sociedad capitalista. Especialmente pertinente en relación con las tesis de Pablo Dávalos, es la valoración negativa que en ese momento algunos hicieron del libro de Engels “Introducción a la dialéctica de la naturaleza”. El libro de Engels fue considerado como un retroceso positivista. Habría que retomar ese debate hoy. A ese respecto Michel Serres en su libro “El nacimiento de la Fisica” (1977) presenta un valioso aporte epistemológico.
Pero hay un problema en el libro de C.E. Maldonado que he querido llamar la experiencia de la infinitud y sobre el cual llamo la atención. Se trata de la realidad del tiempo infinito y creador y de la experiencia humana que da cuenta de esa realidad. En esa emergente experiencia, el destino de la naturaleza y la humanidad no es la muerte, tampoco el abandono en un valle de lágrimas, ni la culpa por un pecado que nos privó sin esperanza del paraíso.

C.E. Maldonado trata el tema a lo largo del libro y especialmente en tres capítulos: el tercero, el once y el doce cuyos títulos son: La identificación de lo real, El reencanto del Mundo o la tercera cultura y La inquietud del tiempo. En ellos se plantea como la termodinámica de los sistemas alejados del equilibrio o física del devenir tiene en el tiempo un organizador intrínseco.
El diálogo de la humanidad con la naturaleza adquiere por ello un sentido y un significado radicalmente diferente al que se dio a partir de la física newtoniana, ahora calificada de clásica. En el emergente diálogo hoy posible, la naturaleza no es un enemigo a vencer y esclavizar. La ciencia que hace posible esta nueva experiencia, dice C. E. Maldonado es “…una ciencia de sueños despiertos y de pasiones bien vivas gracias precisamente al doble reconocimiento de que el tiempo no es una ilusión, sino realidad creadora, y que la naturaleza admite diversos puntos de vista, que son complementarios. Tal es, en una palabra, la pasión de la complejidad”.

Ahora bien, estamos apenas en los inicios de este nuevo modo de organizar el diálogo humanidad-naturaleza, lo dominante hoy son las inercias de la ciencia clásica; cuando Pablo Dávalos plantea sus reparos y advierte sobre los peligros de “reducir el acontecimiento social a los límites del positivismo” tiene razón. Es cierto que la mayoría de los científicos de las fatuamente llamadas ciencias duras y blandas, se orientan en sus empeños por el cálculo egoísta y el frio interés y son esclavos asalariados de la élite corporativo cuando no ellos mismo dirigentes de esas élites. Ellos, con su autoridad, dice, Pablo Dávalos son “…en realidad una garantía del poder”.

Esa valoración resulta inadecuada, aplicada al libro de C.E. Maldonado o al informe de la comisión Gulbenkian dirigida por Immanuel Wallerstein. Aquí es necesario recordar que ese informe titulado “Abrir las Ciencias Sociales” (1995) respondía a preocupaciones sobre el modo como los administradores de las universidades estaban reorganizando la investigación y la formación de postgrado. El informe a ese respecto era contundente al plantear el tema de la responsabilidad de los investigadores en ese debate. Leamos: “Si los científicos sociales activos no lo hacen, sin duda los administradores de las instituciones de conocimiento lo harán por ellos”. Y frente a la situación existente decía que no era posible “…seguir ciegamente adelante como se pueda, en la esperanza de que de alguna manera las cosas mejorarán y se arreglarán solas, porque la confusión, la superposición y la escasez de recursos están aumentando simultáneamente y en conjunto pueden llegar a constituir un bloqueo considerable a la creación de nuevo conocimiento”. Esta caracterización dramática (1995) hoy es más grave. La actual crisis planetaria de la universidad, ya no sólo gravita sobre la investigación y la formación de postgrado sino que incluye la formación de pregrado y plantea interrogantes sobre el nexo entre universidad y formación básica.

En el caso colombiano una misión llamada de “sabios”, produjo el informe “Al Filo de la Oportunidad” (1995). El diagnóstico sobre la cultura científica en el país era sombrío. En el informe se planteó lo siguiente: “La idea de que la ciencia es una actividad que interesa sólo a unos pocos la convierte en un factor extraño a la sociedad y a la cultura colombiana. La poca comprensión pública del impacto de la ciencia en la vida cotidiana de todo ser humano, y del papel que ella puede cumplir en el mayor bienestar de la población, es un serio obstáculo para lograr que la investigación científica y la generación y uso del conocimiento se conviertan en factor de desarrollo”.

Pero ahora, a diferencia de hace casi veinte años, existe un vigoroso proceso de crítica a la universidad como hoy existe, aunque todavía es incipiente la idea de una nueva universidad acorde con los desarrollos de las ciencias de la complejidad. El propósito de la colección Ciencia y Sociedad de ediciones Desde Abajo es ayudar a transformar “…el presente en la construcción de mayores y mejores horizontes de posibilidades”. Es, pues, necesario poner estos diálogos en función de los procesos políticos en curso. Hagamos el esfuerzo para que así sea.