Un aficionado hace el primer avance de los últimos 60 años en un famoso problema de combinatoria

El llamado problema de Hadwinger-Nelson es de esas cuestiones matemáticas muy fáciles de formular y entender, incluso para los no expertos, como el problema del mapa de los cuatro colores o el último teorema de Fermat. Sin embargo, pese a esta aparente sencillez a menudo la solución resulta extraordinariamente sofisticada y requiere unas matemáticas que solo están al alcance de muy pocos expertos. Pese a ello, el autor del primer avance en el problema de Hadwinger-Nelson de los últimos 60 años ha sido un no especialista: Aubrey de Grey, un gerontólogo bastante conocido y mediático, que sostiene que es posible detener el proceso de envejecimiento.


El problema de Hadwiger-Nelson estudia coloraciones del plano. Se trata de dar un color a cada punto del plano de manera que todos los puntos que estén a distancia uno tengan asignado un color diferente. Si se quiere pintar de esta manera un plano, todo lo grande que queramos, ¿cuál es el menor número de colores necesarios? El problema fue planteado en 1950 por Edward Nelson, aunque algunos resultados relacionados ya aparecieron en un artículo de Hugo Hadwiger de 1945. Hasta hace poco, se sabía que la respuesta podía ser cuatro, cinco, seis o siete.


Efectivamente, no puede ser más de siete. Con solo siete colores se puede colorear el plano a partir de una teselación de hexágonos de diagonal ligeramente inferior a uno, en la que todos los polígonos adyacentes tengan un color diferente. Partimos de uno de los hexágonos y lo pintamos de un color, y los seis adyacentes de otros seis colores diferentes (y así sucesivamente). Si dos puntos están a distancia uno, como los hexágonos tienen diámetro menor que uno caerán en hexágonos diferentes y adyacentes, por lo que tendrán distinto color.


Las circunferencias que aparecen en el dibujo tienen radio 1.


Está claro entonces que siete es la cota máxima para el problema, pero, ¿hay una mínima? Para ver que ha de ser al menos cuatro, bastaría con encontrar una configuración de cuatro puntos que estén todos a distancia uno del resto (que, por tanto, no podrían colorearse con solo tres colores). Pero el caso es que no existe: cuatro puntos que disten todos uno entre sí forman los vértices de un tetraedro regular, cuyos vértices no están sobre el mismo plano. Sin embargo, son conocidas algunas configuraciones de puntos que necesitan cuatro colores (es imposible hacerlo con tres). Así sucede como los siete puntos del llamado “huso de Moser” que son los señalados en la siguiente imagen:


En 1961 los hermanos William y Leo Moser dieron esa configuración, y desde entonces no se había avanzado nada en el problema. Ahora Aubrey de Grey ha dado una configuración de puntos tales que necesitan al menos cinco colores para ser coloreados, es imposible hacerlo con cuatro. Aunque el ejemplo dado por Grey contiene 1581 puntos, el método para construirlo es descriptivo y no es excesivamente complicado. En los últimos días se ha conseguido rebajar la configuración hasta los 633 vértices, a través de un proyecto de Polymath(proyectos colaborativos en los que trabajan cientos de matemáticos a través de una página web), creado por el propio de Grey.


Con este avance, ya sabemos que para poder colorear cualquier grafo harán falta cinco, seis o siete colores diferentes. Para zanjar el problema existen dos posibilidades: que usando ideas parecidas a las de De Grey se encuentren estructuras con gran cantidad de puntos que requieran muchos colores para ser coloreadas (él ha encontrado una que necesita cinco, se trataría de encontrar otra con seis y, para solucionar el problema, necesitaríamos otra con siete). Así sabríamos que el número necesario para colorear el plano de forma que cualquier par de puntos a distancia uno tengan diferente color es siete. Si, por el contrario, la solución no es siete, es posible que sean necesarias nuevas técnicas totalmente desconocidas hasta el momento, porque no bastaría con ir descartando opciones con contraejemplos, sino dar un razonamiento general.


Alberto Márquez es Catedrático de Matemática Aplicada de la Universidad de Sevilla y Ágata Timón es responsable de Comunicación y Divulgación en el ICMAT

Sale a la luz la última teoría de Stephen Hawking: pueden existir otros universos muy similares al nuestro


El físico británico elaboró esta teoría cosmológica durante veinte años con Thomas Hertog, del Instituto de Física Teórica de Lovaina (Bélgica), y ambos la presentaron a la publicación para su revisión diez días antes de que el primero falleciera.


La última teoría científica, sobre el origen del Universo, desarrollada por el físico británico Stephen Hawking antes de morir el pasado 14 de marzo ha sido publicada este miércoles en la revista Journal Of High Energy Physics del Reino Unido.


Hawking, fallecido a los 76 años, elaboró esta teoría cosmológica durante veinte años con su colega Thomas Hertog, del Instituto de Física Teórica de Lovaina (Bélgica), y ambos la presentaron a la publicación para su revisión diez días antes de que el primero falleciera.


La nueva teoría Hawking-Hertog plantea que, a partir del Big Bang (el momento de formación del cosmos), el Universo se formó como un vasto y complejo holograma, de modo que pueden existir otros universos muy similares al nuestro.


Los dos científicos ofrecen además pautas matemáticas para que los astrónomos puedan buscar pruebas sobre la existencia de estos posibles universos paralelos.
La teoría publicada este miércoles matiza una hipótesis anterior, propiciada por los estudios del propio Hawking, que decía que, a partir del Big Bang, el Universo se expandió a partir de un punto minúsculo en un proceso conocido como inflación, creando infinitos universos -o "mutiversos"- que podían ser muy distintos al nuestro.
Esta formulación, derivada de las investigaciones de Hawking con su compañero estadounidense James Hartle en la década de 1980, planteaba el problema de que, si existen infinitos universos con infinitas variaciones en sus leyes físicas, no hay manera de predecir en qué Universo nos encontramos.


La teoría Hawking-Hertog propone que todos los universos existentes comparten las mismas leyes de la física, lo que implica que lo que se averigüe sobre este Universo puede aplicarse a otros.


El propio Hawking expresó en una entrevista en 2017 que nunca había sido "un fan" de la idea del "multiverso".


"No estamos reducidos a un único Universo, pero nuestros hallazgos implican una reducción considerable del 'multiverso', hasta un abanico mucho más pequeño de universos posibles", declaró el profesor antes de su muerte.


Teoría de las cuerdas


Hertog ha señalado este miércoles a la BBC que ni él ni su compañero estaban contentos con la idea de una infinidad de universos impredecibles. "Sugiere que el 'multiverso' surgió arbitrariamente y que no hay mucho más que decir", lo que no satisfacía a los científicos, ha afirmado.


Las investigaciones de ambos se basan en nuevas técnicas matemáticas desarrolladas para investigar una rama de la física conocida como "teoría de las cuerdas" -la idea de que las partículas materiales, en apariencia puntuales, son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda".
Hawking murió el 14 de marzo en Cambridge (Inglaterra), tras haber sufrido desde 1964 una enfermedad neurodegenerativa que le dejó inmóvil y le obligaba a comunicarse a través de un sintetizador de voz.


Además de sus investigaciones sobre la expansión del Universo y los agujeros negros, el cosmólogo adquirió fama por sus libros de divulgación científica, entre ellos "A Brief History of Time" ("Una breve historia del tiempo").

 

Londres
02/05/2018 19:23 Actualizado: 02/05/2018 19:29

Hirotugu Akaike durante una entrevista en 2006

 

Desde la experiencia propia y la creatividad, el investigador japonés formuló una ecuación para poder identificar el mejor modelo estadístico a aplicar en cada caso

Pocos científicos tienen el honor de que utilicen sus descubrimientos continuamente y en todo el mundo sin que se les conozca por algo más que por llevar el apellido en el hallazgo. Hirotugu Akaike es uno de esos extraños casos en el que su gran descubrimiento no viene acompañado de su recorrido académico y vital, más allá de unas pinceladas. Esa circunstancia revela dos aspectos de su personalidad: su discreción y que vivió entregado a la investigación.

Hirotsugu Akaike nació un 5 de noviembre, de 1927 en la provincia japonesa de Shizuoka, muy cerca del monte Fuji. Al finalizar la Segunda Guerra Mundial estudió matemáticas en la Universidad de Tokio y durante esos años también se casó y tuvo tres hijas. Su mujer falleció prematuramente y esa circunstancia lo marcó para siempre, aunque animado por sus hijas volvió a casarse de nuevo.

La carrera profesional de Akaike se desarrolló entre 1952 y 1994 en el Instituto de Estadística Matemática de Japón, donde terminó siendo director general antes de ser nombrado profesor emérito.

A principios de la década de 1950, el joven científico Hirotugu Akaike se hizo la crucial pregunta de cómo podría variar el resultado de una estadística según las variables que introduzcamos. Después de más de dos décadas de investigación, logró dar respuesta a su inquietud con una simple ecuación conocida como el Criterio de Información de Akaike.

Con el Criterio de Información de Akaike (AIC) los analistas seleccionan un modelo entre un conjunto de opciones que les permite conocer lo cerca que estarán los resultados de la verdad. AIC se basa en la teoría de la información de los datos de que disponemos.

Para el matemático japonés era tan importante la experiencia como la creatividad, y para encontrar una solución al problema de la calidad de las estadísticas, tener una experiencia propia y una sensación directa de lo que se conoce como vibraciones aleatorias, compró un ‘scooter’ y lo utilizó en las inmediaciones del monte Fuji. Esta experiencia de primera mano lo ayudó a diferenciar entre las vibraciones de conducir en carreteras normales y con mucho tráfico y hacerlo en un camino de montaña, algo que aplicó después a su descubrimiento.

Con más de un centenar de publicaciones científicas en prestigiosas revistas matemáticas y decenas de charlas y seminarios, en el año 2006 Hirotugu Akaike fue galardonado con el Premio Kyoto por el desarrollo del Criterio de información de Akaike (AIC), entre otros logros. El descubridor de cómo controlar las variables y los datos a la hora de plantearse una estadística para asegurar sus resultados como los más cercanos a la realidad murió en el año 2009, a los 81 años.

El buscador Google realiza hoy un homenaje a Akaike con un retratro del matemático en el día en que habría cumplido 90 años. El doodle presenta su cara en medio de una aproximación de funciones, parámetros y sus respectivas curvas para destacar el resultado de su trabajo más conocido en todo el mundo: el Criterio de Información de Akaike.

 

1509868066 437268 1509875919 sumario normal recorte1

Homenaje de Google al Dr. Hirotugu Akaike

 

Gracias a él, los resultados de las estadísticas nos gustarán más o menos, pero Akaike fue capaz de realizar una sistematización sobre como se afronta la elaboración de esta disciplina matemática y, además, garantizar su cercanía a lo más exacto posible a la realidad.

 

Conrad Wolfram.

 

Conrad Wolfram, físico que está cambiando la forma de enseñar matemáticas en Estonia, apuesta por eliminar el cálculo a mano

 

Conrad Wolfram (Oxford, 1970) piensa que tenemos un problema con las matemáticas. Nadie está contento: los estudiantes creen que es una asignatura difícil y sin interés, los maestros están frustrados con los resultados de sus alumnos y los gobiernos se dan cuenta de que son determinantes para la economía pero no saben cómo actualizar los programas académicos. "Cada vez vivimos en un mundo más matemático y sin embargo la educación está estancada", opina Wolfram, físico y matemático por la Universidad de Cambridge y fundador de Computer Based Math, una compañía centrada en rediseñar la asignatura de matemáticas que hace dos años lanzó su programa piloto en colaboración con el Gobierno de Estonia.

En 2010 Wolfram atrajo la atención de educadores y expertos en educación de diferentes partes del mundo con su charla TED Cómo enseñar a los niños matemáticas del mundo real, con más de 1,5 millones de reproducciones, en la que analiza los motivos por los que los estudiantes han perdido el interés en la asignatura que está detrás de las "creaciones más emocionantes de la humanidad", desde los cohetes hasta los mercados de valores.

Demasiadas horas de clase invertidas en aprender a calcular grandes divisiones y ecuaciones a mano. Ese es el gran fallo, según Wolfram, que apuesta por introducir la computación en las clases y dejar que sean las máquinas las que se encarguen del cálculo.

 

Pregunta. Si los niños no aprenden a calcular a mano y hacen las operaciones con el ordenador, ¿cómo van a entender lo que están haciendo?

Respuesta. Los matemáticos me odiarán por decir esto, pero antes de los ordenadores las matemáticas no eran muy útiles para el día a día, para la vida en general. Para cualquier campo en el que se usen muchos datos, como la física, la biología o la salud, la computación ha elevado las matemáticas a un estadio nuevo. Los problemas reales del siglo XXI solo se pueden resolver usando los ordenadores y por eso deben entrar en el sistema educativo como parte fundamental de la asignatura de matemáticas. Tener a los niños en las aulas calculando a mano ecuaciones de segundo grado ya no tiene sentido; hay que enseñarles a interpretar los datos y a sacar utilidad de las matemáticas. Enseñarles el funcionamiento básico está bien, pero complicarlo hasta la extenuación es una estrategia errónea que les aleja para toda la vida. Suelo poner el ejemplo de la conducción; no hace falta entender el funcionamiento de los motores para manejar un vehículo.

 

P. Algunos expertos sostienen que el cálculo ayuda a aprender el sentido de los números y es una buena herramienta para entrenarse en la toma de decisiones.

R. ¿Cuándo fue la última vez que multiplicaste 3/17 por 2/15? Probablemente lo aprendieras en la escuela pero nunca lo has vuelto a ejecutar. Muchos expertos dirán que multiplicando fracciones estás aprendiendo, pero solo estás recordando un proceso. Realmente no estás entendiendo para qué lo haces ni para qué sirve. Un ejemplo muy simple: en la ecuación x+2=4 te enseñaron que si pasas el dos a la derecha cambia de signo y se convierte en menos 2. Ahí tampoco entiendes qué estás haciendo. Las matemáticas tradicionales ya no tienen sentido y probablemente el 80% del contenido de la asignatura no es útil y nunca lo usarás fuera del aula.

 

P. Podrían decirle que dejarle el cálculo al ordenador en edad de aprender es de vagos.

R. Intentar saber cómo usar la computación no supone menos trabajo para el cerebro. Todo lo contrario. Los problemas a resolver son mucho más complejos y ahí es donde hay que entrenar a los niños. La programación es lo que equivaldría hoy al cálculo a mano, saber decirle al ordenador con códigos y números lo que tiene que hacer de forma muy precisa. Matemáticas, programación y pensamiento computacional deben ser la misma asignatura.

 

P. ¿Podría poner un ejemplo de esas situaciones de la vida real de las que habla?

R. Si te muestro los datos de dos webs y te pregunto cuál está funcionando mejor la primera pregunta que debes hacerte es qué significa mejor. Puede ser el tiempo que los usuarios pasan en cada una de ellas o las veces que hacen clic en alguna de las pestañas... En el mundo real puedes usar el machine learning o el análisis estadístico para medir y analizar resultados. Elegir qué opción funciona mejor en cada caso es complicado y ese tipo de conocimientos no se enseñan en la escuela. Las matemáticas son mucho más que el cálculo, aunque es comprensible que durante cientos de años se le haya dado tanta importancia, pues solo había una forma de hacerlo; a mano. Las matemáticas se han liberado del cálculo, pero esa liberación todavía no ha llegado a la educación.

 

P. Su empresa ha reinventado la asignatura de matemáticas para introducir la computación y ha introducido nuevas habilidades a evaluar como la comunicación matemática. ¿Cómo consiguió convencer al Gobierno de Estonia para implantarla en los colegios públicos?

R. Con 1,3 millones de habitantes, Estonia se considera el país más digital de Europa. Sus ciudadanos pueden votar, pagar impuestos, comprobar archivos médicos o registrar una empresa desde su ordenador de casa en pocos minutos. En el último informe PISA superó a los finlandeses en ciencias y matemáticas y es el nuevo referente en Europa en innovación educativa. Hace tres años conocí en unas jornadas a su Ministro de Educación, que es físico, y dos años después lanzamos el primer proyecto piloto, que se está usando en el 10% de los colegios públicos del país. Hemos centrado la asignatura, para estudiantes de Secundaria, en probabilidad y estadística y hemos cambiado el sistema de evaluación. Los alumnos aprenden a resolver cuestiones reales como por ejemplo ¿son las chicas mejores en matemáticas? o ¿mi estatura está en la media?. Ahora estamos en conversaciones con Irlanda y Australia.

 

P. ¿Han intentando ofrecer su programa a colegios innovadores de Reino Unido?

R. El colegio al que asiste mi hija, que tiene 13 años, ha modernizado la asignatura de historia. En nuestra época solíamos memorizar fechas y hechos históricos, y ahora va sobre cómo investigar. Su primer proyecto fue analizar la historia del colegio. En cambio, el programa de matemáticas sigue intacto, estancado. El impedimento fundamental para los colegios es la certificación, llegar a los estándares de conocimiento prefijados para después poder acceder a la universidad. Hay un hecho llamativo y es que hemos detectado que los países que ocupan mejores posiciones en PISA son los que están más abiertos al cambio y otros, como España, que lleva 15 años estancada con la misma puntuación, son más reacios.

 

P. La charla TED de 2010, ¿marcó un antes y un después en su carrera?

R. He trabajado durante más de 30 años con mi hermano en nuestra empresa de software Wolfram Research, que tiene la sede en Illinois, Estados Unidos, y suma unos 500 empleados. El mismo año de la charla TED monté un pequeño departamento en Oxford, con unas 30 personas, dedicado exclusivamente a repensar la asignatura de matemáticas. Nuestro lema es rediseñar las matemáticas reconociendo que existen los ordenadores. La idea se me ocurrió a partir del servicio que ofrecíamos para Apple, concretamente para Siri, su sistema de búsqueda por reconocimiento de voz. Si le preguntas por cualquier operación matemática compleja, en segundos te remite a nosotros. Ahí me planteé por qué obligamos a los estudiantes a dedicar tantos años de su vida a aprender lo que un teléfono resuelve en segundos.

 

P. ¿Cree que los gobiernos escucharían más la reforma que propone si fuese de la mano de una gran universidad como Cambridge?

R. En este momento Cambridge, Oxford, Harvard o el MIT son organizaciones comerciales y buscan el beneficio tanto como las empresas. Los gobiernos necesitan reflexionar sobre ello o no restar credibilidad a una iniciativa porque no ha surgido de una universidad. Lo que les frena es la falta de evidencias y creen que no hacer nada es menos arriesgado que probar nuevos métodos. El sistema educativo está fallando cada año más a los estudiantes y eso explica porqué no hay suficientes perfiles STEM (siglas en inglés de ciencia, tecnología, ingeniería y matemáticas). Los jóvenes tienen que encontrarles una utilidad: tener las habilidades para diferenciar una buena hipoteca o el suficiente escepticismo para cuestionar las estadísticas que ofrece el Gobierno. La desmotivación es uno de los grandes desastres de las matemáticas.

 

Abacus, la supercomputadora más potente de AL, es hoy una realidad

Abacus, la supercomputadora más importante en América Latina, es ahora una realidad y se encuentra en México.

Sus características sorprenden: posee una capacidad similar a la que tendrían 25 mil computadoras portátiles operando al mismo tiempo; es decir, puede almacenar 6 mil veces todos los libros (220 mil volúmenes) que se encuentran en la Biblioteca de México José Vasconcelos y transferir, en un parpadeo, el contenido equivalente a 13 discos en formato devedé.

Se trata de una nueva herramienta para impulsar programas de investigación científica especializados de alto nivel en el país. Uno de sus proyectos más relevantes, que se encuentra ya en marcha, es conseguir por vez primera un modelo fiel de los procesos neuronales del cerebro.

Abacus comenzó a operar hace dos años en el Laboratorio de Matemáticas Aplicadas y Cómputo de Alto Rendimiento Cinvestav-EdoMex, que será inaugurado formalmente en algunas semanas por el presidente Enrique Peña Nieto.

Su política de uso también la hace muy importante, porque dará acceso a gran poder de cómputo a especialistas de todo el país que trabajen en investigaciones de resonancia nacional y mundial, mediante la postulación de proyectos de investigación en convocatorias nacionales semestrales.

A la fecha, son más de 70 proyectos los que han utilizado a Abacus.

En 2011, el gobierno federal lanzó la convocatoria abierta para buscar propuestas que aumentaran la infraestructura científico-tecnológica de México, por conducto del Consejo Nacional de Ciencia y Tecnología (Conacyt), a través de su fondo mixto, en colaboración con el gobierno del estado de México.

El Centro de Investigación y de Estudios Avanzados (Cinvestav) del Instituto Politécnico Nacional (IPN) ganó con un proyecto elaborado por especialistas de su departamento de matemáticas, encabezados por el doctor Isidoro Gitler.

El sueño en ese momento era construir una "casa para los matemáticos", cuya parte medular sería una supercomputadora capaz de solucionar problemas complejos, con certeza y velocidad.

Luego de seis años, la realidad supera ahora las expectativas, explica Gitler en entrevista con La Jornada. Abacus tiene una capacidad de cómputo que excede los 400 teraflops, equivalentes a 400 millones de millones de operaciones aritméticas por segundo, con una capacidad de almacenamiento de 1.3 petabytes (un petabyte equivale a 10 a la 15 bytes), y procesadores de una velocidad de 40 gigabits por segundo.

Con esa máquina, destaca el matemático, México entra de lleno a la investigación científica y tecnológica de alto nivel internacional, para participar en temas de salud, energía, genómica, evaluación de seguridad nuclear, comunidades microbianas, dinámica de fluidos y sus aplicaciones en ciencia e ingeniería, diversidad biomolecular, farmacología, polímeros e inclusive fenómenos financieros y sociales.

Además, se ha promovido la participación del país en investigaciones globales relacionadas con eventos climatológicos extremos.

Por ejemplo, añade, “la tecnología actual ha permitido tener corazones artificiales a partir de modelos matemáticos bastante precisos; en la actualidad el gran reto es hacer lo mismo con el cerebro. En Abacus hay especialistas que ya trabajan en el estudio de las redes neuronales”.

Un trabajo de 150 años reducido a días

Esta supercomputadora es el proyecto tecnológico más ambicioso que se ha llevado a cabo en nuestro país en los recientes 30 años. Contó con una inversión inicial de 130 millones de pesos. Baste imaginar que el trabajo que una computadora normal podría realizar durante 150 años sin apagarla, haciendo una única tarea, se puede reducir a semanas o días con Abacus, que además tiene la capacidad para soportar el funcionamiento de varios programas a la vez, todos de libre acceso.

Si bien México ya ha tenido experiencia en supercómputo –por ejemplo en la Universidad Nacional Autónoma de México (UNAM) y en el propio Cinvestav–, Gitler narra que ésta había quedado relegada, respecto del avance tecnológico, pues “los equipos de trabajo no tenían una herramienta a la altura de lo que el talento científico hace en México. Cuando se instalaban las supercomputadoras no estaban dedicadas plenamente a proyectos de gran impacto o estaban atomizadas y su acceso era limitado.

“Nuestro objetivo principal es tener trabajando simultáneamente a investigadores, programadores, científicos de varias áreas y, posiblemente en algún momento, a especialistas de la industria, para lograr un verdadero cambio en el ámbito científico nacional. Hay que entender lo que viene en el futuro. Abacus es el sueño de muchos, no el fin, sino apenas la punta de un iceberg que nos pondrá en la vanguardia tecnológica para cerrar la brecha que nos separa de naciones europeas, asiáticas o de Estados Unidos.

“Imagino un panorama en que las universidades comiencen a tener supercomputadoras de 100 teraflops, para que los jóvenes, desde sus carreras, o antes, vayan entrando a este mundo. Esa es la estrategia nacional que es urgente consolidar.

"México requiere crear una plataforma muy bien pensada de supercómputo a escala nacional, pero tiene que ir totalmente en mancuerna con una red de carreteras informáticas robustas, que conecte a todos los centros generadores de conocimiento y tecnología, a las escuelas por delante. Ese es el siguiente paso", concluye el matemático.


Geometría, matemáticas y arte


Por Mónica Mateos-Vega

La supercomputadora Abacus se aloja en un edificio que diseñó el escultor Sebastián, construido a 2 mil 500 metros de altura, en medio del bosque de La Marquesa, en el estado de México.


Geometría, matemáticas y arte se conjugan en el inmueble de siete pisos, revestido de metal color plata, el cual contrasta con el verde de los oyameles, cedros y encinos.
Ahí es la sede del nuevo Laboratorio de Matemáticas Aplicadas y Cómputo de Alto Rendimiento del Cinvestav-EdoMex, en un área que abarca 6 mil metros cuadrados, el cual se inaugurá en algunas semanas, concebido también como centro educativo que busca convocar sobre todo a jóvenes para que aprendan las posibilidades de la computación de alta capacidad.


El edificio que Sebastián tituló Cuántica: simetría 5 recubre, sin tocarla, una estructura más pequeña de concreto, de lo que fue el centro de capacitación de la empresa Nestlé, concebido como búnker para las computadoras de esa compañía, que donó el predio y las instalaciones al estado de México.


Dentro de ese lugar, tras un cubo de cristal, está Abacus, que a la vista está formada sólo por varias filas de gabinetes negros, la misma arquitectura, eficiencia y tecnología de la supercomputadora Pleiades que utiliza la NASA, pues se trata de la misma empresa fabricante, la SGI (Silicon Graphics International), con procesadores de última generación.


Su equipo de enfriamiento la convierte, además, en una de las computadoras con menor huella ecológica en el mundo, pues utiliza un sistema de distribución de agua, fría gracias al clima exterior, que mantiene la temperatura adecuada entre menos 18 y 21 grados centígrados.


El doctor en matemáticas Isidoro Gitler, quien encabeza al grupo de especialistas del Cinvestav que impulsó la creación de Abacus, señala que en la actualidad, a escala internacional, “el reto no es quién construye la computadora más potente, sino quien hace una máquina cuyo consumo energético esté acotado y se pueda mantener, pues las supercomputadoras que tienen países como Japón o Europa, con gran capacidad, gastan la misma energía que una ciudad, con restricciones para crecer. Una más grande requeriría plantas nucleares para operar.


“En México, en este momento, tenemos todas las condiciones para hacer crecer a Abacus y mantenerla, de manera ecológica y sin que sea costoso. El gasto de mantenimiento es ahora poco, comparado con otras de su tipo.


“El Laboratorio de Matemática Aplicada propone una visión a futuro, pero sin olvidar de dónde venimos; es decir, siempre enfocados en tener la inquietud por calcular cosas y entender las leyes de la naturaleza; ése es también el espíritu del nombre de nuestra supercomputadora Abacus.”

“La economía convencional esconde la ideología con ecuaciones matemáticas”

La caída de Lehman Brothers en septiembre de 2008 y, con ella, la puesta en cuestión del orden económico mundial no se ha saldado, desgraciadamente, con un cambio profundo en la orientación de las políticas públicas que rigen la vida social. A pesar de la persistencia y de la relativa buena salud del neoliberalismo, el malestar provocado por la crisis está llevando a que cada vez más economistas realicen trabajos para refutar los mitos económicos dominantes. Uno de estos casos es el de Eduardo Garzón (Logroño, 1988) que, con su ensayoDesmontando los mitos económicos de la derecha. Guía para que no te la den con queso (Ediciones Península), ha construido todo un antimanual para mostrar la verdadera cara de la economía dominante: un laberinto de razonamientos con apoyo matemático destinado a enmascarar una ideología al servicio de la conservación del statu quo y de los privilegios de las clases dominantes.

 

¿Cómo es el proceso de aprendizaje de la economía en la universidad? ¿Qué efectos acaba produciendo en los futuros economistas?


Se trata de un adoctrinamiento sutil. La ciencia económica es algo muy plural, con múltiples enfoques. El problema es que se enseña solo uno de ellos y se priva a los alumnos de conocer el resto de las perspectivas. Las personas que acaban estos estudios terminan pensando que el enfoque aprendido es el único posible y, después, ejerciendo como profesores, empresarios o tertulianos, actúan como si conociesen la verdad absoluta.


Muchos economistas le dirían que estos juicios económicos vienen apoyados por razonamientos matemáticos...


Cuando hablamos de la Economía, nos referimos a una ciencia social sujeta al libre albedrío del ser humano. Todo tiene mucho más que ver con la ética, con la moral, con la política y con el poder que con la resolución de un problema matemático. Por ejemplo, si un ayuntamiento tiene un presupuesto para construir o bien un colegio o bien una iglesia pero no las dos cosas, ese problema no tiene una única solución, no va a haber ninguna ciencia exacta que nos diga qué hacer. Eso dependerá más bien de las preferencias de cada una de las personas que se vayan a ver afectadas por esta decisión, lo que nos traslada a un ámbito subjetivo y de opinión. Por tanto, cuando uno intenta aplicar a esta realidad tan compleja y tan subjetiva herramientas matemáticas, no está utilizando instrumentos verdaderamente útiles para entenderla.


¿Y los modelos matemáticos? Son herramientas muy precisas...


La corriente convencional en Economía utiliza modelos matemáticos, pero partiendo de una serie de premisas que son como verdades indemostrables, que se dan por ciertas y que constituyen las reglas del juego que condicionan los resultados de la aplicación de la lógica matemática. Estas premisas no tienen por qué asemejarse en absoluto a la realidad. Una de las más conocidas afirma que el ser humano es un ser racional y que consume bienes y servicios de acuerdo con una función que define sus preferencias. Pero esto es ilógico, porque cada persona es diferente y, por tanto, tenemos preferencias distintas que, además, están sujetas a una multitud de variables incontrolables que no se pueden materializar en una ecuación. Esta es una de las trampas de la ciencia económica convencional: tratar de presentar una ciencia social como una ciencia exacta a través de fórmulas matemáticas y de ecuaciones, disfrazando algo que en realidad es una ideología.


Este enfoque dominante tiende a fortalecer el statu quoy los intereses de las clases poderosas. Si quieres prosperar en el mundo económico convencional, se te va a pedir que utilices bien los postulados oficiales. Por ejemplo, en la universidad se te pide una serie de méritos que serán mayores si se ajustan a los postulados convencionales; en cambio, si utilizas un enfoque más marginal, al estar menos valorado, lo tendrás mucho más difícil para obtener esos méritos, para publicar en las revistas científicas, etc. El sistema se retroalimenta mediante este mecanismo.


Afirma que el mercado es una criatura del Estado. Un economista convencional tiende a ver el mercado como un resultado del orden espontáneo, del libre intercambio entre las personas, cuanto más libre, mejor...


Cuando uno se aleja de los postulados oficiales, no cuesta mucho entender que el mercado tiene numerosas reglas, un lugar en el que se producen las transacciones comerciales, un procedimiento para realizarlas, etc. Todas estas reglas han sido creadas por el ser humano y por las autoridades competentes y responden a decisiones públicas que pueden ser autoritarias o democráticas. De hecho, cada uno de los mercados que existen en el mundo es distinto porque responde a decisiones políticas diferentes.


Cuando se dice que se va a “desregular” el mercado, en realidad, se lo quiere regular en función de otros intereses distintos a los existentes. El mercado siempre está regulado. Las Administraciones Públicas, mediante el salario mínimo, por ejemplo, lo regulan para proteger a los más débiles. Los liberales abogan por una regulación del mercado que no proteja a ningún colectivo frente a otro y en la que cada uno juegue con el poder que tiene. Este es el error del liberalismo: no tiene en cuenta que nacemos con unas reglas del juego trucadas y con agentes económicos que tienen muchísima más influencia y poder, por lo que se acaba imponiendo la ley del más fuerte.


¿Qué les diría a las personas de clase media o media baja desilusionadas con la política y que prefieren tener todo el dinero en sus bolsillos y depender de sus propios ahorros, sin intervención pública?


Pues les diría que un autónomo, por muy buena voluntad que tenga, si empieza un negocio y tiene que competir con las multinacionales, que tienen muchos más medios, poder e influencia, va a acabar perdiendo siempre. Y que la solución no es darle más libertad; la solución está precisamente en el control de los abusos de poder de esas grandes empresas, lo que requiere rediseñar las reglas de juego. Lo público, que no tiene por qué ser la política “en minúsculas”, es una herramienta que hay que utilizar de la mejor forma posible, sin corrupción, de manera democrática y participativa para disminuir estos efectos perversos. No olvidemos que en el sector privado también hay corrupción y que esta no depende de la naturaleza pública o privada de las instituciones. Lo que hay que hacer es limitar el poder de determinados agentes para que no se produzcan abusos, cambiar las reglas de juego, proteger a los más desfavorecidos y controlar a los más poderosos.


Dice que un Estado monetariamente soberano puede crear todo el dinero que haga falta. Pero esta creación de dinero puede terminar generando mucha inflación...

Dinero se crea todos los días y, además, por mecanismos no controlados por la soberanía popular, como el dinero bancario. Los bancos privados, al conceder créditos, incrementan la cantidad de dinero que hay en circulación. ¿Y se nos dice que eso no genera inflación y, sin embargo, cuando lo hace un Estado, sí? Se trata de una postura meramente ideológica: nos han ocultado que los bancos crean dinero y nos han dicho que sería muy perjudicial que el Estado lo hiciera. El Estado no está constreñido financieramente para crear todo el dinero que quiera. Eso no quiere decir que crear todo el dinero que se quiera sea bueno. Pero la idea aquí es darle la vuelta al argumento dominante: un Estado puede crear dinero sin que las cosas empeoren y es bueno disponer de esta herramienta cuando haga falta para garantizar la satisfacción de nuestras necesidades.


¿La creación de ese dinero bancario está detrás del descomunal incremento de los precios de la vivienda en el pasado?


Por supuesto, eso es algo que también se oculta. En realidad, lo que provocó ese incremento de los precios fue la burbuja especulativa: muchos compraban para después vender más caro. Para eso necesitas dinero y el dinero bancario estuvo detrás estimulando esa conducta. Hoy día el dinero es una herramienta secuestrada; en el pasado, las autoridades públicas la utilizaban con mayor o con menor éxito pero, al fin y al cabo, estaba supeditada a decisiones políticas más o menos democráticas. Pero ahora la creación de dinero solo responde a decisiones del sector privado, mientras que la vía para generar dinero desde lo público está constreñida por disposiciones y reglas sobre el déficit público, sobre su financiación, etc. La creación de dinero fue privatizada hace tiempo y cada vez se intenta privatizar más, y esto responde a decisiones ideológicas más que técnicas. Cuando los bancos crean dinero, hacen negocio con él; cuando el Estado lo crea, nadie se lucra. Esta es la diferencia.


¿Una salida del euro implicaría un colapso económico al dejarnos con una gigantesca deuda en una moneda fuerte?


Evidentemente, salirse de una zona monetaria común de manera no pactada genera muchísimo desequilibrio. Otra cosa es si el impacto negativo se compensa por los beneficios de recuperar tu moneda y dejar de regirte por un proyecto neoliberal como el euro. Pero yo creo que el debate no es si nos salimos del euro o no, porque esta es una sola entre muchas variables. Si nos salimos del euro, aunque podríamos acceder a muchas herramientas para mejorar nuestra situación, teniendo a Rajoy de presidente y aplicando políticas neoliberales como las actuales, podríamos acabar incluso peor, ya que al menos ahora tenemos una moneda fuerte que tiene sus ventajas. El debate está, más bien, en torno a la correlación de fuerzas existentes: qué políticas vamos a aplicar, a quiénes van a beneficiar estas... esto es lo importante. Si tenemos una correlación de fuerzas que nos permita beneficiar a la mayoría, sí tendría sentido salir de la moneda única. Lo ideal sería conseguir dicha correlación dentro de la eurozona, pero se trata de algo que se me antoja más difícil todavía.


De lo que dice se deduce que una izquierda en un Estado monetariamente soberano se convertiría en una fuerte amenaza para el statu quo...
Si una izquierda llegara al poder con soberanía monetaria y pudiera crear el dinero para beneficiar a la mayoría tendría mucho margen fiscal para cambiar los desequilibrios de renta y de riqueza. Sería una de las herramientas más importantes, aunque no la única. No es casualidad que cualquier opinión en este sentido sea atacada con brusquedad para que estas ideas tan peligrosas no prosperen.


¿La política monetaria puede ser de izquierdas?

Efectivamente. La política monetaria y la política fiscal son dos caras de la misma moneda y tienen que estar controladas por la ciudadanía para que no se cometan los abusos que se producen ahora mismo y que benefician a una minoría.


Hablando de ideas peligrosas, ¿cómo explica que en tan pocas semanas hayan sido publicados dos libros de Juan Ramón Rallo criticando la política monetaria que usted defiende?


No hace falta darle muchas vueltas. Su propio autor ha manifestado haberlos redactado para controlar y frenar una serie de movimientos que considera muy peligrosos. Son peligrosos para los poderosos porque significa poner de manifiesto que existe una herramienta económica para servir a la mayoría social. Entonces se intenta frenar antes de que nazca.


Afirma que podemos generar empleo mediante el trabajo garantizado. Los liberales expresan numerosas críticas a esta medida y, además, los partidarios de la Renta Básica Universal también tienen sus objeciones...


Peor que lo que hoy hay, con más de cuatro millones de desempleados, no puede ser. Si pones a buena parte de esa gente a trabajar en actividades que mejoren nuestro bienestar, dicho bienestar aumentará de manera vertiginosa. Al remunerar determinadas actividades que son necesarias para la sociedad, estas dejan de ser voluntarias y pasan a la esfera pública, dignificadas, lo que incrementa el PIB al contabilizar una actividad que antes no se consideraba. La renta básica es otra opción, además, perfectamente compatible con el trabajo garantizado. Creo que debemos aspirar a una renta básica mayoritariamente en especie, es decir, que cada ciudadano solo por el hecho de haber nacido ya tenga derecho a un alojamiento, a una educación, a una sanidad, a una determinada cantidad de alimentos, etc. Y, después, quiere y puede trabajar en una serie de actividades que redunden en el bienestar de todos, que pueda hacerlo. El Estado sería el último garante de este tipo de derechos reconocidos. No tiene por qué haber incompatibilidad entre una y otra medida, siempre que se diseñen bien. Es perfectamente factible complementar estas medidas sin que ninguna vea mermadas sus virtudes.

Publicado enEconomía
El matemático francés Yves Meyer, durante una charla. CENTRE HENRI LEBESGUE

 

Un día de 1984, el matemático Yves Meyer se encontraba en la cola de la fotocopiadora en la Escuela Politécnica de Palaiseau, cerca de París. Uno de sus colegas de edificio, un físico, estaba imprimiendo un estudio sobre una nueva técnica para descomponer las señales sísmicas complejas registradas en los terremotos. Meyer se quedó fascinado. Cogió el primer tren a Marsella para conocer a sus autores. Hoy, aquella técnica, la teoría de las ondículas, es una de las aportaciones matemáticas que más ha transformado la sociedad: permite desmontar imágenes y sonidos en paquetes de información más sencillos que facilitan su manejo. Gracias a las ondículas podemos ver nuestro páncreas en un hospital, disfrutar de una película digital o comprimir nuestras fotografías de las vacaciones en formato JPEG-2000. Y, por desarrollar esta teoría, Yves Meyer ha ganado hoy el premio Abel, dotado con 675.000 euros y considerado el Nobel de las matemáticas.

Meyer nació en 1939 y se crió en el Túnez colonial francés. Aquello marcó su carácter a la hora de investigar. “De niño, me obsesionaba el deseo de traspasar las fronteras entre los diferentes grupos étnicos”, afirmó en una entrevista en 2011. Cuando se encontró en la fotocopiadora con la teoría de las ondículas, él era un matemático de 43 años experto en teoría de números, pero decidió saltar de disciplina. En aquel primer viaje a Marsella, conoció a Ingrid Daubechies, Alex Grossmann y Jean Morlet, tres de los pioneros de las ondículas. “Fue como un cuento de hadas. Sentí que por fin había encontrado mi hogar”, explicaba Meyer

La Academia Noruega de Ciencias y Letras, que concede el premio Abel, aplaude en un comunicado el “papel clave [de Meyer] en el desarrollo de la teoría matemática de las ondículas”. El investigador francés combinó los estudios fundacionales observados en la fotocopiadora con el trabajo del matemático argentino Alberto Calderón, pionero del análisis armónico. “Se sintió fascinado por esta relación inesperada entre teorías de naturaleza tan diversa. A mediados [de la década de 1980] dio forma a esta interconexión, dando una visión unificada de la teoría”, destaca en un comunicado el Instituto de Ciencias Matemáticas (ICMAT), en Madrid, donde Meyer fue miembro del comité científico.

El matemático francés, profesor emérito de la Universidad París-Saclay, hace un llamamiento a los grandes expertos de cualquier disciplina para cambiar de campo de investigación una vez que han agotado el suyo. “Yo no soy más listo que mis colegas con carreras más estables”, señala. “Siempre he sido un nómada, intelectual e institucionalmente”, remata.

Sus avances en la teoría de las ondículas también permiten la eliminación de ruido en señales complejas. Por ejemplo, en 2015, el trabajo de Meyer fue clave en la detección por primera vez de las ondas gravitacionales predichas por el físico Albert Einstein un siglo antes. El experimento LIGO, llevado a cabo por dos observatorios en EE UU, fue capaz de captar la deformación del espacio y el tiempo provocada por una onda gravitacional formada por el choque de dos agujeros negros hace 1.300 millones de años. El próximo 23 de mayo, Meyer recibirá el premio Abel en una ceremonia con el rey Harald de Noruega.

 

 

¿Cuántos granos de trigo pidió como recompensa el inventor del ajedrez?

Cuenta la leyenda que Sissa, inventor del juego de ajedrez pidió al Rey como recompensa que le entregaran 1 grano de trigo por la primera casilla, 2 por la segunda, cuatro por la tercera; y así sucesivamente doblando la cantidad anterior hasta llegar a la casilla 64 del tablero.


El Rey se sintió ofendido por tan mísera solicitud. Pero muy pronto los matemáticos de la Corte le informaron de la descomunal cantidad solicitada.


Voy con tres preguntas, la primera para el Aprobado, la segunda para el Bien y la tercera para el Excelente.
No intente adivinar, piense, indague y resuelva el problema.


Para evitar confusiones en el sistema de medida, 1 billón = un millón de millón, es decir a diez elevado a la doce 1012.
Para tener una idea más comprensible, asumamos que en un kilogramo (kg) hay 22 000 (22E+3 = 22*103) granos de trigo. Además 1 000 kg equivale a una tonelada métrica (TM).


I ¿Cuántos granos de trigo pidió Sissa, el genial inventor del juego de ajedrez?


Seleccione la respuesta correcta.


1. Menos de 500 millones de granos de trigo, aprox., menos de 22,727E+3 TM


2. Entre 500 y 1000 millones de granos de trigo, aprox., entre 22,727E+3 y 45,454 TM


3. Entre 1000 millones y 1000 billones de granos de trigo, aprox., 45,454E+3 y 4,5455E+10 TM


4. Entre 1000 billones y 1000 trillones de granos de trigo, aprox., entre 4,5455E+10 y 4,5455E+16 TM


5. Más 1000 trillones granos de trigo, más de 4,5455E+16 TM.


II ¿Podía el Rey pagarle a Sissa la cantidad de granos de trigo solicitada?


III ¿Si usted hubiese sido uno de los consejeros del Rey, qué le hubiese aconsejado para quedar bien con Sissa?


Entre las mejores respuesta aplicaré una selección aleatoria para premiar al autor con un libro titulado “Ajedrez: juego ciencia y con ciencia”, del Dr. C. Lázaro Bueno.


Y para Tati y los alérgicos a la Matemática, aquí va un salve refranero


“Haz bien y no mires a quien”.


Escribe al menos uno que lo refuerce


Escribe al menos uno que lo contradiga.


¡Manos y mente a la obra!

Publicado enCultura
¿Qué dice El teorema fuerte del libre albedrío?

La libertad no consiste en hacer lo que se quiera. Por el contrario, consiste en el hecho de que el pasado no determina las acciones del presente. En otras palabras, el presente inaugura permanentemente nuevos horizontes y dimensiones, indeterminados, por definición.



En febrero del año 2009, publicado inicialmente en Arxiv, y luego oficialmente en la revista Foundations of Physics, J. Conway y S. B. Kochen publican El teorema fuerte del libre albedrío (The Strong Free Will Theorem), un texto que, a simple vista, diera la impresión de ocuparse de temas propios de la filosofía. Ambos autores se encuentran en la punta del conocimiento en matemáticas y en teoría cuántica. Dos auténticos monstruos del conocimiento y la investigación.
Un texto de seis páginas a doble columna, se trata de la demostración de un teorema cuyo enunciado no presenta dificultades. Pero cuyas consecuencias son, literalmente, descomunales.


La demostración del teorema dice que, supuesto que los seres humanos disponen de libre albedrío, en el sentido preciso de que nuestras acciones no son el resultado de otras acciones que tuvieron lugar en el pasado, bajo algunas asunciones, lo mismo debe poder decirse de algunas partículas elementales. Dicho sin más: el universo tiene libre albedrío ya desde las escalas más fundamentales de los fotones y partículas elementales. Libre albedrío no es sino el término anglosajón para designar, simple y sencillamente, libertad. Traducido al lenguaje de la psicología y de las ciencias del comportamiento: las partículas elementales se comportan —son agentes libres—, tales como usted y yo.


Pues bien, la posibilidad de que pueda hablarse de las partículas elementales del universo —protones, electrones, gluones, mesones, quarks, leptones, y varios más (todos los cuales conforman el ABC del Modelo Estándar en la física actual junto con otras particularidades)— como dotados de libertad y, por consiguiente, no determinados por el pasado, tiene consecuencias enormes. Las dos más evidentes saltan ante la mirada sensible, a saber: las partículas elementales están dotadas de conciencia, o bien, lo que es equivalente, están vivas.


La primera tesis se denomina el panpsiquismo. La segunda, que es en realidad el equivalente no ya desde el punto de vista de la conciencia, sino de la vida, es el panteísmo. Son pocos, han sido muy pocos los filósofos y científicos que han defendido, abiertamente, el panpsiquismo o el panteísmo —dos caras de una sola y misma moneda.


(El primero en la historia moderna en defender el panteísmo, B. Spinoza (1632–1677), fue objeto de críticas y mantos de olvido de parte de filósofos, científicos y religiones e iglesias. Spinoza, filósofo racionalista, una de las fuentes de las que habría de beber la Ilustración, y con ella, el movimiento Enciclopedista que se tradujo en la revolución francesa de 1789).
Algunos de los científicos y textos que han defendido, con seriedad, recientemente la idea de un panpsiquismo y/o panteísmo son: S. Kauffman (2016), Humanity in a creative universe; H. P. Stapp (2011), Mindful universe: quantum mechanics and the participating observer; J. Gribbin (1994), In the beginning: birth of the living universe. Existen varios otros trabajos con títulos semejantes, pero, científica y filosóficamente, son bastante cuestionables.


Subrayemos esta idea: la libertad no consiste en hacer lo que se quiera. Por el contrario, consiste en el hecho de que el pasado no determina las acciones del presente. En otras palabras, el presente inaugura permanentemente nuevos horizontes y dimensiones, indeterminados, por definición. En este punto la teoría cuántica y las ciencias de la complejidad coinciden y se refuerzan mutuamente.


La libertad fue un tema que tradicionalmente tuvo una atmósfera antropológica, antropomórfica, antropocéntrica. Solo los seres humanos eran libres y solo de los seres humanos podía predicarse la libertad. Concomitante con esta idea, los seres humanos poseían un rango alto en la jerarquía del universo y de la realidad.


En una historia que no cabe contar aquí más que resumidamente por motivos de espacio, esta concepción ha cambiado de manera radical, con avances en numerosas ciencias y disciplinas en tiempos recientes. Hasta llegar a la más fundamental —esto es, básica— de todas las escalas: las partículas últimas constitutivas del universo.


Se trata de los descubrimientos, en orden descendente, según los cuales los primates poseen inteligencia y cultura, análogamente a los seres humanos. O bien, que las aves tienen matemáticas, sólo que con base cuatro o siete, y no con base diez, como sucede en la actualidad con los humanos. O bien, que hay insectos sociales cuya inteligencia y capacidad de aprendizaje supera con mucho, para efectos de evolución, la propia capacidad de los seres humanos. Gracias a ellos, por ejemplo, hemos aprendido un concepto diferente de inteligencia, a saber: la inteligencia de enjambre.


Al nivel de las plantas, hemos llegado a descubrir que poseen veinte sentidos (los seres humanos sólo cinco), y que se comunican, se desplazan, modifican el entorno y aprenden, de tal suerte que se constituyen en el fundamento de toda la vida en el planeta. En efecto, el 97 de la biomasa de la Tierra son plantas.


Asimismo, hemos llegado a saber que incluso las bacterias procesan información de modo inimaginable para los seres humanos, y que poseen una inteligencia propia, perfectamente distinta a las conocidas. Al cabo, toda la existencia en el planeta se debe ulteriormente a la importancia de las bacterias, lo cual ha dado lugar al descubrimiento del bacterioma.
Incluso, un nivel más abajo, hemos logrado saber que los virus —cuyo núcleo de estudio se conoce como el viroma— se comunican con base en estructuras perfectamente estéticas, en términos de quimiotaxis; es decir, comunicación química.
De esta suerte, cabe precisar la importancia del paper de Conway y Kochen. Descendiendo desde los humanos hasta llegar finalmente a las partículas elementales, existe conciencia y vida de formas que ni se fundan ni coincide necesariamente con el modo humano de entender ambos temas. Una auténtica revolución.


Recabemos en esto: trabajando en la combinación entre matemáticas y física cuántica, hemos llegado a saber que la conciencia y la vida son ínsitos a la naturaleza, al universo mismo. Extraigamos la conclusión: no hay vida en el universo, el universo mismo está vivo; no hay inteligencia en el universo, el universo mismo es inteligente. Una conclusión que pone nerviosos a los más conservadores.

Lunes, 23 Enero 2017 06:44

¿Qué es el Programa Langlands?

¿Qué es el Programa Langlands?

La idea de base del Programa Langlands es la simetría, sin duda uno de los ejes verticales fundamentales del mundo y de la realidad. Lo que busca el Programa Langlands es sencillamente construir puentes en el numeroso archipiélago que son las matemáticas.


Una mirada externa a las matemáticas sugiere que estas se dividen entre matemáticas puras y matemáticas aplicadas; o bien entre las matemáticas de sistemas continuos y las de sistemas discretos; o acaso también entre las matemáticas puras (la teoría de números, notablemente) y aquellas más vinculadas a la física (física matemática) o a la economía (matemáticas financieras), por ejemplo. Y para muchos permanece aún la duda acerca de si las matemáticas son de verdad una ciencia, o un lenguaje; a saber: el lenguaje de las ciencias.


Robert P. Langlands es un matemático canadiense que, en 1967 inicialmente y luego también en 1970, lanzó lo que ya ha llegado a conocerse como “El Programa Langlands”. Se trata de una ambiciosa propuesta —una serie de conjeturas— que vinculan los grupos de Galois, la Robert P. Langlands algebraica con las formas automórficas y la teoría de la representación de grupos algebraicos con campos locales y anillos de adele. En un palabra: el Programa Langlands es la primera teoría que propone una Gran Teoría Unificada de las matemáticas. Algo que hasta entonces jamás se había pensado ni propuesto.


Los físicos nos han acostumbrado, desde cuando se configuró el Modelo Estándar, a la idea de una Gran Teoría Unificada —un sueño que a la fecha permanece más como un deseo—. Hay varia versiones de esta teoría, pero la forma más elemental consiste en decir que busca unificar la teoría del macrocosmos —la teoría de la relatividad— con la teoría del universo subatómico —la física cuántica—. Existen varias propuestas que buscan alcanzar una teoría semejante. Para usar una expresión cara a los físicos, se trata, sin más ni más, de leer la mente de Dios.


Pues bien, en matemáticas algo análogo jamás se había propuesto antes de Langlands —un matemático activo que actualmente trabaja como Profesor Emérito en la oficina que alguna vez fue la de Einstein en el Instituto de Estudios Avanzados de Princeton—. Langlands ha sido reconocido con los más grandes premios y honores que un matemático puede alcanzar, con la excepción de la Medalla Fields (el Premio Nobel en Matemáticas), por cuestiones de edad (sólo se puede recibir la Medalla Fields cuando se tiene menos de cuarenta años de edad).


La idea de base del Programa Langlands es la simetría, sin duda uno de los ejes verticales fundamentales del mundo y de la realidad. Lo que busca el Programa Langlands es sencillamente construir puentes en el numeroso archipiélago que son las matemáticas. Dicho escuetamente, el Programa Langlands se propone ordenar —matemáticamente— la información. “Crear orden a partir del caos”, algo que no resuena muy lejos para quienes conocen algo los trabajos de E. Lorenz sobre el caos, o de I. Prigogine sobre termodinámica del no–equilibrio.


En matemáticas una conjetura tiene una connotación perfectamente distinta a la que se usa en filosofía o en epistemología, por ejemplo. Mientras que en estos campos tiene una acepción semejante a “verdad provisoria”, en matemáticas es una afirmación que se supone cierta, pero que no ha sido demostrada ni refutada. Algunos ejemplos conspicuos de conjeturas matemáticas son el último teorema de Fermat, la Conjetura de Goldbach, la hipótesis de Riemann, el Problema P vs NP, la Conjetura de Birch y Swinnerton–Dyer, o la Conjetura de Poincaré (demostrada hace poco por G. Perelman). Como se aprecia, sin ambages, se trata notablemente de los Problemas del Milenio (planteados por el prestigioso Instituto Clay de matemáticas).


En matemáticas una conjetura es bastante más que una “hipótesis de trabajo”. De entrada, es una afirmación cierta, pero que debe ser confirmada o refutada.


En el Programa de Langlands, la unidad básica no son ya los números naturales. Estos son transformados en espacios vectoriales, con lo cual se ganan muchos grados de libertad. Los números cobran vida en forma de espacios vectoriales. Por ejemplo, sólo es posible restar 2 a 3 de un modo preciso. Pero es posible inscribir una recta en un plano de muchas formas diferentes. Mientras que los números naturales —Ν—, forman un conjunto, los espacios vectoriales forman una estructura más sofisticada: una categoría. Pues bien, la teoría matemática de categorías se adapta muy bien a la informática, y a través suyo a las ciencias de la computación. La computación del futuro se basará más en la teoría de categorías que en la teoría de conjuntos.


En otras palabras, el Programa Langlands organiza información previamente inaccesible en la forma de patrones regulares, tejiendo así un fino tapiz de números, simetrías y ecuaciones. El resultado es la integración de campos, problemas y dimensiones que hasta la fecha permanecían disyuntas. En términos elementales, análogamente a lo que hacen las ciencias de la complejidad, el Programa Langlands nos ayuda a pensar en términos de patrones —algo que no es difícil de llevar a cabo.


En consecuencia, ya deja de ser cierto que los seres humanos —y los matemáticos— piensan, o bien en términos geométricos o bien en términos algebraicos; digamos en términos de mapas, cuadros y figuras, o bien en función de signos y las relaciones entre estos. Más auténtica y radicalmente, podemos aprender a pensar en la forma de síntesis —algo perfectamente inopinado para una cultura y una civilización acostumbrada a pensar en términos de análisis.


Un texto en donde se estudian éstos y otros temas próximos y afines es el de E. Frank, con un título bizarro y profundo a la vez: Amor y matemáticas (Bogotá, Ed. Ariel, 2015). Un documental de cerca de una hora con el título Rites of Love and Math se encuentra disponible en YouTube, para aquellos que tienen (o tenemos) una cultura más visual. (Ver documental).


En resumen, el Programa Langlands es matemáticas de punta que nos conduce y nos sitúa a la vez en la frontera del trabajo en matemáticas, allí donde, sorpresivamente, nos encontramos con otros campos como los grupos cuánticos, la criptografia, el grupo de gauge, la teoría de branas, en fin, sin ambages, el punto de encuentro en las matemáticas y la vida. Un punto nada trivial.

Publicado: 22 Enero 2017

Página 1 de 3