Lunes, 21 Noviembre 2016 06:39

¿Qué es la teoría de grupos?

¿Qué es la teoría de grupos?

Gracias a la teoría de grupos, las matemáticas del siglo XIX y hasta nosotros consisten, en una de sus principales avenidas, en el estudio y comprensión de los grupos de simetrías que fundan y en los que se expresa la realidad y la naturaleza.



Cada época desarrolla y aprende los lenguajes que necesita para comprender y describir el mundo y la realidad. Las dinámicas de la naturaleza coinciden plano por plano con las dinámicas mismas mediante las cuales aprendemos nuevos lenguajes. Las matemáticas constituyen un ejemplo magnífico al respecto.


Desde la antigüedad, la familia humana ha estado apasionada por la simetría. De manera atávica, y no sin buenas razones, la simetría ha sido vinculada a la belleza, y la ausencia de simetría a la fealdad. U. Eco escribió dos libros al respecto: Historia de la belleza e Historia de la fealdad, con la que, literalmente, se puede ilustrar la idea de base.


En matemáticas, las simetrías minimizan energía y ahorran trabajo e información. En dos palabras, la simetría es el estado más estable y eficiente. Y, sin embargo, son sumamente difíciles de alcanzar. En la base de la idea sobre cómo crecen las cosas en la naturaleza se encuentra la simetría, y así las matemáticas se extienden hacia la química y la biología. La verdad es que la física fundamental, la química y la biología dependen de una amplia variedad de objetos simétricos. Desde el lenguaje hasta la adaptación, desde los virus hasta cada paso del desarrollo evolutivo.


Específicamente, el trabajo sobre simetrías conduce a uno de los terrenos más álgidos de las matemáticas: la teoría de números, la cual, por ejemplo, descansa sobre los números primos. Los números primos son, por así decirlo, los ladrillos de todos los otros tipos de números.


Pues bien, el estudio de las simetrías despega, por así decirlo, gracias a los trabajos de E. Galois, en el siglo XIX. Galois pone de manifiesto, por primera vez en la historia, que la verdadera esencia de las simetrías de un objeto no se encuentran cuando nos fijamos en ellas, una por una. Una simetría al lado de otra, una simetría con la siguiente. Por el contrario, hay que estudiarlas en grupo. Y es exactamente en esto en lo que consiste la teoría de grupos.


Esto significa, de manera precisa, que es preciso pensar la simetría no como algo pasivo, sino como algo activo. Si bien es cierto que la simetría es una propiedad del espacio, se trata de una propiedad activa.


Gracias a la teoría de grupos, las matemáticas del siglo XIX y hasta nosotros consisten, en una de sus principales avenidas, en el estudio y comprensión de los grupos de simetrías que fundan y en los que se expresa la realidad y la naturaleza. Es así como existen, hoy en día, la tabla periódica de los grupos —en la teoría de grupos—, y el Atlas de la simetría, dos obras colosales del pensamiento abstracto.


En efecto, el estudio de la simetría —que coincide, plano por plano, con el estudio de la geometría— pone de manifiesto que para comprender las simetrías debemos abandonar el espacio euclidiano de tres dimensiones.


La teoría de grupos —por ejemplo, los grupos de Lie, o los grupos esporádicos— consiste en el aprendizaje de un lenguaje, a saber: el lenguaje de las simetrías de la naturaleza, que desbordan con mucho los ámbitos inmediatos, aplicados, del pensamiento y la existencia.


Existen grupos y simetrías elementales, indivisibles y divisibles, y toda una variedad, que conduciendo a agrupaciones pares e impares, todas las cuales justamente desembocan en la Tabla Periódica de Grupos, que se compone de 24 grupos de simetrías, y en el Atlas de la Simetría, alcanzados ya a finales del siglo XX.


De manera puntual, existe un grupo de simetrías magnífico que se denomina técnicamente como el Monstruo. Pues bien, la dimensión del espacio más pequeño en el que podemos representarnos a este grupo es de 196.883. La dimensión siguiente en la que podemos representarnos al Monstruo es 842.609.326. Como se lee.


El Monstruo es el grupo de simetrías del universo. Un objeto que cuando se aprecia aparece verdaderamente hermoso, y complejo.


Esto mientras que la inmensa mayoría de las ciencia sociales y humanas permanecen en el espacio de tres dimensiones, y mientras un campo de la física —la teoría de cuerdas— le apunta a espacios de once dimensiones. El contraste es notable y apasionante.


Es el reto del pensamiento abstracto, algo que culturalmente, en ocasiones, aparece subvalorado o despreciado.
En la vida común y corriente dos objetos pueden parecer muy diferentes y, sin embargo, tener las mismas simetrías subyacentes. Pues bien, la naturaleza de la simetría subyacente de un objeto empieza a hacerse evidente sólo cuando se comienza a explorar qué pasa cuando se combinan movimientos simétricos.


La historia de las matemáticas pone en evidencia cómo diferentes culturas y momentos de la historia se han enfrentado con el descubrimiento de nuevos tipos de números. La complejidad de la naturaleza va de la mano con la complejización de los tipos de números. Los números enteros, los racionales, los irracionales, los trascendentes —todos los cuales quedan comprendidos como los números reales.


Adicionalmente, los números irreales, los números complejos, los imaginarios, y las formas modulares. Pues bien, el estudio de las simetrías, sobre la base de la teoría de grupos, ha dado lugar a un nuevo tipo de números: los números surreales. Que son, al parecer, los números que caracterizan, en las matemáticas de punta, a nuestra época. Aunque la mayoría de ciencias y disciplinas permanezcan ignorantes de ello.


Sin embargo, en la esfera de la cultura, las simetrías y la teoría de grupos han logrado un anclaje sólido, aunque poco conocido, o degustado por el gran público. Los dos ejemplos más conspicuos son la música dodecafónica de A. Schönberg (Austria) y la música atonal de I. Xenakis (Grecia).


No sin buenas razones, se ha dicho incluso que la teoría de grupos ha llegado para salvar e impulsar a la complejidad. Muy notablemente a la complejidad computacional. Pero ese ya es otro tema aparte. Digamos, simplemente, que mientras que la simetría es una propiedad del espacio, el tiempo es irreversible. En otras palabras, la flecha del tiempo desvirtúa la simetría. Pero la complejidad computacional merece su propio espacio para otro momento.

Miércoles, 05 Octubre 2016 06:39

La carrera hacia la supercomputadora

La carrera hacia la supercomputadora

Tres británicos radicados en Estados Unidos fueron galardonados por sus avances en las ciencias de los materiales. Sus logros abren la puerta a la creación del “ordenador cuántico”, mucho más potente que las computadoras actuales.

 

La velocidad de las computadoras ya no alcanza: la gran carrera tecnológica actual es lograr el “ordenador cuántico”, una supercomputadora revolucionariamente más potente que las existentes hoy. Grandes empresas informáticas y gobiernos están detrás de ella. La NASA también, según los documentos revelados por el entonces agente Edward Snowden. El problema para lograrla son los materiales. Y a esa búsqueda aportaron los tres científicos británicos que ayer se alzaron con el Premio Nobel de Física: lograron nuevas perspectivas en el desarrollo de materiales innovadores que podrían tener aplicaciones en la próxima generación de la electrónica.


David Thouless, Duncan Haldane y Michael Kosterlitz fueron galardonados por sus investigaciones sobre los estados “exóticos” de la materia, que en el futuro podrían ayudar a crear estos ordenadores cuánticos.


Los tres científicos descubrieron inesperados comportamientos de la materia y concibieron el marco matemático para explicar esas extrañas propiedades. “Sus descubrimientos permitieron avances en la comprensión teórica de los misterios de la materia”, describió la Fundación Nobel.


Es que en lo más profundo del corazón de la materia se esconde un mundo exótico. Los átomos oscilan en sincronía o forman parejas de vórtices microscópicas. Ese tipo de fenómenos, que normalmente se producen a temperaturas muy bajas, pueden generar sorprendentes nuevas cualidades materiales. A temperaturas bajísimas, algunos metales pierden toda resistencia eléctrica, mientras que líquidos ultrafríos se deslizan hacia arriba ante la fuerza de la gravedad de las paredes del recipiente que los contiene. Esos raros comportamientos a escala microscópica vienen dictados por las leyes de la física cuántica.


Eso estudiaron los tres científicos premiados. Thouless, de 82 años, nacido en Escocia, es profesor emérito en la Universidad de Washington en Seattle (noroeste de Estados Unidos). Obtuvo la mitad del premio, es decir 417.000 euros. La otra mitad será repartida entre Haldane, de 65, nacido en Londres, que enseña en la universidad estadounidense de Princeton (Nueva Jersey), y Kosterlitz (74), también escocés, de la Universidad Brown en Providence (Rhode Island, Estados Unidos).


“La mayoría de los grandes descubrimientos se producen de esta manera: te caen encima y tienes la suerte de darte cuenta que estás ante algo muy interesante”, declaró Haldane tras anunciarse el premio.


“Los premiados de este año abrieron la vía a un mundo desconocido donde la materia puede pasar por estados exóticos. Emplearon métodos matemáticos para estudiar fases o estados inhabituales de la materia, como los superconductores, los superfluidos y las cintas magnéticas finas”, explicó la Fundación Nobel.


Los superconductores son materiales capaces de conducir corriente sin ofrecer resistencia (es decir, sin generar calor) y además no permiten que un campo magnético externo penetre en su interior.


Thouless, Haldane y Kosterlitz estudiaron los “aislantes topológicos”, una nueva forma de materiales cada vez más conocidos en los últimos diez años. Estos superconductores tienen aplicaciones potencialmente revolucionarias para concebir ordenadores cuánticos.


Los grandes grupos informáticos y los laboratorios de investigación trabajan desde hace años sobre los ordenadores cuánticos, que serían mucho más potentes que los actuales, pues son capaces de utilizar sorprendentes propiedades de las partículas, lo que permite escapar de las reglas de la física clásica.


La información más elemental de los ordenadores actuales es un “bit”, un sistema necesariamente binario (0 o 1). Un ordenador cuántico usaría “quantum bits” o “qubits”, capaces de tener varios valores al mismo tiempo y, potencialmente, hacer un mayor número de cálculos de forma paralela, lo que reduciría enormemente el tiempo necesario para realizar una tarea.


La principal dificultad para concebir semejante computadora es que es particularmente frágil: hay que aislar individualmente todas sus partículas de influencias exteriores para preservar su estado cuántico, lo que requiere temperaturas muy bajas y cámaras protegidas contra radiaciones electromagnéticas.


Y aquí entran en juego esos “aislantes topológicos”, que tienen las particularidad de conservar sus propiedades en estados “extraños” o “exóticos”, como el frío extremo

Domingo, 18 Septiembre 2016 05:40

¿Existe el cero?

¿Existe el cero?

Imaginemos a un gran ejército romano avanzando marcialmente para conquistar las Galias. Una docena de galos furibundos se lanzan contra los invasores y chocan frontalmente con la compacta formación. ¿La detienen? Obviamente no (a no ser que sean Astérix, Obélix y sus colegas); pero algunos soldados romanos reciben directamente el impacto de otros tantos galos y se detienen por un instante, hasta que sus compañeros los arrastran en su avance colectivo. Visto desde lejos, el ejército ha seguido avanzando como un único bloque sin alterar su marcha en ningún momento.


Pues bien, si pensamos en una locomotora y una mosca, no como objetos perfectamente compactos, sino como dos enjambres de átomos (o un enorme ejército y un minúsculo comando suicida), la paradoja planteada la semana pasada desaparece (aunque no del todo: dejo el corolario en manos de mis sagaces lectoras y lectores). La cosa cambia si pensamos en términos de física clásica o de mecánica cuántica, pero en ambos casos hay solución; y, de hecho, cuando una mosca choca frontalmente con un tren, este no se detiene (como dijo Diógenes en respuesta a las paradojas de Zenón, el movimiento se demuestra andando).
En cualquier caso, nos enfrentamos una vez al binomio continuidad-discontinuidad, que apareció recurrentemente al hablar del infinito. Percibimos el espacio, el tiempo y cuanto hay en su seno como entidades continuas; pero ya Demócrito y Epicuro cuestionaron esta visión intuitiva, y la física contemporánea les ha dado la razón.


El mayor logro de la mente humana


Hace unas semanas nos preguntábamos si existe realmente el infinito, es decir, si es algo más que una entelequia o un mero concepto matemático (pregunta que suscitó una auténtica avalancha de comentarios: más de 2.300). Y ahora que llevamos varias semanas barajando infinitesimales, es casi obligado hacerse la pregunta complementaria (que en más de un sentido viene a ser la misma): ¿Existe, más allá de las matemáticas, lo infinitamente pequeño? ¿Y el cero? Los científicos hablan del cero absoluto, pero ¿se corresponde dicho concepto con una realidad física concreta?


Y un par de preguntas más relacionadas con las anteriores: ¿Existe la nada? ¿Es lo mismo “nada” que “cero”? Huelga señalar que no planteo estas preguntas como acertijos a resolver, sino como temas de reflexión.


Casualmente (o tal vez no), en estas mismas páginas hay un interesante artículo sobre Amir Aczel, “El matemático que pasó su vida buscando el 0”. Aczel afirma en un libro de reciente publicación que el cero es “el mayor logro intelectual de la mente humana” (un invento -o descubrimiento- indio, por cierto, lo que le confiere un cierto cariz conmemorativo al billete de cero rupias). ¿Estamos de acuerdo con Aczel? ¿Qué otros inventos/descubrimientos podríamos proponer como máximos logros intelectuales de la humanidad?

Por Carlo Frabetti, escritor y matemático, miembro de la Academia de Ciencias de Nueva York. Ha publicado más de 50 obras de divulgación científica para adultos, niños y jóvenes, entre ellos, Maldita física, Malditas matemáticas o El gran juego. Fue guionista de La bola de cristal.

Jueves, 25 Agosto 2016 09:54

Política y matemáticas. Revisitadas

Política y matemáticas. Revisitadas

Las matemáticas constituyen un ámbito rico y en permanente evolución y desarrollo. Y cuanto más tarde la política en acercarse y aprender de matemáticas, tanto peor serán sus padecimientos.

La historia de la política a lo largo de la historia de la humanidad es la de una profunda asimetría. Asimetría de información, asimetría de grados de libertad, en fin, asimetría de riqueza y bienestar. Ahora bien, desde el punto de vista matemático, la asimetría es sinónimo de fealdad. Así las cosas, el mundo de donde venimos es, en verdad, un mundo feo. Que ha tratado de ser amable y mejor, pero que es esencialmente feo.


Pues bien, la fealdad es la expresión estética y matemática que se traduce en términos precisos: violencia, corrupción, inequidad, pobreza e injusticia.


En apariencia, no existen muchas relaciones entre matemáticas y política. Acaso las ideas matemáticas anclan muy mal en el mundo empírico, o no anclan en absoluto. Así las cosas, estaríamos abocados a un dualismo en el conocimiento. El cual se traduce entonces en un dualismo en formas de vida y demás. Una historia ya conocida y cuyos ejemplos en la historia no son precisamente los mejores. Al fin y al cabo, la superación del dualismo no es sino la expresión abstracta de la idea por pensar y hacer posible un mundo bueno —justo— equitativo.


Platón lo tenía claro, a su manera. En la República (Politeia), sostiene que la base de la justicia es la geometría y las matemáticas. Pero las razones son precisas: es debido a que pensar en términos geométricos y matemáticos es equivalente a aprender a pensar en términos de verdad y de belleza. Así, en realidad, el buen gobernante gobierna bien porque sabe de matemáticas, y entonces no es que el mundo se haga posible a la manera de las matemáticas, sino, más adecuadamente, el mundo es regido por la idea de verdad.


En otras palabras, la historia de los malos y los pésimos gobiernos (acaso el de Alejandro Magno el primero), hasta la historia de los desmanes, despropósitos y dictaduras de todo tipo, se explica, en este marco, debido a la ignorancia de los gobernantes. Gobernantes incultos y brutos producen gobiernos y regímenes asimétricos.


Para decirlo en otros términos, las matemáticas son una condición necesaria para la inteligencia de un gobernante; como dirían los pedagogos, porque le suministran una estructura de pensamiento. O lo que es equivalente y aún más exacto, se trata de aprender el lenguaje de las matemáticas, un modo más acertado y amable de decir las cosas.


Quizás la columna vertebral de todo el pensamiento matemático sea el reconocimiento y el estudio de las simetrías. Simetrías especulares, simetrías rotacionales, simetrías reflexivas, simetrías subyacentes, simetrías verticales, simetrías de orden, simetrías de orden par y de orden impar, por ejemplo. Dicho de forma simple y directa: una idea es verdadera sólo si es bella. Este constituye acaso el Santo Grial de las matemáticas y su significado social, cultural, filosófico y político.


Al fin y al cabo, la simetría es la forma en que la naturaleza se comunica, en sus diversos niveles y escalas. Y es la forma como las cosas crecen y se hacen posibles en la naturaleza. La biología tanto como la química saben de simetrías. Pero la política está lejos aún de saber algo al respecto.


Lo que han hecho los políticos de todo cuño es tapar la belleza con palabras, y hacer de la logopedia un arte y la columna vertebral de la inteligencia. Pero es que la habilidad de las palabras termina siempre confundiéndose y siendo subsumida bajo el peso del cálculo, la estrategia y la táctica. Antípodas del pensamiento matemático.


Es lo que, por ejemplo, bien podría condensarse en el modo del marketing político: horribile dictus —a la luz de la sabiduría de las matemáticas.


Platón no era ingenuo, en modo alguno. Al fin y al cabo, cuando habla del rey filósofo o del filósofo rey, dice que ello es posible que exista: epekeine (en griego). Que es tanto como decir: por casualidad, de milagro, por excepción. Una escuela de gobierno bien puede recordar a algunos de los clásicos, y entre ellos la idea fundacional de las relaciones entre matemáticas y política. Al fin y a cabo, el desconocimiento de las matemáticas es notable en las escuelas y facultades; a no ser que se imponga el modelo de la ciencia política norteamericana, cuyo epítome, a lo sumo, es la incorporación de la estadística (descriptiva o inferencial). Ignorando que, hoy por hoy, son dos cosas distintas: la estadística y las matemáticas.


Parece prevalecer una atmósfera de ignorancia y descrédito hacia las matemáticas entre los políticos y entre los estudiosos de la misma. Pero este no es, en realidad, sino un ejemplo de un caso más grave: el alejamiento y la distancia fuerte que existe entre los científicos sociales y de las ciencias humanas con respecto a las matemáticas.


La verdad es que las matemáticas constituyen un ámbito rico y en permanente evolución y desarrollo. Y cuanto más tarde la política en acercarse y aprender de matemáticas, tanto peor serán sus padecimientos. Padecimientos que se pueden apreciar en distintos trabajos. Por ejemplo, La pequeña ciencia. Una crítica de la ciencia política norteamericana, de J. L. Orozco (1978, 2012); o bien, en otro plano, La muerte de la ciencia política, de C. Cansino (2008). Dos trabajos clásicos, entre otros.


Pensar de modo matemático significa superponer la verdad a la conveniencia, y la belleza al beneficio y al costo–oportunidad. Belleza y verdad parecieran ideales elevados, pero lo cierto es que abundan, y mucho alrededor nuestro, en la naturaleza. Justamente bajo la forma de simetrías.


Mientras que la naturaleza es generosa en simetrías, la sociedad y los gobiernos son prolíficos en asimetrías. Uno de los dos polos está equivocado.

Domingo, 31 Julio 2016 07:51

La geometría y el pensamiento lateral

La geometría y el pensamiento lateral

 

El siguiente problema tiene la particularidad que se puede contestar sin necesidad de escribir nada. Todo lo necesario “está a la vista”. Pero, hará falta aprovechar el pensamiento lateral, o sea, utilizar argumentos que no son los convencionales, o en todo caso, los primeros que a uno se le ocurren.

 

De todas formas, mientras escribo esto estoy pensando: ¿estará bien lo que estoy diciendo? ¿Y si a usted lo primero que se le ocurre es exactamente lo que hay que pensar para deducir la solución? ¿Quién dice que mi manera de pensar sea la suya? ¿O viceversa?


Bien, en todo caso, le propongo lo siguiente: yo planteo el problema y la/lo dejo en soledad para que usted decida cómo lo piensa. Si se le ocurre la solución en forma inmediata, mi suposición era equivocada. Si no es así, y si requiere de usted algo no tan inmediato, entonces me sentiré un poco más acompañado.


Basta de preámbulos. Acá va.

 

Concéntrese en la figura 1. Como ve, por un lado, hay un cuadrado. Dentro de ese cuadrado he dibujado dos triángulos. Si se detiene un instante en ellos, verá que cada uno tiene un lado que coincide con uno de los lados del cuadrado. Uno de los triángulos está apoyado en la pared izquierda del cuadrado, y el otro triángulo está apoyado en la base inferior del cuadrado.

 

Por lo tanto, cada triángulo tiene dos vértices que coinciden con dos vértices del cuadrado; el tercer vértice de cada uno de los dos triángulos, está ubicado en un punto cualquiera de otro lado del cuadrado.

 

Como usted advierte, los dos triángulos se cortan (en la figura 1 es la parte “rosada”). La otra región que aparece distinguida en la figura 1 es el área que no pertenece a ninguno de los dos triángulos.

 

 

Figura 1

 

Ahora, la pregunta: ¿cuál de estas dos áreas es más grande? ¿el área en donde se superponen o el área que no corresponde a ninguno de los dos?


Como podrá observar, no hay nada particular que hacer, sino mirar con cuidado y analizar la figura que tiene delante de los ojos. El resto se lo dejo a usted. Eso sí: lo único que creo que es necesario saber, es que el área de un triángulo se calcula como la base por la altura sobre dos. Salvo ese dato, creo que no hace falta ningún otro tipo de conocimiento previo. Usted será el juez.

 


Idea para la solución


Como escribí anteriormente, el área de cada triángulo se calcula como la base por la altura sobre dos. En el caso de los dos triángulos que figuran de la figura 1, la base de cada uno de ellos coincide con uno de los lados del cuadrado. Como el tercer vértice de cada triángulo está en el lado opuesto del cuadrado, eso significa que la altura de cada triángulo tiene la misma medida que el lado del cuadrado (fíjese en la figura para convencerse... no me crea a mí.... descúbralo usted).

 

Dicho esto, si el área de cada uno de estos triángulos se calcula como el lado del cuadrado (por ser la base) por la altura (que también coincide con el lado del cuadrado) dividido por dos, entonces


Área de cada triángulo = (lado del cuadrado) x (lado del cuadrado)/2.


Si usted piensa en este dato, el área de un cuadrado se calcula como (lado x lado). En este caso, el área de cada triángulo es (lado x lado) / 2. ¿Qué hemos deducido?: que cada triángulo tiene como área ¡la mitad del área del cuadrado!


Luego, lo que no está incluido en cada triángulo, también tiene como área la mitad del área del cuadrado.

 

Mire ahora la figura 2.

 

Figura 2

 

Los sectores que figuran con un punto negro, son todos los que no están en el triángulo vertical. Si uno suma las áreas marcadas con el punto negro, se obtiene la misma área que la del triángulo vertical, porque lo que está adentro y lo que está afuera miden lo mismo (igual a la mitad del área del cuadrado).


Pero, por otro lado, si uno suma las regiones marcadas con un punto rojo se obtiene el área del segundo triángulo, el que está en forma horizontal. Luego, el área medida por la suma de los puntos negros tiene que ser igual al área de la suma de los puntos rojos.


Dicho esto, como hay dos sectores que tienen puntos rojos y negros simultáneamente, uno deduce que la región que tiene solamente un punto rojo tiene que ser igual a la región que tiene solamente puntos negros.


¡Pero estas dos regiones son las que queríamos comparar! La que tiene el punto rojo solamente, es la región en donde coinciden los dos triángulos; y las que tienen un punto negro únicamente son las regiones del cuadrado que no tocan a ninguno de los dos triángulos.


Es decir, hemos comprobado, que la respuesta a la pregunta original es: ¡esas dos áreas son iguales! El área en donde se cortan los dos triángulos y el área en donde no hay ninguno de los dos triángulos son iguales.


Y eso termina por contestar la pregunta.


Como usted ve, salvo la fórmula del área de un triángulo (la mitad de la base por la altura), no fue necesario ni usar ni saber más nada. Sólo pensar con un poco de cuidado y acercarse al problema en forma un poco más... ¿lateral?


Preguntas (a la que no aspiro tener ninguna respuesta): ¿qué le pasó a usted? ¿se le ocurrió enseguida? ¿hubo algo que le hizo sospechar que esas áreas tenían que ser iguales? ¿cómo pensó el problema? No sabe cómo me gustaría poder estar junto a usted para escuchar sus reflexiones. Seguro que eso me ayudaría muchísimo para educar mi percepción.

 

 

 

Una pequeña idea en la física cuántica

La teoría cuántica es, sin lugar a dudas, el fundamento de absolutamente todas las tecnologías actuales que nos rodean y hacen posible nuestra existencia.

 

La más sólida, robusta, testeada, verificada, falseada y probada de todas las teorías científicas es la de la física cuántica. En realidad, cabe decir la teoría cuántica, pues ésta no se reduce a la física. Existe también una química cuántica, una biología cuántica, y se estudian los efectos y comportamientos cuánticos también a nivel del cerebro, e incluso a nivel de los sistemas sociales humanos en general, por ejemplo.


Un capítulo medular de la teoría cuántica es la mecánica cuántica. Que, en realidad, consiste en el estudio de los comportamientos de las partículas con ayuda de un muy técnico y robusto aparato matemático destinado justamente a explicar los comportamientos de tipo cuántico. Hay que decir que al lado de la mecánica cuántica existe igualmente la mecánica de ondas y los fenómenos de entrelazamiento, todos los cuales constituyen verdaderas puntas de investigación y de conocimiento.


Pues bien, en el marco de la mecánica cuántica, las partículas sólo aparecen cuando interactúan con otra cosa, y entonces se localizan en un punto. Mientras no interactúen, sencillamente no están en ninguna parte. Se dice entonces que entonces, cuando están solas, se abren en una nube de posibilidades. Exactamente en este sentido se dice que en la teoría cuántica se estudian los fenómenos sólo en tanto hay interacciones, o lo que es equivalente, se estudian sus efectos.


En otras palabras, una partícula que no tenga ningún efecto, esto es, literalmente, que no afecta, no existe y no se encuentra en ningún lugar. Es, en el mejor de los casos, una probabilidad. Dicho genéricamente, las cosas sólo existen en cuanto nos afectan. Antes o después son simplemente probabilidades.


En un sentido preciso, el tema de trabajo ya no consiste, como en la física y la filosofía clásicas, de saber qué son las cosas. Ya W. Heisenberg, con mucha precisión, estableció que si podemos determinar el lugar de las cosas, no podemos saber hacia dónde se dirigen, y viceversa. Exactamente en este sentido, la física cuántica pone de manifiesto que la realidad es un tejido relacional, mucho antes y mucho mejor que las versiones populares de esta idea, como son el pensamiento sistémico, por ejemplo.


En otras palabras, dicho de forma más directa, el mérito de la física cuántica consiste en poner de manifiesto que el interés ya no es el de establecer qué le ocurre a un sistema físico, sino, tan sólo, cómo un sistema físico incide en otro. Así, la física ya no se ocupa, como en el pasado, de decir lo que es el mundo, la naturaleza o la realidad, sino qué tanto sabemos sobre los mismos, o lo que es equivalente, cómo suceden las interacciones, o cómo un fenómeno incide en otro. Pues, mientras no haya incidencia o afectación, simplemente no existe.


Dicho en términos filosóficos, lógicos o epistemológicos, lo anterior quiere decir que los cosas que están solas son sencillamente nubes de probabilidades, pues una cosa sola es equivalente a que no es nada. Las cosas existen tan solo en la medida en que interactúan, y en el modo mismo de la interacción. Es justamente por esto por lo que la física cuántica en particular, y la teoría cuántica en general, ha sido convenientemente llamada una segunda revolución científica —después de la historia que conduce de Kepler a Newton.


La mecánica cuántica, pues, no describe objetos, a diferencia de la mecánica clásica. Antes bien, describe procesos y acontecimientos que interaccionan entre procesos. Es en este sentido como, en otro contexto, R. Feymann, entre otros, llama a la necesidad de desarrollar una teoría general de procesos. El mundo ha dejado de ser un tejido de objetos e incluso de relaciones entre objetos, para ser comprendido como un fenómeno esencialmente variable, interactuante, cambiante.


Pues bien, las interacciones entre partículas quiere decir que éstas se aparecen en tanto interaccionan con otras, y cuando dejan de interactuar, desaparecen. Más ampliamente, las cosas aparecen y desaparecen, y son significativas en la medida en que afectan a otras. Una vez que la afectación ha cesado, sencillamente ha desaparecido. Este es todo el meollo del famoso debate de Copenhaguen entre Einstein y Bohr. Y dicho de forma más técnica, en esto exactamente consiste el problema de la medición en física cuántica.


Einstein, determinista, sostenía que las cosas existen por sí mismas, independientemente del observador. Bohr, por el contrario, indeterminista, afirmaba que la observación del fenómeno modifica el comportamiento mismo del objeto observado.


El mundo y la realidad, la naturaleza y la cosas están hechas de vibraciones y pululación, de interacciones y acontecimientos. Más exactamente, el mundo y la realidad son esencialmente probabilísticos, y se trata, en verdad, de la probabilidad de que un sistema físico afecte a otro y cómo. De esta suerte, la humanidad aprende la incertidumbre, la cual no tiene, en absoluto, un componente o un significado emocional o cognitivo. La incertidumbre, por el contrario, pertenece a la realidad misma, y significa que las cosas aparecen, afectan y luego dejan de afectar y desaparecen. Ni más ni menos.


La teoría cuántica es, sin lugar a dudas, el fundamento de absolutamente todas las tecnologías actuales que nos rodean y hacen posible nuestra existencia. En medicina o en astronomía, en la vida cotidiana o en los más sofisticados escenarios.


Sorprende, sin embargo, la distancia que aún existe, más de cien años luego de ser formulada originariamente por M. Planck, por Einstein mismo por los años durados que fueron 1924–1926, entre la base de la sociedad y el avance del conocimiento. Mucha gente sigue pensando y actuando como si lo importante fuera lo que son las cosas, cuando, en realidad, las cosas no son nada por fuera de su afectación sobre nosotros. El sentido y el significado sólo existen en la medida misma en que hay efectos. Cuando dejan de haberlos, el mundo es un haz de fenómenos solitarios, inexistentes.

Los matemáticos jubilan al cilindro que define el kilogramo

El avance llega a tiempo para que el kilogramo se incluya en una redefinición más amplia de unidades –con el amperio, el mol y el kelvin– prevista para 2018.

 

Durante décadas, los metrólogos se han esforzado por jubilar a Le Grand K, el cilindro de platino e iridio que durante 126 años ha definido al kilogramo, que está colocado en una bóveda de alta seguridad a las afueras de París. Ahora, por fin tienen los datos necesarios para reemplazarlo con una definición basada en constantes matemáticas.

El avance llega a tiempo para que el kilogramo se incluya en una redefinición más amplia de unidades –con el amperio, el mol y el kelvin– prevista para 2018. Esta semana, el Comité Internacional de Pesas y Medidas se reunirá en París para discutir los pasos a seguir.

"Es un momento emocionante", ha señalado David Newell, físico del Instituto Nacional de Estándares y Tecnología (Gaithersburg, EE UU). "Es la culminación de intensos esfuerzos realizados por investigadores de todo el mundo".

El kilogramo es la única unidad del Sistema Internacional todavía basada en un objeto físico. Los experimentos que lo definieron en términos de constantes fundamentales se describieron en la década de 1970.

Sin embargo, hasta el pasado año no se logró un acuerdo sobre si los resultados eran lo bastante precisos como para derrocar a la definición física.

La redefinición no hará que el kilogramo sea más preciso, pero sí más estable. Un objeto físico puede perder o ganar átomos con el tiempo o ser destruido, pero las constantes no cambian.

Angus Deaton, Nobel de Economía por su análisis de la pobreza y el bienestar

La Real Academia Sueca de las Ciencias ha galardonado este lunes al profesor británico-estadounidense Angus Deaton (Edimburgo, 1945) con el premio Nobel de Economía por "su análisis sobre el consumo, la pobreza y el bienestar social". Deaton es catedrático de la Universidad de Princeton (Nueva Jersey, EE UU). Matemático de formación, es uno de los mejores conocedores de la economía de áreas rurales de India. A lo largo de su carrera, Deaton ha destacado por su capacidad para relacionar las elecciones individuales con los indicadores agregados, poniendo en contacto el mundo de la microeconomía con el de la macroeconomía y ayudando a transformar su estudio.

El jurado del Nobel señala que el trabajo del académico de origen escocés ha tenido "gran influencia" sobre las políticas implementadas en las últimas décadas en el campo de la pobreza y ha ayudado, por ejemplo, a determinar qué grupos sociales sufren en mayor medida un incremento en la presión fiscal sobre bienes de consumo básico como los alimentos. "Para diseñar políticas económicas a favor del bienestar y de la reducción de la pobreza, primero debemos entender las decisiones individuales de consumo. Y Deaton ha contribuido, más que nadie, a mejorar esta comprensión", añade el fallo.
En 2011, Deaton —miembro de la Academia Británica, de la Academia de Artes y Ciencias de EE UU y de la Academia Nacional de las Ciencias estadounidense y presidente de la Asociación Americana de Economía— ganó el premio Fundación BBVA Fronteras del Conocimiento en Economía y Finanzas por su "fundamental contribución" a la teoría del consumo y del ahorro y a la medición del bienestar económico. En la actualidad, el nuevo Nobel de Economía está centrado en el estudio de los determinantes de la salud, tanto en los países pobres como en las naciones desarrolladas, así como a la medición de la pobreza en todo el mundo.


El profesor británico, de 69 años y autodefinido como keynesiano, ha sido en los últimos años una de las voces más críticas contra la austeridad. "Todos quisiéramos ser felices, pero una gran parte del mundo está hoy preocupada porque los programas de austeridad que muchos países padecen nos harán infelices, quizá durante bastantes años", escribió el galardonado en un artículo publicado en EL PAÍS en marzo de 2012. En él cargaba contra estas políticas de austeridad, puestas en marcha fundamentalmente en Europa. "Reducen ingresos, recortan beneficios y se destruyen empleos", sentenciaba en el citado escrito.


Más allá de la medición de la pobreza y la desigualdad, la obra de Deaton gira en torno a dos grandes áreas: la distribución de renta de los consumidores entre diferentes bienes y servicios y el ahorro y el gasto de una sociedad en su conjunto. Sobre las decisiones individuales de gasto, Deaton planteó el Sistema Casi Ideal de Demandas (AIDS, por sus siglas en inglés), un método "flexible pero sencillo", según sus propias palabras, para estimar cómo la demanda de un producto determinado depende del precio de todos los bienes y servicios y de los ingresos del consumidor. Esta aportación se ha convertido en una herramienta estándar en su ámbito de estudio.


En el campo del ahorro y el gasto agregado, Deaton ha demostrado según la Academia Sueca que "el análisis de los datos individuales" de ingresos y consumo es "clave" para explicar los patrones que luego se perciben en los datos macroeconómicos. Su análisis sirve, explica el fallo, para "explicar la formación de capital y las magnitudes de los ciclos empresariales".


En su última obra, The Great Escape, publicada en 2013 y aún sin versión en castellano, Deaton trata cómo en el mundo moderno un amplio número de personas han escapado de la pobreza y la muerte prematura que era norma habitual siglos atrás. En esta publicación el catedrático de Princeton no solo relata los avances del bienestar, también cita a las sociedades que no han logrado sumarse a esta etapa de bienestar, una situación de la que cree que son más culpables los malos gobiernos que la falta de recursos.


Es el segundo año consecutivo en el que este premio se entrega a un único candidato, después de que el año pasado recayese en el francés Jean Tirole. La Academia sueca advierte de que, técnicamente, el galardón "no es un Premio Nobel", ya que es la única de las seis condecoraciones que no fue designada en su legado por el magnate sueco Alfred Nobel, que en 1895 estableció los premios en su testamento.


Sin embargo, la distinción cuenta con idéntica dotación que el resto de distinciones —8 millones de coronas suecas (unos 863.000 euros)— y se entrega a la vez que el resto de distinciones cada 10 de diciembre, aniversario del fallecimiento del inventor de la dinamita, en una doble ceremonia en Oslo, para el Nobel de la Paz, y en Estocolmo, para el resto.

Publicado enEconomía
Martes, 24 Marzo 2015 19:28

¿Qué es un poset?

¿Qué es un poset?

La regla en los sistemas humanos no es el orden (ni en la historia ni en el presente), sino la existencia de ordenes parciales; ordenes que no terminan de completarse, ordenamientos que no terminan de linealizarse, en fin, ordenes que existen pero pronto se quiebran.

 

Desarrollada originariamente por G. Cantor, la teoría de conjuntos forma parte de las matemáticas y estudio de las relaciones entre elementos y un conjunto, y entre varios conjuntos entre sí. La teoría de conjuntos es una manera de caracterizar el estudio del orden y las relaciones de elementos congregados y, hoy en día, la teoría forma parte de las matemáticas de sistemas discretos.


Pensar en términos de conjuntos equivale a pensar en términos de relaciones, especialmente, unión, intersección, diferencia, simetría y otros. Buena parte de los conceptos matemáticos pueden definirse adecuadamente en términos de la teoría de conjuntos, hasta tal punto que la teoría de conjuntos ha sido correctamente interpretada como sistema fundacional de las matemáticas. Por extrapolación, de manera genérica, en las ciencias sociales y humanas se habla, en numerosas ocasiones de la sociedad —y de sus estancias y niveles—, como de un conjunto, o en términos de relaciones entre los mismos.


Cabe decir que existen la teoría descriptiva de conjuntos, la teoría difusa de conjuntos, la teoría de modelos internos, la topología de conjuntos y los conjuntos parcialmente ordenados (poset, por su sigla en inglés: partially ordered set).


En cualquier conjunto que se quiera considerar, existe siempre por lo menos un par de elementos que en un conjunto determinado no se encuentran interrelacionados. O, mejor aún, existen conjuntos —o momentos— en los que de un elemento no se sigue necesariamente otro. De esta forma, sucede que un elemento particular en un conjunto dado no requiere ser anterior o antecedente —en cualquier sentido— de otro. La consecuencia no puede ser más sorprendente: un conjunto ordenado es —tan solo— un caso particular de un caso más general, que son los conjuntos parcialmente ordenados. Si ello es así, debemos poder aprender que no todos los conjuntos son ordenados, incluso que la mayoría no lo son, y no tienen, por lo demás, por qué serlo. En otras palabras, debemos poder aprender a vivir con conjuntos que son ordenados tan solo parcialmente. Esto es, no de forma definitiva. Dicho de manera técnica, un conjunto parcial ordenado es aquel que es un preorden antisimétrico.


En términos precisos, cabe entonces hablar legítimamente de conjuntos discretos. Pues bien, los sistemas sociales humanos o bien no se pueden ordenar de manera completa o perfecta, o bien, lo que es equivalente, se ordenan pero tan sólo de manera imperfecta. Si ello es así, la teoría de conjuntos discretos resulta de gran ayuda en el trabajo de las ciencias sociales y humana (esto ayudaría muchísimo a disciplinas como la economía con sus famosas expresiones como "las imperfecciones del mercado" y otras semejantes).


Como se entenderá sin dificultad, un orden total es un orden lineal, por definición; o si se prefiere, por costumbre; o por miedo —cuya expresión más eufemística es por razones de seguridad—. En las ciencias sociales las estructuras y dinámicas de tipo Fordista y Taylorista constituyen ejemplos conspicuos, para no mencionar los movimientos falangistas, el ejército romano (la pax romana), o estructuras parecidas, de pretensiones de un orden total. O también, esas oficinas repletas de pequeños cubículos, todos perfectamente uniformados desde el punto de vista del diseño y que quieren dar la idea de igualdad entre todos.


Decir orden total equivale, dicho políticamente, a sistemas de gobiernos autoritarios, verticales, jerárquicos, piramidales, en fin, excluyentes y autorreferenciales. La forma como en nuestros días se gestiona ordenes semejantes es a través de instituciones que se caracterizan por rasgos tales como misión, visión, objetivos, himno, bandera, estrategia y plan propio. Y es, semánticamente, el tránsito que se ha venido produciendo de "organizaciones" a "instituciones". Se trata, en uno y otro caso, de mecanismo de control y sujeción, de adherencia y pertenencia, tanto como de articulación y dinámica. De manera típica, esta clase de instituciones fueron caracterizadas ya desde los años 1970 por un sociólogo como instituciones voraces. Una institución se dice que es voraz cuando se convierte a sí misma en fin, y convierte, por tanto, a los individuos en simples medios o herramientas para su permanencia y reproducción.


Pues bien, lo cierto es que no siempre y no todas las estructuras y dinámicas sociales pueden organizarse de manera lineal, en términos de conjuntos perfectamente ordenados. Es más, la regla en la historia es que las formas de acción y estructuración de los grupos humanos es mediante conjuntos ordenados sólo parcialmente. Esto es, conjuntos que admiten variedad —en el tiempo y en la estructura— y que más bien semejan redes, ni siempre perfectamente ordenadas. Digámoslo de manera franca: las estructuras lineales, si bien han sido imperantes en numerosas ocasiones a lo largo de la historia y de la geografía, constituyen, en realidad, la excepción en la estructuración de las formas sociales. En otras palabras, las estructuras lineales han dado lugar a ese mito urbano que es la "historia oficial", es decir, la historia "tal y como se conoce y circula en el imaginario social", la cual es, manifiestamente, absolutamente distinta de la historia real.


Esta idea puede ser traducida con otras palabras, así: hay conjuntos —y subconjuntos— que no son comparables. Si ello es así, estamos entonces obligados a trabajar con o sobre conjuntos particulares o singulares, en los que las comparaciones no son posibles ni tienen lugar. En casos semejantes, nos encontramos con fenómenos tales como una cierta dominancia estocástica, órdenes parciales débiles y fuertes, conjuntos semiordenados y otros semejantes.


Pues bien, los conjuntos parcialmente ordenados resultan altamente sugestivos para comprender los fenómenos sociales, los cuales, generalmente, no son ordenados y, ciertamente, no son completa y definitivamente ordenados. La regla en los sistemas humanos no es el orden —ni en la historia ni en el presente—, sino, precisamente, la existencia de ordenes parciales; ordenes que no terminan de completarse, ordenamientos que no terminan de linealizarse, en fin, ordenes que existen pero pronto se quiebran. En otras palabras, los sistemas sociales no son simétricos y lo que los caracteriza es la asimetría, o también, la existencia continua de equilibrios dinámicos. Un sistema se dice que posee equilibrio dinámico cuando la regla es que predominan en sus estructuras y dinámicas continuas, constituciones de equilibrio que se rompen y dan lugar a la ausencia de equilibrios, y así sucesivamente. La termodinámica del no–equilibrio designa a los equilibrios dinámicos como fenómenos y sistemas alejados del equilibrio. Por su parte, hablando exactamente de las mismas situaciones y fenómenos, la ciencia de caos habla de sistemas y comportamientos que suceden en el filo del caos. Tres expresiones diferentes para referirnos a un solo mismo tema.


En síntesis, como se aprecia fácilmente, para los sistemas sociales humanos —y, en general, también los sistemas sociales naturales y artificiales— el tema más sugestivo a la hora de comprenderlos y explicarlos son los conjuntos parcialmente ordenados (poset, por su acrónimo en inglés: partially ordered sets). Tenemos aquí un modo de trabajo particular de sistemas complejos que no ha sido tenido en cuenta, en absoluto, por parte de las ciencias sociales. La idea de base a lo largo de lo que precede es el reconocimiento explícito de que los conjuntos ordenados constituyen un caso particular de un fenómeno más general, que son los conjuntos parcialmente ordenados; esto es, un capítulo sensible de las matemáticas de sistemas discretos. Si ello es así, entonces se entiende que los sistemas sociales que no son completamente ordenados son los de máxima complejidad conocida.

¿En qué consisten los problemas P vs NP?

Los problemas P vs NP tienen una grande variedad de campos en los que resultan altamente relevantes y pertinentes. Desde terrenos triviales, como el sudoku, hasta temas más sensibles computacional, lógica, matemática y militarmente hablando como la criptografía.


Queda dicho: los científicos, en el sentido amplio y más incluyente de la palabra, trabajan con problemas. No sobre "objetos" o a partir de "áreas o campos". Se ha dicho que el paso más importante en la investigación consiste en formular o identificar problemas. Pues bien, esa es una condición necesaria, pero no suficiente para la buena ciencia.


Formulados de manera independiente por S. Cook, R. M. Karp y L. Levin entre 1971 y 1973, el problema —o los problemas P versus NP— constituye, de un lado, uno de los Problemas del Milenio, identificados por el Instituto Clay. Y de otra parte, sin ambages, se trata de la columna vertebral, por así decirlo, de todo el trabajo con fenómenos, sistemas y comportamientos complejos. Esto es, si cabe, es la columna vertebral de donde cuelgan músculos y órganos, vísceras y venas. Esto es, todo el cuerpo de estudio en complejidad. Haré aquí una presentación no técnica de P vs NP.


El problema de base consiste en identificar la clase de problemas que se tiene o con que se trabaja. Pues bien, desde el punto de vista al mismo tiempo computacional y lógico, todos los problemas se dividen en dos, así: de un lado, están los problemas llamados indecidibles; y de otra parte, los problema decidibles.


Que un problema sea o no "decidible" no quiere decir, en absoluto, que se lo pueda decir o no. Por el contrario, el tema se remonta a Hilbert. Un problema se dice que es indecidible si no sabemos —ni podemos saber— si o cuándo se detiene; esto es, por ejemplo, se resuelve. Más exactamente, los problemas indecidibles son todos aquellos en los que, supongamos, se puede tener tiempo ilimitado, espacio ilimitado, todos los recursos deseables: y ni aún así se los puede resolver. Ejemplos conspicuos de problemas indecidibles son la salud, el conocimiento, la naturaleza...


Un problema indecidible es aquel para el cual no existen algoritmos para resolverlo. En contraste, un problema decidible es aquel para el cual o bien existe un algoritmo para resolverlo, o ese algoritmo puede ser encontrado o desarrollado —en algún momento.


Pues bien, digamos que en el mundo empírico, mientras nos ocupamos con problemas indecidibles, hay que hacer cosas reales: asistir a clase, pagar un recibo, y demás. Los problemas decidibles son todos aquellos que se catalogan en dos grupos de la siguiente manera:


De un lado, están todos los problemas P, quiere decir aquellos problemas que se pueden abordar y resolver descomponiendo el problema en los términos que articulan o que componen al problema. En otras palabras, P son todos los problemas polinomiales. Más exactamente, por ejemplo, son los problemas que implican y admiten estrategias tales como histogramas, cronogramas, flujogramas y otros semejantes. En lógica, en ciencias de la computación y en matemáticas, un problema P es un problema fácil, que se puede resolver: y por eso mismo se llama, en propiedad, un problema irrelevante. Es irrelevante, matemática, lógica y computacionalmente todo aquello que puede ser resuelto.


De otra parte, están los problemas NP. Es posible decir que los problemas NP son todos aquellos problemas que ni pueden ser abordados ni resueltos descomponiendo el problema en los términos que lo componen. Así las cosas, NP significa no–polinomiales. Los problemas NP implican un tiempo no–polinomial. En lógica, en matemáticas y en computación un problema NP es un problema difícil y, por ello mismo, se dice que es relevante. Matemáticamente, lógica y computacionalmente se dice que un problema es relevante cuando no lo podemos resolver, pero creemos que debe ser posible una solución al mismo. Aun cuando no esté a la mano.


(Baste recordar que los polinomios consisten en operaciones algebraicas entre términos aritméticos).


Ahora bien, ¿podría pensarse que, en general, existen más problemas fáciles que difíciles? O bien, al contrario, que son más los problemas difíciles que los problemas fáciles, en ciencia como en la vida. O bien, desde otra perspectiva, ¿podría decirse que los problemas P están incluidos dentro de los problemas NP? ¿O al contrario?


Desde otra perspectiva, ¿puede decirse clara y distintamente que los problemas P son iguales a los NP (P = NP), o bien, al revés, que son manifiestamente diferentes (P ≠NP)?


La dilucidación de estos interrogantes da lugar a otras clasificaciones dentro de la clase de problemas P y NP, a saber: se trata de los problemas NP–duros (hard–NP problems), y de los problemas NP–completos.


En otras palabras, los problemas P vs NP constituyen el núcleo mitocondrial, si cabe la expresión, de todos los problemas relativos a la teoría de la complejidad computacional. Pero, ¿computar? Computar no es otra cosa que transformar una cosa en otra. En biología y en medicina esto se dice de otra forma: metabolizar. Al fin y al cabo, una de las funciones más fundamentales para que la vida sea posible consiste en metabolizar: cambiar una cosa (X) en otra (Y). Pues bien, la base de ello estriba en el reconocimiento de la clase de problemas con que nos enfrentamos.


Cabe decir que los problemas P vs NP tienen una grande variedad de campos en los que resultan altamente relevantes y pertinentes. Desde terrenos triviales, como el sudoku, hasta temas más sensibles computacional, lógica, matemática y militarmente hablando como la criptografía.


Los problemas P versus NP contienen, sin ningún lugar a dudas, el corazón de todos los problemas relativos a complejidad: ¿existen algoritmos para (casi) cualquier cosa? ¿Son necesarios, universales o no esos algoritmos? Algoritmos, en otras palabras, recetas, métodos, reglas, normas, procedimientos de acción y resolución de problemas. O bien, ¿existen en el mundo como en ciencia, fenómenos que son no–algorítmicos? ¿Es decir, que no obedecen, en absoluto, a normas, leyes, reglas, preceptos y mandamientos?


Nos encontramos en el centro de la complejidad, desde cualquier punto de vista, técnico o no.


Pues bien, resolver los interrogantes mencionados y otros parecidos y adyacentes constituye uno de los máximos retos en matemáticas. A ello, por ejemplo, invita a pensar el Instituto Clay.