Según la UNESCO más de dos terceras partes de las investigaciones en América Latina están financiadas con fondos públicos. Si la ciudadanía contribuye con sus impuestos a promover la investigación, ¿por qué hay que pagar también por sus resultados?

Esta es la semana internacional de acceso abierto (International Open Access Week) en la que se celebran diversas actividades encaminadas a reclamar el acceso abierto al conocimiento, a explicar el por qué de su demanda y a contar las diferentes experiencias existentes para llegar a textos y datos libres.

Muchos escritores y muchos más cantantes rugen por la piratería. Los autores se quejan por el uso gratuito de sus conocimientos, lo que conlleva que no les reporten beneficios. La pregunta es ¿por qué a un autor musical le tienen que pagar cada vez que se escucha su pieza y un científico descubridor de una vacuna no cobra cada vez que alguien se la inyecta? Sin entrar a valorar la relevancia de lo segundo frente a lo primero, a la gente del común, o al menos eso nos venden los medios, le interesa más su ídolo "gallocanta" que la salud, la educación o la justicia.

Decía el gran Fernando González en sus letras izquierdistas que "La Universidad hace libres a los hombres (libertad es vivir de acuerdo con la causalidad). La Universidad hace comunistas a los hombres, es decir, propietarios del universo y conscientes de la unidad de éste; los hace anarquistas, es decir, capaces de vivir racionalmente, sin que otro los gobierne."

Parte de esa libertad, de esa apropiación consciente y de esa racionalidad pasa por poder acceder al conocimiento sin restricciones. Cortapisas que la gran mayoría de las veces son de carácter económico ya que se mercantilizan la educación y el saber. En esa línea por defender el conocimiento y la libertad de acceder a él se encuentran tanto los trabajos de la UNESCO y sus políticas de acceso abierto como la campaña del Consejo Latinoamericano de Ciencias Sociales (CLACSO).


Desde las universidades también habría que trabajar por esa política de puertas abiertas para el acceso al conocimiento, como estrategia y proceso para un mejor desarrollo académico de docentes, investigadores y estudiantes. Lo que redundaría en una sociedad más y mejor educada, con mayores posibilidades de producción intelectual y con una formación más crítica y con criterios y argumentos para decidir autónomamente sobre su vida y su futuro.
Además de CLACSO, entidades como la Universidad Autónoma del Estado de México, y su revista Redalyc, Aprender 3C, la ONG Derechos Digitales o la Red Clara participan de una u otra manera en la iniciativa por el acceso abierto.

El organismo de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) tiene en marcha un importante trabajo para el desarrollo de políticas de Acceso Abierto (AA) al conocimiento entre sus estados miembros.


En 2012, en el XII Congreso Internacional de Información (Info'2012), celebrado en La Habana (Cuba), la oficial del programa de Comunicación e Información de la Oficina Regional de Cultura para América Latina y el Caribe, Isabel Viera, señaló que "Al facilitar la accesibilidad en línea a la información académica para todos, libre de la mayoría de las barreras impuestas por las licencias y los derechos de autor, se promueve el intercambio del conocimiento en el plano mundial, la innovación y el desarrollo socioeconómico".


Desde primeros de 2014, la UNESCO ha puesto en línea más de trescientos libros en acceso abierto, en sistema creado por Creative Commons y que contiene obras en doce idiomas, lo que supone abrir una puerta para que la mayor cantidad de conocimiento esté a la mano de la mayor cantidad de público.


En el Portal Mundial sobre Acceso Abierto (GOAP, en inglés) se ofrece información sobre el estado del acceso libre por países y también recursos, enfoques y publicaciones de interés sobre el tema.

Por su parte, CLACSO tiene en marcha la Campaña por el Acceso Abierto al Conocimiento, promoviendo con ello una forma de entender el conocimiento como un bien común que tiene que estar al servicio de la mayoría y que se debe gestionar de "forma solidaria e inclusiva". Esta institución hace un acompañamiento a sus asociados y a organismos y gobiernos regionales para que promuevan y desarrollen iniciativas que faciliten el acceso libre al conocimiento científico y a las investigaciones.

En palabras de Pablo Gentili, secretario ejecutivo de Consejo Latinoamericano, "La producción académica de nuestras universidades no puede estar subordinada a los intereses o vaivenes del mercado editorial. Son nuestras sociedades las que pagan el trabajo que realizan los académicos en América Latina, no las empresas o el sector privado. Todos (pertenezcan o no al mundo universitario) deben tener derecho a acceder gratuita y libremente a las producciones que las universidades y los centros de investigación realizan. No se trata de generosidad. Se trata de una obligación, de un compromiso mínimo con la defensa del espacio público. Simplemente, porque el conocimiento, en una sociedad democrática, debe ser un bien común".

Su Red de Bibliotecas Virtuales es un archivo digital de libre acceso que pone a disposición de la ciudadanía interesada más de 30.000 textos producidos en los veinticinco países que conforman CLACSO y en sus más de trescientos centros asociados. Podemos encontrar ponencias, artículos, libros y revistas a través de sus servicios de Sala de Lectura, Portal de Revistas y Portal Multimedia.

También hay un día para los datos abiertos, Día Internacional de los Datos Abiertos; desde 2009 se viene celebrando, en el mes de octubre, la Semana internacional de Acceso Abierto, y el Movimiento Internacional por el Acceso Abierto ha promovido diversas iniciativas y declaraciones: Iniciativa de Budapest (2002); Declaración de Bethesda (2003); Declaración de Berlín (2003), sobre acceso abierto al conocimiento en las ciencias y las humanidades; Declaración de San Francisco (2012) sobre evaluación de la investigación, o la Confederación de Repositorios de Acceso Abierto (2014).

Publicado en Cultura

En la comprensión acerca de la complejidad —o no— del mundo o de los fenómenos del mundo, el concepto de "grados de libertad" (GdL) desempeña un papel central. De hecho, en buena parte de la ciencia de punta contemporánea, el concepto es altamente importante.

 

El concepto de grados de libertad fue originalmente introducido por el neurofisiólogo soviético Nikolai Bernstein (1896–1966) en el estudio del control motor de los organismos vivos. Posteriormente el término ha sido extendido a otras áreas, muy notablemente la estadística, la mecánica, la física, ingeniería, la química. Sin embargo, cuando es extendido a las ciencias sociales y humanas y a las ciencias de la salud y de la vida el tema se torna magníficamente sugestivo.
Bernstein fue un neurofisiólogo marginado en su país, y solo llegó a ser conocido con la traducción y publicación póstuma al inglés (1967) de su libro La coordinación y regulación de los movimientos, Oxford, Ed. Pergamon. Como se aprecia, el tema no es el del control, sino el de la coordinación del movimiento. (El gran opositor teórico de Bernstein fue la figura, la teoría y los trabajos de Pavlov, un científico caro al marxismo de la época, lo que explica fácilmente los desfavores del establecimiento hacia Bernstein).


En términos generales, el concepto de GdL puede hacer referencia al número de variables aleatorias que no pueden ser fijadas por una ecuación (estadística), o bien al número mínimo de números reales indispensables para definir completamente un estado físico (física), o también a la dimensión topológica del espacio de fases de un sistema determinado (mecánica clásica).


Incluso, desde el punto de vista de la química se trata del número de fases separadas o de componentes (químicos) de un sistema, o bien, más sencillamente, en el marco de la mecánica clásica, se trata de la posibilidad de movimiento en un espacio. En un sentido más amplio, el concepto significa idóneamente la posibilidad de evolucionar que tiene un sistema en una dirección no restringida.

Como tal, los grados de libertad se hallan en la antípoda del concepto de control, que es manifiestamente el concepto en el que se condensa toda la ingeniería clásica, la ciencia política y la administración tradicionales; tradicionales o vigentes (mainstream), por ejemplo.


Desde este punto de vista, la complejidad —en cualquier acepción de la palabra— se define literalmente por los grados de libertad que tiene o que exhibe un sistema, de tal suerte que a mayores grados de libertad mayor complejidad, e inversamente, a menores grados de libertad menor complejidad. Articulaciones, posibilidad de evolución, grados de movimiento, dimensiones posibles.

En este sentido, el trabajo de los (as) complejólogos (as) consiste en estudiar los grados de libertad que un sistema determinado tiene, y establecer si y cómo dicho sistema puede tener o adquirir mayores grados de libertad.
Pues bien, esta idea, originaria de la estadística, la física y la neurofisiología, adquiere un alcance insospechado cuando se traslapa el tema al ámbito de las ciencias sociales y humanas o las ciencias de la salud y de la vida. En este caso, el estudio se concentra es determinar si un fenómeno determinado ve reducidos sus grados de libertad y las consecuencias que ello comporta. O bien, inversamente, si el fenómeno en cuestión puede ganar mayores grados de libertad y las consecuencias que ello implica.

No precisamente en un sentido descriptivo, el sentido de las ciencias de la complejidad estriba, así, en incrementar en la medida de lo posible los grados de libertad de un sistema determinado, sabiendo expresamente que dicha posibilidad implica dos cosas:


a. Un cambio en la trayectoria o la historia del fenómeno en cuestión. Dicho cambio se designa técnicamente como espacio de fases, transiciones de fase, o bifurcaciones.

b. Un cambio cualitativo en un fenómeno, lo cual entraña justamente una transición de fase en el sentido que se acaba de mencionar.

Pues bien, en un sentido muy preciso, cabe distinguir dos clases de transiciones de fase, así: transiciones de fase de primer orden y transiciones de fase de segundo orden. Las primeras son variaciones o cambios graduales, notables especialmente gracias al calor o la temperatura del fenómeno en consideración. Las segundas son transiciones continuas, cuya distribución se expresa de la mejor manera en una ley de potencia. Por lo demás, cabe hablar incluso de transiciones de fase infinitas que son aquellas en las que hay cambios permanentes, pero no por ello rupturas de simetría.
Las transiciones de fase se definen a partir de puntos críticos o estados críticos. Así las cosas, un elemento clave en el comportamiento de un fenómeno radica en identificar los puntos o estados críticos reales y posibles de un sistema, a fin de determinar si pueden producirse, o no, y si sí cómo, transiciones de fase. Todo lo cual permitirá al cabo precisamente conocer los grados de libertad que un fenómeno dado gana (o pierde).


Digamos de una manera general que los puntos o estados críticos consisten en tres momentos, así: puntos o estados de supracriticalidad, de criticalidad y de subcriticalidad. Todos estos estados o puntos no se observan en la realidad. Por el contrario, se los construye en la investigación o en el estudio.

Los grados de libertad: un concepto que se encuentra en la antípoda del control, la constricción, las restricciones o cualquier otro concepto próximo o semejante. Al fin y al cabo, según parece, con la ciencia de punta contemporánea asistimos, literalmente, a una revolución científica, social y cultural; en sentido kuhniano, por decir lo menos

Publicado en Ciencia y tecnología
Miércoles, 08 Octubre 2014 06:14

El porvenir incierto

En su evolución, el Homo Sapiens, como ser pensante único entre millones de especies vivas, jamás tuvo idea de la naturaleza y la razón de su existencia. Dotado de la capacidad de pensar, estaba regido por severos instintos. Nada sabía del resto de su maravilloso planeta. No se conoce siquiera desde cuándo posee esa capacidad; en raros casos se afirma que hace un millón de años o un poco más, pero en general se considera que no más de 200 mil años.

Hoy se conoce que el número de planetas con apariencias similares al nuestro se eleva a miles de millones en la misma galaxia donde se ubica el nuestro, dentro de lo que se denomina universo. Espero no ofender a nadie por abordar el tema de lo que somos o creemos que somos.


Hace dos días, el 5 de octubre, el sitio web del canal de televisión Russia Today, un medio de divulgación serio, publicó que Laura Mersini-Houghton, prestigiosa profesora de la Universidad de Carolina del Norte, ha demostrado que los supermasivos agujeros negros no existen, y que la teoría del Big Bang es infundada. Esto, pienso, implica un trauma para muchas personas que convirtieron tal teoría en un acto de fe.


La mayor autoridad en este tema sería el científico británico Stephen Hawking, un hombre de excepcionales méritos por su consagración a la ciencia, a pesar de una cruel afección que lo obligó a grandes sacrificios para comunicarse con los demás, cuando era todavía muy joven.

Los científicos más conocedores de estos temas se comunican e incluso publican sus resultados en términos técnicos difíciles de comprender por los que no hemos tenido el privilegio de familiaridad alguna con esa ciencia.


Stephen Hawking se convirtió, con la publicación de la "Historia del Tiempo", en el autor de un libro sobre el importante tema, cuyas ventas ascendieron a más de 10 millones de ejemplares. Seguramente que, aparte de su interés intrínseco, los principales compradores fueron los miembros de la comunidad de científicos dedicados al estudio de estos trascendentes temas que suman ya varios millones de eminentes investigadores. Haré lo posible por leer y comprender esa obra, cuando mi actual tarea relacionada con la producción de alimentos en cantidad y calidad suficientes es prioritaria, y en la que todavía el esfuerzo se puede traducir en un importante beneficio.

Es mucho lo que ignoramos y muy poco lo que sabemos de nuestra propia ignorancia.

El segundo ejemplar de Hawking, "El universo en una cáscara de nuez", escrito según él en un lenguaje más inteligible para los profanos en la materia, lo leí y subrayé muchas de las ideas que más me interesaron.

Jamás en su evolución el género humano tuvo ni podía tener una idea clara de su propia existencia, porque esta sencillamente no existía, simplemente evolucionaba con el mismo ritmo de todo lo que existe. Es una realidad que no surge contra nadie ni debe ofender a nadie.


Cada día podemos aprender algo nuevo. Ayudar a los demás y ayudarnos en lo posible a nosotros mismos.
Ayer escuchaba las declaraciones del nuevo Secretario General de la OTAN, antiguo Primer Ministro de Noruega, quien desde el pasado primero de octubre, hace solo seis días, asumió el cargo. ¡Cuánto odio en el rostro! ¡Qué increíble empeño en promover una guerra de exterminio contra la Federación Rusa! ¿Quiénes resultan más extremistas que los propios fanáticos del Estado Islámico? ¿Qué religión practican? Después de eso, ¿se puede disfrutar la vida eterna en la diestra del Señor?

Fidel Castro Ruz
Octubre 7 de 2014
9 y 30 p.m.

Publicado en Ciencia y tecnología

El estadounidense John O'Keefe y el matrimonio compuesto por los noruegos May Britt Moser y Edvar I. Moser reciben el galardón por el hallazgo que permite conocer cómo el cerebro crea un mapa del espacio que nos rodea y cómo podemos navegar a través de un entorno complejo.

 

El científico estadounidense-británico John O'Keefe y los noruegos May-Britt Moser y Edvard Moser fueron galardonados hoy con el Premio Nobel de Medicina por su descubrimiento de "las células que constituyen el sistema de posicionamiento del cerebro", anunció hoy el Instituto Karolinska de Estocolmo. Según informó el comité al dar a conocer el nombre de los galardonados, los premiados han descubierto el "GPS interno" del cerebro que posibilita la orientación en el espacio.


En 1971, explica el Instituto, O'Keefe descubrió los primeros componentes de ese sistema de posicionamiento interno. Constató que un tipo de células nerviosas en el hipocampo siempre se activaban cuando una rata se encontraba en un lugar determinado de una habitación y que otras células se activaban cuando el animal estaba en otro punto. Más de tres décadas después, en 2005, May-Britt y Edvard I. Moser descubrieron "otro componente clave" de ese sistema de posicionamiento del cerebro, al identificar otras células nerviosas que generaban un sistema coordinado y permitían de forma precisa situarse en el espacio.


Según el Instituto, "los tres han resuelto un problema que ha ocupado a filósofos y científicos durante siglos: cómo el cerebro crea un mapa del espacio que nos rodea y puede dirigir nuestro camino a través de un entorno complejo".
O'Keefe, nacido en 1939 en Nueva York, es doctor de Psicología fisiológica por la Universidad McGill de Canadá en 1967. Actualmente es director del Centro Wellcome Sainsbury de Circuitos Neuronales y Comportamiento en el University College de Londres. May-Britt Moser nació en 1963 en Fosnavåg, Noruega, y estudió psicología en la Universidad de Oslo junto a su futuro marido y también premiado, Edvard Moser. En 2000 fue nombrada catedrática de neurociencia y actualmente es directora del Centro de computación neuronal en la Universidad noruega de Ciencia y Tecnología de Trondheim. Su marido nació en 1962 en Ålesund, Noruega, y es doctorado en Neurofisiología por la Universidad de Oslo. Ahora es director del Instituto Kavli de Sistemas de Neurociencia de Trondheim.


El Instituto Karolinska de Estocolmo dividió hoy el premio en dos partes: la primera para el estadounidense y la segunda para los dos noruegos. Los galardonados compartirán un premio de 8 millones de coronas suecas (879.000 euros).
El año pasado recibieron el Nobel de Medicina los científicos estadounidenses James E. Rothman y Randy W. Schekman y el alemán Thomas C. Südhof por "sus descubrimientos de la maquinaria que regula el tráfico vesicular". El Instituto Karolinska de Estocolmo premió a los tres científicos por resolver "el misterio de cómo la célula organiza su sistema de transporte" interno y detallar "los principios moleculares" que explican por qué este sistema es capaz de entregar las moléculas precisas "en el lugar adecuado, en el momento adecuado".

Publicado en Ciencia y tecnología
Lunes, 29 Septiembre 2014 06:03

¿Qué es el yo biológico?

Nuestro yo es, esencial y ulteriormente, un acontecimiento biológico. Con una salvedad: la biología es un fenómeno físico, y la física actual ya no se ocupa de la materialidad del universo o las cosas.


Maturana y Varela producen con El árbol del conocimiento (1984) una inflexión importante en la biología y en el conocimiento en general que, aunados a otros trabajos e investigadores, tales como B. Goodwin, R. Solé, S. Kauffmann, entre otros, habrán de designar lo que entonces se llamaba "la nueva biología".


La idea de base es, aquí, que el conocimiento tiene una base material: la biología. En efecto, el "yo" fue un tema habitualmente exclusivo de filósofos, teólogos ("persona"), psicólogos y teóricos del conocimiento. Maturana y Varela ponen de manifiesto que la quintaesencia de la psicología es la biología y que el fundamento de la filosofía es la biología. Sin embargo, esta idea jamás debe ser entendida como una especie de reduccionismo biologista, sino, por el contrario, en el sentido de que la base material del conocimiento y de todo lo que sea el yo no puede ser entendida sin el recurso a la biología.

Más o menos por la misma época la inmunología cobrará una importancia social, cultural y científica sin iguales en la historia de la medicina, la sociedad y la biología. El acontecimiento que, puntualmente, lanzará al primer plano a la inmunología es el descubrimiento del sida y, concomitantemente, todos los temas y problemas relacionados con enfermedades del sistema autoinmune.


Pues bien, los nuevos estudios en torno al sistema inmune tuvieron durante muchos años, hasta hace muy poco, un foco central: el sistema inmune define lo que es propio (self) de lo ajeno o impropio (non–self), en particular a partir de las relaciones entre antígenos y anticuerpos. Así, el sistema inmunológico es el que permite definir lo propio del cuerpo, la salud, y el yo, frente a lo ajeno, lo impropio, lo extraño.

Profundizando esta idea, el complejo mayor de histocompatibilidad (CMH), descubierto inicialmente en el contexto de los primeros trasplantes de órganos en 1940 (y que le valdría a su autor, Snell, el premio Nobel en 1980) —un grupo de genes situado en el cromosoma 6— cumple la función de presentar los antígenos a los linfocitos T, y, en consecuencia, distinguir claramente lo propio de lo ajeno. El lugar en el que tiene lugar esta diferenciación es el sistema linfático.
En otras palabras, todo lo que sea el yo —en la acepción al mismo tiempo más amplia y fuerte de la palabra— tiene lugar en la escala más fundamental, que es la defensa del organismo frente a lo ajeno, peligroso, diferente, y que se designa con el nombre genérico de "antígenos". Del buen funcionamiento del sistema inmunológico depende la salud del organismo vivo, un acontecimiento que encuentra dos niveles, así: cabe distinguir el sistema inmune natural y el sistema inmune adquirido (o adaptativo). El primero es propio de todos los sistemas vivos en general. El segundo es específico de los vertebrados, de mayor complejidad estructural, fisiológica, anatómica y termodinámica. Más exactamente, son dos los mecanismos de memoria de un organismo superior frente a la agresión: el sistema nervioso central (= cerebro) y el sistema inmunológico. Los linfocitos B le presentan a los linfocitos T lo ajeno y éstos proceden a generar células asesinas (natural killers, o NK cells).

Una función del sistema inmune es la de proteger al organismo de virus, bacterias, hongos y parásitos. Pero la otra función fundamental del sistema inmune es la de permitir la auto–reparación de células, tejidos y órganos, el balance entre células normales y bacterias y virus —por ejemplo, la flora intestinal—, controlar la homeostasis y los procesos de metabolización. Para todo ello, en realidad son tres los sistemas que interactúan y que constituyen una sólida unidad: el sistema nervioso central, el sistema hormonal y el sistema inmunológico. Y el lugar en el que opera el sistema inmune es el organismo a través de la sangre (sistema sanguíneo) y los linfos (sistema linfático —"de agua") del organismo.

En otras palabras, el lenguaje del sistema inmunológico es un lenguaje hormonal (químico) en el que la comunicación y los procesamientos de información son determinantes. El cerebro produce hormonas que actúan con los linfocitos B y C, y que se complementan con las hormonas en todo el organismo. Lo maravilloso es que el sistema inmunológico es el único sistema no localizado ni centralizado del cuerpo y, por el contrario, es un sistema literalmente ubicuo, de acción no–local, procesamiento en paralelo, dinámico y distribuido que evoluciona acorde al medio ambiente en general: natural y social o cultural.


Así las cosas, la salud de los organismos vivos depende de la estupenda comunicación entre el cerebro (in extremis, si se quiere, la mente), el sistema y balance hormonal, y ulteriormente el CMH. En otras palabras, aquello que somos no depende de la idea de identidad personal o cualquier otra, de las creencias sociales y demás; no sin ellas, lo que cada quien y puede es el resultado del equilibrio dinámico de la biología, y muy especialmente del sistema inmunológico, el único que no puede ser "desconectado" y que trabaja 24/7.

Nuestro yo es, esencial y ulteriormente, un acontecimiento biológico. Con una salvedad: la biología es un fenómeno físico, y la física actual ya no se ocupa de la materialidad del universo o las cosas. Por el contrario, la buena física de punta de hoy se ocupa de qué tanto sabemos del mundo, la naturaleza y el universo. Pues la física y "lo" físico ya no consiste, en absoluto, como en el pasado, en materialidad, sino en funciones de onda, procesos, coherencia y de–coherencia, superposición de estados, complementariedad, incertidumbre y danza de fotones, por ejemplo.

La vida es un fenómeno físico; pero la verdad es que aún no terminamos de conocer enteramente qué es la "materia". Pues lo cierto es que "materia" no es ajena ni distinta a "información", ni tampoco a "energía". Y los tres son expresiones de la complejidad de un mismo fenómeno al cual lo mejor de la ciencia dedica sus mejores esfuerzos por comprenderlo.
En cualquier caso, la esfera de lo propio o personal o yoico —el self— es un acontecimiento que se está dirimiendo permanentemente sobre la base del CMH, y el buen funcionamiento del sistema inmune. Con una observación final: no hay, en realidad, para el sistema inmune dos cosas: lo propio y lo ajeno, pues ambos son dos momentos de un mismo proceso. El cuerpo y el yo se conoce a través del sistema inmune y se hace posible por él, y el sistema inmune conoce al cuerpo y lo recorre como la producción de sí mismo. Esa producción es la vida misma. En verdad, para traducirlo en otras palabras, en el sistema inmune no acontece la distinción entre hardware y software, pues en la célula y en el organismo ambos son una sola y misma cosa.

Publicado en Ciencia y tecnología
Lunes, 15 Septiembre 2014 17:55

¿Qué es la hipercomputación biológica?

Para los sistemas vivos, en general, procesar información es un asunto literalmente de vida o muerte. Si la información es mal procesada la vida puede encontrarse en peligro y desaparecer el organismo.

Los sistemas vivos procesan información de una manera perfectamente diferente a como procesan información los sistemas físicos, y de manera totalmente distinta a como la computación ha sido entendida hasta la fecha. Este procesamiento de información se denomina hipercomputación biológica (muy pocos trabajos científicos sobre el tema pueden encontrarse en internet).


Para los sistemas vivos, en general, procesar información es un asunto literalmente de vida o muerte. Si la información es mal procesada la vida puede encontrarse en peligro y desaparecer el organismo. Por el contrario, si la información es bien procesada se fortalecen las posibilidades de vida y adaptación.


Esta idea significa que debemos poder comprender a los sistemas vivos no por lo que son, sino por lo que hacen. Así, la pregunta clásica acerca de qué es la vida se desplaza y puede responderse mucho mejor en términos de la lógica de la vida; esto es, qué hacen los sistemas vivos para ser tales.


Más aún, computar no significa "reflexionar", "analizar", "seguir el hilo de un tema", ni nada semejante. Por el contrario, computar significa transformar. Esto se ilustra con el siguiente esquema:


A → Procesamiento de → B
Información


Esto es, computar —o para el caso, procesar información— equivale a transformar una cosa (A) en otra (B).


La traducción biológica de la computación puede afirmarse de manera correcta como el proceso de metabolización. En efecto, metabolizar no significa nada como "digerir", "procesar" o algo así. Por el contrario, la metabolización es exactamente el mismo proceso mediante el cual una coa se transforma en otra:


A → (se) metaboliza en → B


Ahora bien, es fundamental atender al hecho de que el procesamiento de información ha sido tradicionalmente comprendido y explicado como una caja negra. "Ojos vemos, pero corazones no sabemos". O bien: "Todo el mundo lleva la procesión por dentro". Esta ha sido habitualmente la manera como se entienden, por ejemplo, los procesos de tomas de decisión. Sabemos que entra algo (A), conocemos lo que sale (B), pero no sabemos cómo se lleva a cabo el proceso. Así se explican y se han explicado numerosos procesos de decisión en diversos campos (políticos, militares, administrativos, deportivos, eclesiásticos y otros).


Pues bien, la hipercomputación biológica busca abrir la caja negra y mostrar que efectivamente no existe tal caja. Para ello, es necesario modificar radicalmente las formas clásicas de comprensión del procesamiento de información. Así, por ejemplo, la estructura de Von Neumann (en referencia a John von Neumann) de la computación (o del computador), las explicaciones de Turing sobre la computación e incluso la tesis Church–Turing (en referencia a Alonzo Church y a Alain Turing), que son las explicaciones estándar de los sistemas computacionales hasta la fecha.


Los sistemas vivos llevan a cabo la hipercomputación (biológica) de manera que aún no terminamos de conocer plenamente. Así, por ejemplo, resuelve complicadísimos problemas de manera muy simple (complicados para nosotros, simple para ella). Ejemplos técnicos son el plegamiento de proteínas, o procesos de auto–reparación. Con referencia al sistema inmunológico, se trata del trabajo de las células citotóxicas (o procesamiento macrofagótico) mediante el cual se destruyen células o fenómenos físicos que nos atacan en un momento determinado.


En esta línea de análisis, el sistema inmunológico es de una complejidad magnífica en términos de procesamiento de información, hasta el punto de que, no solamente es el único sistema del organismo que nunca descansa (trabaja 24/7), sino que, además, no está localizado, sino, es ubicuo y móvil. La complejidad del sistema inmunológico se comprende mucho mejor cuando comprendemos que en realidad trabaja de la mano con el sistema nervioso central —y muy específicamente con el cerebro—, y con el sistema hormonal. En verdad, el cerebro produce neuromediadores que actúan sobre diversos órganos directamente relacionados con el sistema inmune y que inciden en la memoria y en activación de células inmunes (linfocitos B y linfocitos T). A su vez, el sistema hormonal permite transmitir la memoria de anticuerpos o antígenos. El sistema inmune habla el lenguaje hormonal, y presumiblemente el cerebro habla también el idioma inmune.
Desde el punto de vista científico y filosófico es importante distinguir tres cosas: (a) el uso de metáforas vivas para resolver problemas computacionales; (b) el uso del modelamiento y la computación para entender procesos biológicos; y (c) la forma específica como los sistemas vivos procesan información.


Al respecto es fundamental atender al hecho de que, en realidad, no existen tres cosas: materia, energía e información. El mérito de Einstein consistió en haber mostrado que la energía y la materia son una sola cosa, supuesta la velocidad de la luz. Más exactamente, la materia es energía lenta, y la energía es materia rápida. La física cuántica ha trabajado de manera importante en la comprensión de la información.


Llegará el momento, llegará el lugar, y llegará la persona (o grupo) que logre establecer que lo que hoy se dice de tres formas no es en realidad sino una sola: materia–energía–información. Y un nuevo e integrador concepto será acuñado. En cualquier caso, un proceso semejante no podrá llevarse a cabo sin la perfecta integración de tres campos: la biología, la teoría cuántica y las ciencias de la complejidad.


Como quiera que sea, la hipercomputación biológica nos permite comprender, desde las escalas más básicas —las bacterias hasta el organismo—, la forma en que el procesamiento de información se lleva a cabo. Podemos decir, sin ambages, dicho procesamiento es paralelo, distribuido, multiescalar (o multinivel), difuso, en red, interactivo, no–centralizado, y en muchas ocasiones no–localizado.
Este panorama modifica enormemente nuestra comprensión acerca de lo que son los sistemas vivos y lo que hacen. Y con ello, asimismo, acerca de lo que es el mundo, la naturaleza y la realidad. Un campo de investigación de punta, literalmente.

Publicado en Ciencia y tecnología
Martes, 08 Julio 2014 06:34

El control de los cuerpos y los saberes

"La universidad ha sido y sigue siendo una instancia fundamental de la colonialidad del saber", define Walter Mignolo, profesor de Duke University (EE.UU.), donde dirige el Centro de Estudios Globales y Humanidades. Mignolo es uno de los referentes de la corriente de pensamiento decolonial, una red de intelectuales constituida hace unos quince años. La idea fundamental del grupo es que la colonialidad es la cara oscura de la modernidad, y que esa díada modernidad/colonialidad opera desde una matriz de poder con pretensiones universalistas, la matriz totalitaria de la razón moderna, instituida sobre la dominación y la explotación de seres humanos definidos como inferiores desde la invención de la noción de raza. El pensamiento decolonial considera parte de esa lógica/retórica tanto al capitalismo como al socialismo, y toma distancia de otros pensamientos que cuestionan la modernidad (Nietzsche, teoría crítica, Foucault, posestructuralismo, posmodernismo), a los que considera eurocentrados, incapaces de dar cuenta del silenciamiento de otras culturas inherentes a la colonialidad. La red modernidad/colonialidad promueve un horizonte de inclusión de lo diverso, la pluriversalidad, de ahí su cercanía a las poblaciones víctimas de la "herida colonial", comunidades indígenas y movimientos sociales de Africa, Asia y, especialmente, Latinoamérica. Desde esa perspectiva, Mignolo analiza el rol que han desempeñado las universidades.


–¿Cuál ha sido la función de la universidad en el proceso de la modernidad/colonialidad?


–La universidad ha sido y sigue siendo una instancia fundamental de la colonialidad del saber. La transformación en Europa de las universidades medievales (Bolonia, Salamanca, Coimbra) en universidades renacentistas se extendió en el siglo XVI a las colonias hispánicas: la Universidad de Santo Domingo en México, San Marcos de Lima en Perú, la Universidad de Córdoba en la Argentina. Y Harvard, en EE.UU., en el siglo XVII. Mientras Portugal no incentivó la creación de universidades, España se autoasignó una misión teopolítica: el control de los cuerpos mediante el control de las almas, es decir, de las subjetividades. En el siglo XVIII, la universidad renacentista mutó, en Europa, en la universidad kantiana-humboldtiana. Ese modelo de universidad desplaza a la universidad teológico-humanista de los Estados monárquicos y nace la universidad de los Estados seculares: la idea de ciudadanía y democracia conecta el control del conocimiento con el control de la autoridad. En América, las universidades coloniales teológico-monárquicas mutan en universidades seculares estatales. Y se fundan otras universidades, como la de Chile en 1862 y la UBA en 1821. Todo esto antes de que Francia e Inglaterra colonizaran Africa y Asia, y comenzara ahí la instalación de universidades kantianas-humboldtianas. En fin, la universidad y el museo son dos instituciones clave en las que se fundó y se mantiene la colonialidad del saber y de la subjetividad.


–¿Cómo siguió ese proceso en el siglo XX?


–En la segunda mitad del siglo XX, bajo el liderazgo de Estados Unidos, las universidades se transformaron –y aún se están transformando– en universidades corporativas. Es decir, las universidades son administradas como corporaciones y adoptan valores de las corporaciones: eficiencia, excelencia en el sentido corporativo, investigaciones que serán aprovechadas por las corporaciones para mercantilizar desde la farmacología hasta la alimentación. A la vez, desde principios del siglo XX comenzó un nuevo ciclo que remeda al del siglo XVI: la instalación de universidades de EE.UU. en los Estados del Golfo Pérsico (Qatar, Kuwait) y en el este y el sudeste asiático (China, Singapur). Sin embargo, las cosas han cambiado. No es seguro hasta qué punto las universidades estadounidenses transmiten valores occidentales y hasta qué punto el saber occidental es apropiado para beneficio de proyectos de desoccidentalización. Esto no fue posible en el siglo XVI puesto que las poblaciones indígena y africana fueron marginadas de las esferas del saber. En la América luso-hispana, después de las independencias, las elites criollas locales que gestionaron las universidades se convirtieron en servidores imperiales para mantener la colonialidad del saber en las ex colonias.

.–¿Qué papel podrían cumplir las universidades en un proceso de decolonización?


–Es difícil pensar hoy que la dirigencia universitaria en cualquier parte del mundo se proponga descolonizar el saber. Estos proyectos provienen del cuerpo profesoral y estudiantil, no de la administración. Sería semejante a esperar que el Estado inicie proyectos de descolonización. A pesar de que en Bolivia el Estado emplea este vocabulario, la descolonización no es una cuestión de políticas estatales. Los Estados están enganchados con las corporaciones y los bancos. La dirigencia universitaria puede apoyar, en ciertos momentos, algunas iniciativas, pero no le es posible iniciar estos proyectos. El día que las universidades públicas o privadas gestionen la descolonización pedagógica, será porque ya los procesos de descolonización que percibimos en la sociedad política contribuyeron a un vuelco radical y a la disolución de la matriz colonial de poder. Por el momento, la descolonialidad es una visión y una orientación que coexiste y coexistirá en tensión con otras visiones y sistemas de ideas (el liberalismo, el neoliberalismo, el marxismo, el cristianismo, el confucionismo, el islamismo), así como con orientaciones y visiones disciplinarias (ciencias humanas y naturales, escuelas profesionales, etcétera). La decolonialidad es una opción entre otras.


–¿Conoce alguna experiencia académica que vaya en ese sentido? ¿El caso de Amawtay Wasi en Ecuador?


–El caso de la Universidad Intercultural de las Nacionalidades y los Pueblos Indígenas Amawtay Wasi es un ejemplo. Esta sí fue una universidad liderada por la dirigencia indígena. Pero Rafael Correa se las arregló para descalificarla, basado en formas corporativas de evaluación de "excelencia"... La educación en Amawtay Wasi se organizó en cuatro centros curriculares: Ushay-Yachay o de la Interculturalidad, Ruray-Ushay o de las Tecnociencias para la vida; Munay-Ruray o del Mundo vivo; y Yachay-Munay o de las Cosmovisiones. El centro de los cuatro centros es Kawsay, "Vida" y también "Conocimiento". Se entiende así el significado de Sumak Kawsay, que malamente se traduce como "Buen vivir": Sumak Kawsay sería la plenitud del vivir alcanzada a través del conocimiento. Este es un modelo de pedagogía decolonial y por lo tanto de universidad decolonial. Esta universidad no fue una iniciativa del Estado. Al contrario, el Estado la clausuró. Correa podría haber apoyado Amawtay Wasi al mismo tiempo que creaba universidades corporativas. Pero no le quedaba otra, para decirlo mal y pronto. Hoy, los Estados necesitan de las universidades no tanto para formar subjetividades ciudadanas, como era el caso de la universidad kantiana-humboldtiana, sino para preparar expertos que les permitan a los Estados "estar a la altura" de los tiempos, y los tiempos marcan otro tipo de educación: la reproducción de la colonialidad del saber adaptada a tecnologías para acrecentar la producción y las ganancias, administración de empresas para incrementar el lucro, ingeniería y geología para expandir el extractivismo, investigaciones para aumentar los agronegocios. En fin, se trata de impulsar investigaciones que promuevan el "desarrollo" y de desautorizar investigaciones que muestren la colonialidad del saber agazapada debajo de la retórica desarrollista. En la Argentina, el caso de Andrés Carrasco habla por sí mismo.


–¿Cuál ha sido su propia experiencia? ¿Ha encontrado dificultades para el pensamiento decolonial en las instituciones donde se ha desempeñado?


–Las "dificultades" las encuentro no tanto en las universidades sino en Facebook... (risas) En Duke University nadie se opone abiertamente. Es una política general en los EE.UU., una vez que estás dentro, te dejan hacer. Por otra parte, el apoyo depende de las universidades. Quienes llevamos adelante esta forma de hacer y pensar lo hacemos al margen de la orientación general de las universidades. Se trata pues de "las tretas del débil", como aprendimos de Josefina Ludmer, estrategia que tiene validez en varias esferas. El doctorado creado por Catherine Walsh en la Universidad Andina de Quito es un caso ejemplar de pedagogía decolonial sin que haya sido una iniciativa de las autoridades. El título es de "Estudios culturales latinoamericanos", pero la orientación es netamente decolonial. Aunque no lo decolonial como un "método" para los "estudios culturales", puesto que lo decolonial es una manera de pensar y de estar en el mundo, y no un método para estudiar. Pensar descolonialmente significa desengancharse de los presupuestos de la epistemología moderna basados en la distinción entre sujeto cognoscente y objeto a conocer. Cuando en las propuestas de tesis uno lee "mi objeto de estudio es X" y "mi método es Z", sabemos que estamos en plena colonialidad del saber. Pero sin duda es más que esto. La decolonialidad son los procesos a la búsqueda de un estar en el mundo y hacer en ese estar (kuscheanamente dicho), desobedeciendo a lo que la retórica de la modernidad y el desarrollo quiere que seamos y hagamos.

Publicado en Internacional

"En el cine de ficción el director es Dios y en el cine documental Dios es el director". Es una frase muy conocida de Alfred Hitchcock, que el legendario montador Walter Murch (Apocalypse Now) envió a Mark Levinson cuando éste iba a comenzar el rodaje de Locos por las partículas. Nunca pensó este director y guionista (antes doctorado en Física de Partículas en la Universidad de Berkeley) que lo que comenzaba como una película sobre el experimento del Gran Colisionador de Hadrones terminaría siendo la gran historia del descubrimiento del Bosson de Higgs, 'la partícula de Dios'. Apasionante, esta historia -que confirma la sentencia de Hitchcock- contiene emoción y suspense en altísimas dosis, a pesar de que todos conozcamos el final. Locos por las partículas es el estreno de 'El documental del mes'.


Con la presencia del propio Murch, un fanático de la ciencia, como responsable del montaje, la película comenzó gracias al encuentro de Levinson con David Kaplan, un destacado físico teórico, miembro del equipo del experimento del Gran Colisionador de Hadrones (un gigantesco acelerador de partículas). "¿Por qué lo estamos haciendo?" se pregunta Kaplan en la presentación del proyecto ante decenas de científicos. "Tenemos dos respuestas. Una es la que explicamos a la gente y la otra es la verdad. La respuesta número uno, que no es mentira, es que estamos reproduciendo las condiciones físicas de los momentos posteriores al Big Bang para ver cómo era el Universo en su inicio. La respuesta número dos es que estamos intentando entender las leyes básicas de la naturaleza".

"Lo más importante que ha pasado en mi vida"


Poco a poco, a medida que una serie de científicos va explicando nuevos aspectos del experimento y del acelerador de partículas, el espectador va comprendiendo que del resultado de esta prueba depende ni más ni menos que la verdad sobre la esencia del Universo. Y es bastante conmovedor escuchar a un gran físico teórico, un tipo sosegado, con melena y cara de listo, asegurar que esto "es lo más importante que ha pasado en mi vida. El descubrimiento de nuevas partículas fundamentales".
Junto a él se encuentran Fabiola Gianotti, una física experimental, jefa del proyecto

ATLAS, una mujer que llegó a lo más alto de la Ciencia desde la Filosofía y la Literatura; Nima Arkani-Hamed, un físico teórico en el Instituto de Estudios Avanzados de Princeton, hijo de científicos iraníes que tuvieron que huir a las montañas de Turquía durante la revolución; Savas Dimopoulos, un físico teórico en la Universidad de Stanford, que nació en Estambul, de donde debió huir cuando se agravaron los conflictos con los griegos, y Mónica, una física experimental, estudiante de postdoctorado en el experimento Atlas. Son parte de la élite de los miles de científicos que participaron en este experimento fundamental y los protagonistas de esta historia.


La Supersimetría o el caos


El 29 de marzo de 2010 se realizó el primer intento de colisiones de alta tecnología. La gigantesca máquina envió un haz en una dirección y otro, en la opuesta. Durante un rato circularon en paralelo y en un momento se anuló esa separación y se intentó provocar la colisión. De ésta debían surgir nuevas partículas. El experimento falló. Pero el equipo volvió a intentarlo meses después y funcionó. Y en agosto de 2011 se hizo un gran anuncio: los datos obtenidos de estas colisiones (ahora sí conseguidas) permitirían detectar el Bosson de Higgs. Ahora bien, si la masa de Higgs era de 140 Gev (gigaelectronvoltios), el asunto se ponía muy serio. La teoría de la Supersimetría (que calcula una masa de 115 Gev) se desmoronaría y habría que aceptar la teoría del caos, el Multiverso (múltiples Universos como el nuestro).


Mark Levinson exprime al máximo la situación. La tensión es altísima, casi insoportable, el trabajo de decenios podría irse al traste, algunos de los físicos teóricos más importantes del planeta se juegan aquí el esfuerzo de toda su vida. Y mucho más, esto podría demostrar lo aleatorio del Universo o la existencia de unas leyes que lo expliquen. Dios o las leyes de la física.

El 3 de julio, ante un grupo de relevantes científicos y con la presencia de Peter Higgs en el auditorio, se anunciaron los resultados. La masa del Bosson de Higgs es de 125,3 Gev. Peter Higgs llora de emoción. "Para mí, es increíble que haya ocurrido en mi vida". "¡Hemos encontrado el Higgs!" grita entusiasmado Nima Arkani-Hamed. "Me parece que lo tenemos", bromea otro, evidentemente emocionado. "La física funciona", sentencia rotundo y aliviado otro científico.


"Las cosas que nos hacen humanos"


"Sentí orgullo cuando se anunció el Higgs. Pero sentí orgullo por la humanidad. Que unos seres en un pequeño planeta, con nuestros minúsculos cerebritos, podamos entender tan profundamente qué pasa... ¡Es el poder de la mente humana!" dice Savas Dimopoulos, que unos segundos después se pregunta: "¿Por qué los humanos se dedican a la ciencia? ¿por qué se dedican al arte?", para contestarse inmediatamente: "Las cosas que menos importan para nuestra supervivencia son precisamente las que nos hacen humanos".


"La ciencia y el conocimiento son muy importantes. Igual que la cultura es muy importante. Son necesidades del ser humano", añade Fabiola Gianotti poco antes de que aparezcan los créditos de esta película, una historia que se ha quedado con un final abierto, al fin y al cabo, "la masa de Higgs está en un punto muy incierto para el destino de nuestro Universo".

Publicado en Internacional

Ante el panorama, los ejércitos se alistan de lado y lado. Los nombres en cada caso giran en torno al candidato–presidente Santos, y al candidato uribista Zuluaga. Las huestes reúnen a los mejores hombres y mujeres que pueden de cada lado, y las trompetas de guerra suenan con vehemencia, a lo que los grandes medios de comunicación les hacen eco a la vez que las avivan.


A comienzos del siglo XX surgió un debate de gran calado y de consecuencias imprevistas. Hasta la fecha ese debate no ha sido dirimido, pero las bases han quedado suficientemente establecidas. El resultado más significativo del mismo fue el descubrimiento del llamado "principio de incertidumbre", y su padre, el físico alemán W. Heisenberg. El debate y el contexto tiene que ver con la física cuántica y la naturaleza de la realidad. El tema de partida es el comportamiento de la materia y de la energía.


Seguidamente, la física cuántica dio lugar en el campo de las matemáticas y de los sistemas computacionales al descubrimiento y estudio de la aleatoriedad. Como consecuencia, se produjo un cisma magnífico en la ciencia y la cultura.


Las ciencias de la complejidad —un conjunto de diferentes ciencias, teorías, aproximaciones, métodos y lenguajes—, encuentra como uno de sus pilares la teoría cuántica y definitivamente hacen de la aleatoriedad un tema propio. Como consecuencia, la complejidad consiste en el estudio de fenómenos, sistemas y comportamientos caracterizados por no–linealidad, emergencia, caos, autoorganización, impredecibilidad, turbulencias y fluctuaciones, entre otros atributos. Y claro, por aleatoriedad e incertidumbre.

Ambos conceptos tienen la dificultad de que, gracias a los desarrollos científicos que desde comienzos del siglo XX conducen hasta el presente, la incertidumbre deja de ser un problema meramente cognitivo, epistemológico, o emocional. Más exactamente, la incertidumbre no tiene absolutamente nada de psicológico en cualquier sentido de la palabra. La realidad misma está marcada por incertidumbre. Y como resultado, la naturaleza y el universo, como de hecho la sociedad misma, son específicamente probabilísticos.


Pues bien, la realidad colombiana se caracteriza, en toda su historia, y muy particularmente en el presente y en este momento, por una altísima complejidad y por incertidumbre. Sin lugar a dudas, el rasgo más sobresaliente de la realidad colombiana gira en torno a la posibilidades del proceso de paz que se adelanta en La Habana.


La paz es un fenómeno esencialmente aleatorio e incierto. Desde luego que hay los militaristas y los guerreristas; están también los pacifistas y diplomáticos. Están las víctimas y los victimarios. Están quienes dudan y sospechan de los diálogos y quienes le han apostado literalmente todo a los mismos.


Pero los resultados electorales en Colombia ponen de manifiesto que la paz y la guerra en el país no son simplemente cuestión de apuestas, de voluntades de un lado o de otro, de acuerdos, pactos y entramados; la cosa no se agota en las guerras sucias y en los problemas de marketing político, comunicación estratégica. Todo ello conduce a interpretar:


1. Los procesos de construcción de la paz a raíz de los diálogos entre las FARC y el Estado colombiano, y
2. Los resultados de las elecciones presidenciales del 26 de mayo pasado,
como fenómenos esencialmente marcados por incertidumbre.


Nada es tan incierto, hoy por hoy, como los resultados de la paz y los diálogos que tienen lugar con la mediación activa de la comunidad internacional. Más allá de las alianzas y los acuerdos, de las maquinarias y las voluntades, los odios y enfermedades de un lado, y las buenas voluntades del otro.


Ha dicho públicamente el candidato Zuluaga que el primer acto que hará si llega a triunfar es romper la mesa de diálogos de La Habana. Y hay que creerle, desde luego

.
Ante el panorama, los ejércitos se alistan de lado y lado. Los nombres en cada caso giran en torno al candidato–presidente Santos, y al candidato uribista Zuluaga. Las huestes reúnen a los mejores hombres y mujeres que pueden de cada lado, y las trompetas de guerra suenan con vehemencia, a lo que los grandes medios de comunicación les hacen eco a la vez que las avivan.


Colombia, un país sempiternamente dividido, polarizado. Hoy la polarización toma los nombres de Santos y de Zuluaga, pero en perspectiva histórica eso será sólo un asunto de semántica. La verdad es que lo que observamos en la actualidad es una constante histórica.
Nada garantiza que la paz está lograda. Nada garantiza tampoco que los diálogos tendrán buen fin. Desde luego que caben las apuestas y las estrategias de toda índole. Son comprensibles, y hasta necesarias y deseables, según cada caso.


Pero la verdad es que la suerte de la paz en Colombia, como la de la guerra misma es esencialmente aleatoria, cargada de incertidumbre. Es un asunto de la realidad misma, más allá de las interpretaciones.


En el debate de Copenhaguen, Einstein se rebelaba contra Bohr y Heisenberg y sostenía que la realidad sí era auto–consistente y todo se podía y debía explicar racionalmente y según leyes. Son numerosos los analistas políticos, comentaristas y académicos que son, a la sazón, reencarnaciones de Einstein. Que es cuando se termina pensando en términos de deseos. Wishful thinking, se dice en inglés.


La dificultad teórica y cultural —en toda la acepción de la palabra— de la teoría cuántica estriba en el hecho de que la gente no puede aceptar la aleatoriedad, y reducen la incertidumbre a ausencia de información (confiable). Como sostenía Nietzsche: "La gente prefiere tener una mala explicación a no tener ninguna". Y ese es justamente el reto de la aleatoriedad y la incertidumbre.


La complejidad de la paz consiste exactamente en la incertidumbre. Y eso no depende de nadie en particular. Si no, no podremos entender a cabalidad lo que significaron los resultados de las elecciones que le dieron medio millón de votos por delante al enemigo de la paz, y más del 65% entre abstencionismo y voto en blanco.


La incertidumbre de la paz exige ideas mejores, y consiguientemente, acciones determinadas. Pues lo que sigue a la incertidumbre de la paz es la seguridad de la guerra y la muerte, las persecuciones, las chuzadas y los asesinatos de todo tipo, y la destrucción de la biodiversidad del país.


La complejidad de la política consiste, para Colombia, en lo incierto de la paz. Pues bien, una condición para la vida es buena ciencia. Y la ciencia de punta pasa por el reconocimiento de las turbulencias y las fluctuaciones. Debemos aprender mejor lo que significa, para el caso, el estudio de los fenómenos de complejidad creciente.

Publicado en Colombia

Tres científicos británicos de la Escuela Imperial de Londres lograron probar una teoría de 80 años de antigüedad, que determinaba que la luz podría ser convertida en materia, se informó.


En un primer momento, los expertos investigaban los problemas vinculados a la energía de fusión, cuando se dieron cuenta de que aquello en lo que trabajaban podría aplicarse a la teoría sobre la materialización de la luz, propuesta en 1934.


En ese año los científicos estadunidenses Gregory Breit y John Wheeler admitieron que debería ser posible convertir la luz en materia rompiendo a la vez sólo dos partículas de luz (fotones), para crear un electrón y un positrón.

Uno de los especialistas británicos aseguró que pese a que todos los físicos aceptan la teoría como verdadera, pocos esperaban que se pudiera lograr en un laboratorio.


Proponen método de dos etapas


En la investigación, publicada en la revista especializada Nature Photonics, los científicos proponen un método de dos etapas, cuya idea principal se basa en el uso de un láser de alta intensidad extremadamente potente.


Por medio de él sería posible acelerar los electrones hasta la velocidad de la luz y dirigirlos a una superficie de oro, de esa forma aparecería un haz de fotones que sería mil millones de veces más potente que la luz visible.


Al mismo tiempo, los expertos proponen enfocar un láser de alta energía en la superficie interna de otra placa de oro para crear un campo de radiación térmica.


Si la luz de la primera fase se proyecta dentro de ese campo, según presumen los físicos británicos, los fotones empezarán a chocar y a formar electrones y positrones.

Publicado en Internacional
Página 1 de 4