Trump quiere privatizar la Estación Espacial Internacional

La administración de Donald Trump quiere convertir la Estación Espacial Internacional (EEI) en una especie de empresa inmobiliaria en órbita, no administrada por el gobierno, sino por la industria privada.

La Casa Blanca planea dejar de financiar la estación después de 2024, y poner fin al apoyo federal directo del laboratorio orbital. Pero no tiene la intención de abandonar por completo el laboratorio en órbita –que la Nasa comparte con otras agencias espaciales– y prepara un plan de transición que podría entregar la estación al sector privado, según un documento interno de la Nasa obtenido por The Washington Post.

"La decisión de terminar con el apoyo federal directo para la EEI en 2025 no implica que la plataforma en sí será desorbitada en ese momento; es posible que la industria continúe operando ciertos elementos o capacidades de la EEI como parte de una futura plataforma comercial", dice el documento.

Además, "la Nasa ampliará las alianzas internacionales y comerciales en los próximos siete años con el fin de garantizar el acceso humano continuo y la presencia en la órbita baja de la Tierra".

Para garantizar la transición, la Casa Blanca prevé solicitar un "análisis del mercado y planes de desarrollo" al sector privado.

Estados Unidos ha gastado casi 100 mil millones de dólares para construir y operar el complejo orbital, que le cuesta a la Nasa entre 3 mil y 4 mil millones de dólares anuales.

El propósito es privatizar la EEI, ubicada en la órbita baja terrestre, que es dirigida por la agencia espacial estadunidense y desarrollada de manera conjunta con la agencia espacial rusa.

Esta base es utilizada por una tripulación internacional –especialmente con la colaboración de las agencias espaciales europea, japonesa y canadiense– para desarrollar la investigación científica del universo espacial.

El gobierno estadunidense incluirá en su presupuesto de 2019 150 millones de dólares "para hacer posible el desarrollo y la maduración de entidades y de capacidades comerciales que garanticen que los que tomen el relevo de la EEI sean operacionales" en tiempo y hora.

Desde la presidencia de George W. Bush, la Nasa comenzó a subcontratar ciertas operaciones, como los vuelos de abastecimiento, ahora en manos de empresas privadas como SpaceX y Orbital ATK, cuya tendencia se acentuó en el gobierno de Barack Obama.

En riesgo, único puesto de EU

Expertos en la exploración espacial reaccionaron con inquietud ante la noticia. El senador Bill Nelson, demócrata por Florida y ex astronauta se manifestó en contra de "apagar las luces y abandonar el único puesto de avanzada que tenemos en el espacio".

El historiador de la Nasa retirado Roger Launius opinó que tal decisión afectará a todos los demás países involucrados en el proyecto. Rusia es uno de los principales involucrados, además de Japón y Canadá.

Pero, trasladarlo todo al sector comercial es un cambio drástico, expresó Mike Suffredini, ex especialista del programa espacial de la Nasa, actual gerente de Axiom Space en Houston.

Advirtió que el gobierno estadunidense necesita participar hasta cierto punto en la EEI hasta que sea desmantelada. Ninguna empresa aceptará el riesgo de ser responsable en caso de que el proyecto colapse, añadió.

El domingo, Rusia canceló el lanzamiento de una cápsula de carga no tripulada que debía llevar toneladas de suministros a la EEI. Los preparativos para el lanzamiento de la nave espacial Progress desde el complejo de Baikonur, en Kazajistán, parecían avanzar sin problemas hasta menos de un minuto antes de la hora prevista para el despegue.

Roscosmos, agencia espacial rusa, explicó que la operación se canceló por un comando automático que estaba siendo investigado; el lanzamiento fue reprogramado para hoy. Esta misión va a probar una ruta más rápida hasta la estación orbital, anclándose al laboratorio 3.5 horas después de su partida y tras dar apenas dos vueltas alrededor de la Tierra.

Inteligencia artificial: el futuro de la especulación financiera

El tema de la inteligencia artificial despierta grandes inquietudes. Algunas están relacionadas con complicaciones reales, como el de la pérdida de empleos. Otras se vinculan con el problema de si las máquinas podrían adquirir consciencia de sí mismas en la medida en que alcancen mayores niveles de inteligencia. Ese día no está tan próximo como algunos aficionados del tema creen. Pero eso no quiere decir que no existen razones para preocuparse.


¿Cómo definir la inteligencia artificial (IA)? En términos muy sencillos, se puede definir como una tecnología basada en la recopilación de grandes cantidades de datos para usarlos en un proceso de toma de decisiones con una finalidad determinada. Los datos deben estar relacionados con un tema específico y los parámetros que rodean las decisiones deben estar más o menos bien determinados para alcanzar el objetivo buscado.


Las aplicaciones de la IA ya se dejan sentir en todos los sectores de la economía. Pero su penetración en los mercados financieros es particularmente alarmante. En este terreno la inestabilidad y los incentivos perversos de los mercados han mostrado tener un espectacular poder destructivo en los decenios pasados. Y si los reguladores ya tienen dificultades para supervisar el mercado, con la IA sus problemas se están intensificando.


Hasta hace poco tiempo los métodos utilizados por los especuladores en el sector financiero se basaban en el análisis tradicional sobre rendimientos pasados de algún activo y las perspectivas sobre las empresas o agentes que lo habían puesto en circulación. A pesar de la experiencia de los corredores y los operadores financieros, los sentimientos del mercado nunca fueron fáciles de apreciar y cuando ocurría un tropezón las pérdidas de sus clientes se acumulaban.


Hoy se supone que los nuevos equipos y programas de IA ayudarán a evitar errores y reducirán pérdidas para los inversionistas. La gran diferencia con las herramientas del análisis tradicional estriba en la cantidad de datos que esta tecnología permite procesar y en la velocidad a la que se puede analizar esa montaña de información. Mientras el análisis convencional permitía tomar en cuenta un número limitado de mercados simultáneamente, las herramientas de la IA hacen posible considerar al mismo tiempo un gran número de mercados financieros de diferente naturaleza en todo el mundo.


Lo más importante es que la inteligencia artificial hace posible a los operadores identificar oportunidades de arbitraje que el análisis convencional simplemente era incapaz de reconocer. Con la ayuda de la IA hoy las operaciones de arbitraje se pueden llevar a cabo no sólo al interior de un solo mercado y con productos de la misma naturaleza, sino entre todo tipo de mercados y activos heterogéneos. Así, por ejemplo, el especulador puede hoy identificar oportunidades de arbitrajes entre productos complejos en los mercados de futuros de materias primas y en el mercado mundial de divisas en cuestión de segundos. Las recomendaciones sobre la composición de carteras de inversión están basadas en este tipo de estimaciones, pero la fortaleza de estas sugerencias depende de la inestabilidad general de los mercados financieros.


Es cierto que con la IA las comparaciones de precios probables de múltiples productos y la evolución de variables como tipos de cambio y riesgo cambiario, tasas de interés o inflación se llevan a cabo a una velocidad relámpago. Pero quizá en eso reside el enorme riesgo que esta tecnología conlleva para la estabilidad de los mercados financieros.
Algunos analistas piensan que el uso generalizado de la IA conducirá a una mayor eficiencia y reducirá la volatilidad en los mercados financieros, porque la intervención humana se reducirá a un mínimo. Pero esa creencia no tiene bases sólidas. Lo cierto es que la IA no cambiará la naturaleza de la instabilidad intrínseca de los mercados financieros. De hecho, debido a la velocidad con que se realizan los cálculos y estimaciones al usarse esta tecnología, las fluctuaciones en este tipo de mercados financieros pueden amplificarse. Y, por otra parte, los incentivos perversos que muchas investigaciones han identificado en la dinámica de formación de precios de activos financieros tampoco desaparecen con la IA.


Las computadoras ya están diseñando computadoras cada vez más inteligentes. El matemático John von Neumann vaticinó en 1958 que ese proceso recursivo podría desembocar en una inteligencia superior a la humana y en lo que denominó un punto de singularidad: un punto más allá del cual no sería posible la continuidad de los acontecimientos humanos tal y como los conocemos. Todo eso es posible, aunque probablemente faltan varios miles de años para que las máquinas evolucionen de ese modo. Pero si se hacen más inteligentes, ¿por qué habrían de seguir empecinadas en buscar ganancias económicas en la especulación ciega, en lugar de solucionar los problemas de la humanidad en este planeta?


Twitter: @anadaloficial

Software Libre contra software privativo: batalla global

Desde que en 1991 Linus Torvalds empezara a trabajar en lo que más tarde sería Linux, la lucha entre los softwares libres y los softwares de pago ha alcanzado proporciones nunca imaginadas.

Para muchos escuchar los nombres de Linus Torvalds o Richard Stallman no significa mucho, pero los que conocen un poco de la historia de Internet y la mayoría de los programas utilizados por los usuarios del mundo, saben que esos nombres están estrechamente ligados a Linux y el Proyecto GNU, estandartes del software libre y el código abierto.


Hoy todavía la Microsoft es el gran monopolio en cuanto a software, pero ya con la adopción del software libre por numerosas empresas fabricantes de PC, muchas computadoras se venden con distribuciones GNU/Linux pre-instaladas. Ahora se ve que el GNU/Linux ha comenzado a tomar su lugar en el vasto mercado de las computadoras de escritorio y amenaza con desplazar al rey Bill Gates y su reino.


Muchas son las iniciativas que toman los amantes y desarrolladores de software libres para difundir su uso; una de ellas es el Festival Latinoamericano de Instalación de Software Libre (FLISoL), que figura como el evento de difusión de Software Libre más grande en Latinoamérica. Esta iniciativa se realiza desde el año 2005 y su principal objetivo es promover el uso del software libre, dando a conocer al público en general su filosofía, alcances, avances y desarrollo y ya este año cuenta con presencia en más de 200 ciudades del subcontinente.


Para tal fin, las diversas comunidades locales de software libre (en cada país, en cada ciudad o localidad), organizan simultáneamente eventos en los que se instala, de manera gratuita y totalmente legal, software libre en las computadoras que llevan los asistentes. Además, en forma paralela, se ofrecen charlas, ponencias y talleres, sobre temáticas locales, nacionales y latinoamericanas en torno al Software Libre, en toda su gama de expresiones: artística, académica, empresarial y social.


Los softwares libres representan una ventaja enorme para los usuarios finales porque no tienen que pagar las licencias de los programas que usan. Existen muchísimas aplicaciones gratis, de código abierto y con gran calidad a disposición de los usuarios particulares y de empresas y para Cuba la implementación masiva de estos softwares aportaría muchos beneficios.


Algunos usuarios, quizás por desconocimiento, afirman que no existen softwares libres funcionales para todas las finalidades que pudiera desear el usuario. Pero la realidad es diferente. Hay muchos programas libres y de código abierto con excelentes prestaciones, similares a los que ofrece Microsft Office, pero simplemente son desconocidos para muchas personas. Tienen gran calidad y no precisan de grandes conocimiento técnicos ni prestaciones de las PC. No tienes que preocuparte por las licencias y puedes estar seguro de no estar usando programas pirateados.


En Cuba en estos momentos existen importantes iniciativas encaminadas a la implementación a gran escala de software libres, donde se destacan la Universidad de Ciencias Informáticas (UCI) y su Facultad 10, el Ministerio de la Informática y las Comunicaciones (MIC) y los Joven Club, que actualmente instalan laboratorios con estas tecnologías e imparten curso a la población interesada.


Los softwares libres en Cuba tienen una buena perspectiva. Es muy importante el trabajo que se hace en los Joven Club y en el MIC en cuanto a la migración al software libre, pero donde más avances se ven es la UCI: allí se trabaja con estos programas y además se crean otros libres también. Ya podemos ver sus resultados con el lanzamiento del NOVA, que es un sistema operativo completamente creado en Cuba.
La gran batalla que se vive en el mundo entre los softwares libres y los de pago está teniendo ahora nuevas escaramuzas. Ya es noticia vieja la derrota de la Encarta frente a Wikipedia y asimismo se ve como muchos sistemas operativos y aplicaciones libre gana cada día terreno frente a los productos de la Microsoft, que ve ya las grietas en su resquebrajado imperio.
Artículo publicado originalmente en Perlavisión

Domingo, 03 Diciembre 2017 14:53

No se puede disciplinar la investigación

No se puede disciplinar la investigación

Están pretendiendo controlar el pensamiento mismo de los investigadores. Ya no solamente el de los educadores y profesores. Con ello, de consuno, se trata de controlar a posibles futuros lectores, a los estudiantes y a una parte de la sociedad. Una empresa de control total.


Una tendencia peligrosa tiende a hacer carrera en muchas universidades hoy en día, con paso cada vez más apretado y voz cada vez más elevada. Se trata de los intentos por disciplinar la investigación. Esto es, que los economistas deben publicar en revistas de economía, los administradores en revistas de administración, los politólogos en revistas de su disciplina y los médicos, por ejemplo, en las revistas de su área.


Se les quieren cortar las alas a los investigadores para que publiquen en revistas diferentes a su propia disciplina, y es creciente la tendencia a que, por ejemplo, para efectos de reconocimiento por producción intelectual, se valore poco y nada publicar artículos de alta calidad en revistas de otras áreas, incluso aunque esas revistas puedan ser 1A.


Esta es una tendencia evidente en Colombia y en otros países. Por tanto, cabe pensar que se trata de una estrategia velada que sólo se podría ver como anomalías locales. Falso.


Se trata, manifiestamente, de un esfuerzo cuyas finalidades son evidentes: adoctrinar a los investigadores y ejercer un control teórico —ideológico, digamos—, sobre su producción y su pensamiento. Y claro, de pasada, cerrarle las puertas a enfoques cruzados, a aproximaciones transversales, en fin, a la interdisciplinariedad.


Esta es una política a todas luces hipócrita: en efecto, mientras que de un lado cada vez más los gestores del conocimiento hablan de la importancia de la interdisciplinariedad, de otra parte se cierran; de un lado, en los programas de enseñanza y de otra parte, en los procesos mismos de investigación; libertades básicas que corresponden a lo mejor del avance del conocimiento en nuestros días.
Ciertamente que el conocimiento en general puede tener un avance al interior de cada disciplina. Pero ese progreso es limitado, técnico y minimalista. Dicho con palabras grandes: ese avance beneficia a la disciplina, pero deja intacto el mundo. No cambia para nada la realidad, ni la de la naturaleza ni la de la sociedad.


En realidad, disciplinar la investigación corresponde a la emergencia y consolidación del capitalismo académico. Bien vale la pena volver a leer, incluso entre líneas, el libro fundamental de Slaughter, S., and Rhoades, G., (2009). Academic Capitalism and the New Economy. Johns Hopkins University Press. Un texto invaluable sobre el cual los gestores del conocimiento en países como Colombia han arrojado un manto de silencio. Mientras que en los contextos académicos y de investigación de algunos países desarrollados sí es un motivo de reflexión y crítica.


Están pretendiendo controlar el pensamiento mismo de los investigadores. Ya no solamente el de los educadores y profesores. Con ello, de consuno, se trata de controlar a posibles futuros lectores, a los estudiantes y a una parte de la sociedad. Una empresa de control total.


En muchos colegios, los mecanismos de control ya están establecidos, notablemente a partir de las fuentes que trabajan; los libros, por ejemplo, muchos de ellos, concentrados en dos o tres fondos editoriales. El control ya viene desde las editoriales elegidas por numerosos colegios para la formación del pensamiento de los niños.


En las universidades se ha establecido ya la elaboración de los syllabus y de los programas. La libertad de enseñanza, la libertad de cátedra, como se decía, quiere ser más cercenada y manipulada. Incluso hay numerosos lugares donde se discuten colectivamente los programas, todo con la finalidad de ajustarlos finalmente a los syllabus.


Y a nivel de la investigación, el más reciente, el control ha venido a introducirse justamente con el llamado a la publicación de artículos en revistas de la disciplina. La libertad de pensamiento (= investigación) queda así limitada, si no eliminada.


En un evento internacional hace poco conocí a un profesor que había estudiado un pregrado determinado, había hecho su doctorado en otra área en un país europeo, y como resultado investiga en otros temas diferentes; pero, como pude comprobarlo, en investigación de punta (spearhead science). Pues bien, este profesor anda por medio país, y ahora por medio continente, buscando trabajo, pues las convocatorias en muchas ocasiones exigen disciplinariedad. Así, por ejemplo, haber estudiado economía y tener un doctorado en economía. De manera “generosa” (ironía), se escribe con frecuencia: “o en áreas afines”. Economía es aquí tan sólo un ejemplo.


El subdesarrollo —eso ha quedado en claro hace ya tiempo— no es un asunto de ingresos, dinero o crecimiento económico. Es ante todo una estructura mental. Pues bien, con fenómenos como los que estamos señalando, las universidades están reproduciendo las condiciones del atraso, la violencia, el subdesarrollo y la inequidad. Por más edificios que compren o reestructuren, por más aparatos y dispositivos que introduzcan en las clases y en los campus.


Como se aprecia, parece haber toda una estrategia política. Y sí, la política se ha convertido en un asunto de control y manipulación, no de libertad y emancipación.


Disciplinar la investigación es, en muchas ocasiones, un asunto de improvisación, en otras, una cuestión de mala fe (en el sentido Sartreano de la palabra), y en muchas ocasiones también un asunto de ignorancia.
Muchos profesores, simplemente por cuestiones básicas de supervivencia, terminan ajustándose a elaborar programas en concordancia con los syllabus, y a investigar y publicar en acuerdo con las nuevas tendencias y políticas. Por miedo, por pasividad. Pero siempre hay otros que conservan su sentido de independencia y autonomía.


Como sea, en el futuro inmediato, parece que el problema no se resolverá a corto plazo. Debemos poder elevar alertas tempranas contra la disciplinarización de la investigación. Y hacer de eso un asunto de discusión, estudio y cuestionamiento. Son numerosos los amigos y colegas que conozco que enfrentan este marasmo.
Diciembre 3 de 2017

La científica Marie Curie, modelo para la emancipación femenina

Un viejo teléfono, una lámpara verde y un pesado escritorio de madera: el tiempo parece haberse detenido en el despacho de Marie Curie, de cuyo nacimiento se cumplieron 150 años ayer. El cuarto de altos ventanales en el que trabajó la famosa científica es parte del Museo Curie, ubicado en el distrito V de París. Al lado está su laboratorio químico privado, con vistas a un pequeño jardín. El museo, algo escondido, es sobre todo para amantes de la ciencia.

Pero a tan sólo cinco minutos se encuentra el Panteón, que con motivo de este aniversario dedicó una exposición a la premio Nobel de Física y Química. Por allí pasan cada año unos 600 mil visitantes, pues es el lugar en el que Francia rinde homenaje a los héroes de la nación. Son sobre todo hombres, como los filósofos Voltaire y Jean-Jacques Rousseau o los escritores Víctor Hugo y Émile Zola. Pero desde 1995 también reposan allí los restos de Marie Curie (1867-1934) y de su esposo, Pierre Curie (1859-1906).

"Es la científica más famosa del mundo", apunta Nathalie Huchette, responsable de la exposición. "Es la única mujer que consiguió dos premios Nobel".

En 1903 le fue concedido el Nobel de Física junto a su marido y al francés Antoine-Henri Becquerel por el descubrimiento e investigación de la radiactividad. En realidad el comité iba a otorgárselo sólo a Becquerel y Pierre Curie, pero este último peleó para que también Marie fuera reconocida.

En 1911, ya en solitario, la científica de origen polaco recibió el Nobel de Química por haber descubierto el radio. Fue la primera mujer en ser reconocida en el Panteón por sus logros y tuvieron que pasar dos décadas hasta que se concedió ese honor a Geneviève de Gaulle-Anthonioz y Germaine Tillion, luchadoras de la resistencia. “Destacó en un mundo de hombres. Abrió un camino para las mujeres.

"Fue un modelo para la emancipación femenina", explica Huchette. Tras la prematura muerte de Pierre en un accidente, en 1906, tuvo que luchar sola contra muchos prejuicios.

Campañas de difamación

"Era mujer y extranjera, por lo que no fue muy bien recibida en Francia en 1910 y 1911. Fue objeto de campañas de difamación en la prensa conservadora y de extrema derecha. Y no fue aceptada en la Academia de las Ciencias".

Maria Sklodowska nació en Varsovia en el seno de una familia de maestros. Fue la pequeña de cinco hermanos y su madre murió cuando todavía era una niña. Durante años trabajó para ayudar a una de sus hermanas a estudiar en París, a cambio de que después ella hiciera lo mismo por Marie.

La futura premio Nobel llegó a la capital francesa con 24 años y allí estudio física, química y matemáticas.

Conoció a Pierre en 1894 y la ciencia los unió en el laboratorio y en la vida. Trabajaron juntos y tuvieron dos hijas: Irène y Ève. La primera también se dedicó a la ciencia, se casó con un asistente de Marie, Frédéric Joliot, y juntos ganaron el Nobel de Química en 1935. Durante la Primera Guerra Mundial, Madame Curie y su hija Irène pusieron en marcha un servicio de unidades móviles de radiografía que pasaron a llamarse las "pequeñas Curie". La radiactividad que descubrió fue posiblemente la que provocó su muerte, en 1934, debido a las prolongadas exposiciones a materiales radiactivos, sobre cuyos efectos adversos no se sabía entonces tanto.

Tampoco su Polonia natal la olvidó en este aniversario. Allí se celebraron exposiciones y actos culturales en varias ciudades, mientras la Universidad de Varsovia organizó una conferencia científica.

La Universidad Curie de Lublin también le rindió homenaje y en la capital se colocó una corona de flores ayer ante el monumento que recuerda al matrimonio.

"Solucionar problemas complejos requiere equipos multidisciplinarios"

En las décadas pasadas la sociedad ha sufrido cambios importantes gracias a la evolución del conocimiento en comunicación y transporte, por ejemplo; actualmente el papel de la ciencia y sus aplicaciones ha pasado de ser un asunto solo relevante para los especialistas a un tema que atañe a todos, afirmó José Luis Morán López, doctor en física y presidente de la Academia Mexicana de Ciencias (AMC).

Al dictar la conferencia magistral El papel de la investigación científica, aplicaciones y la innovación en la sociedad moderna, en el auditorio Maestro Carlos Pérez del Toro, en la Universidad Nacional Autónoma de México (UNAM) una de las sedes del 12 Congreso Internacional de Contaduría, Administración e Información, Morán señaló que los términos "sociedad y economía del conocimiento" son parte del lenguaje cotidiano y hacen referencia a la capacidad de la primera para incorporar el saber generado por sus científicos a sus actividades productivas y de servicios.

"Aplicar el conocimiento para solucionar los problemas que afectan a la sociedad ha dado visibilidad a las instituciones de educación superior e investigación científica", precisó.

Proyecto Manhattan

Este proceso, sin embargo, agregó, no siempre ha sido así, ya que se han registrado sucesos en la historia que han contribuido a esta nueva forma de concebir a la ciencia. Uno de ellos es el proyecto Manhattan (para la fabricación de la bomba atómica), creado en la Segunda Guerra Mundial; se le dedicaron recursos económicos sin precedente y reunió a miles de investigadores y técnicos que demostraron contundentemente la importancia de la investigación científica y sus empleos tecnológicos, que posteriormente sirvieron para la generación de energía nuclear.

"A partir de esa experiencia, la inversión del Estado y de la iniciativa privada en ciencia, por medio de las universidades y de la consolidación de laboratorios de la industria privada, creció notablemente en los países desarrollados, con grandes dividendos", destacó Morán.

Sin embargo, también hubo otros descubrimientos que han abonado en favor de la sociedad, como el del transistor, en 1947, en la posguerra, que produjo la revolución de la electrónica.

Desde esa fecha el tamaño de los transistores ha ido disminuyendo y su densidad en circuitos electrónicos tiene valores insospechados. Sus inventores Bardeen, Brattain y Shockley, de los laboratorios Bell, compartieron en 1956 el Premio Nobel de Física por este logro.

Gordon Moore predijo en 1965 que con el avance de la tecnología, la cantidad de esos dispositivos en un circuito electrónico se duplicaría cada dos años. En 2010 el número de ellos en un microprocesador era de miles de millones; sus dimensiones ahora se miden en nanómetros (una milésima de micra).

Otro ejemplo que planteó el físico es el de los imanes, que tienen un uso cotidiano en audífonos, computadoras, teléfonos fijos y celulares, hornos de microondas, sistemas de grabación, audio y video, así como en motores de puertas eléctricas, extractores de cocina, bombas de agua, de autos, sin olvidar los dispositivos de almacenamiento.

“Sin duda –precisó Morán–, otro de los inventos que ha revolucionado a la sociedad es la Internet, inventado por los físicos de altas energías en el Organización Europea para la Investigación Nuclear (CERN, por sus siglas en francés), la cual ha modificado completamente las comunicaciones y ofrece una nueva forma de hacer negocios.”

Dos ejemplos recientes de estos negocios es la firma Uber, que utiliza una herramienta de software y sin poseer un solo auto es la mayor empresa de taxis del mundo, o Airbnb, el más grande corporativo hotelero a escala mundial y no cuenta con un solo hotel.

José Luis Morán señaló que estos ejemplos muestran el valor de la ciencia en la vida cotidiana; por tanto, los investigadores tienen un papel social importantísimo, ya que generan nuevo conocimiento, lo aplican a la solución de problemas y forman los recursos humanos especializados que requiere el país.

En este contexto, resaltó que las academias de ciencias del mundo han incluido estos elementos en sus líneas de acción y fungen como promotores de la incorporación del conocimiento a las diversas actividades en la sociedad. "Hoy día sabemos que para enfrentar los problemas complejos es necesario conformar grupos multidisciplinarios, porque una sola disciplina no lo puede hacer", admitió.

El presidente de la AMC agregó que las academias, además, son un puente entre las instituciones que realizan investigación científica y los poderes públicos para asesorar y desarrollar programas.

Morán López destacó la importancia de invertir en ciencia, tecnología e innovación, aun cuando el país vive y resiente una crisis económica global. "Si queremos una sociedad más justa, con un desarrollo más equilibrado, se debe invertir más en educación y ciencia, (porque) un pueblo sin educación es un pueblo pobre y eso no es lo que queremos".

Ante un público en su mayoría joven, informó que la comunidad científica se ha manifestado en contra del recorte federal a este sector, porque “disminuir el presupuesto a la educación y la ciencia no es el camino (...), necesitamos apoyar el desarrollo en esta área y sus aplicaciones para solucionar problemas; creemos que se debe invertir en la ciencia y sus aplicaciones para ser partícipes, no solo usuarios”.

Sergio Javier Jasso, investigador en la División de Investigación de la Facultad de Contaduría y Administración de la UNAM, quien fungió como presentador y moderador en la conferencia, apuntó que en otros países los esfuerzos en inversión en ciencia tecnología e innovación son mayores, mientras en México han sido muy pequeños.

"En qué medida países como el nuestro, que muestran cierto rezago, tienen la probabilidad real de acercarse a esa dinámica de sociedad del conocimiento, es una discusión abierta", concluyó Jasso.

Lunes, 18 Septiembre 2017 06:22

¿Qué es la lógica epistémica?

¿Qué es la lógica epistémica?

La lógica epistémica forma parte de las lógicas no clásicas, se encuentra estrechamente relacionada con la lógica modal y multimodal, y la suya es una semántica de mundos posibles.



¿Qué significa que el conocimiento sea susceptible de un estudio formal? Esta puede ser considerada como la puerta de acceso a la lógica epistémica. Pues bien, una respuesta plausible es que “conocimiento” e incluso “creencia” pueden ser explicados en términos inmensamente mejores que simplemente decir: el conocimiento consiste en el trabajo y las relaciones entre ideas, conceptos, categorías, juicios, argumentos, nociones y palabras acerca del mundo y de la realidad; más o menos. Que es lo que de manera tradicional afirmaron filósofos y psicólogos, principalmente.


El conocimiento es susceptible de ser explicado en términos de una lógica. Y la lógica no forma ya parte de la filosofía; particularmente después del surgimiento de la lógica formal clásica (también conocida como lógica simbólica, lógica matemática, lógica proposicional o lógica de predicados). La lógica, uno de los capítulos excelsos del pensar abstracto, conjuntamente con las matemáticas, la filosofía, la física pura o la química teórica. Hoy, en un mundo eminentemente práctico y pragmático.


La lógica epistémica forma parte de las lógicas no clásicas, se encuentra estrechamente relacionada con la lógica modal y multimodal, y la suya es una semántica de mundos posibles. Es posible comprenderla de manera negativa de la siguiente manera: tiene como finalidad una crítica de la lógica omnisciente; que es la lógica de la humanidad occidental, desde siempre, hasta la ciencia normal predominante. Sencillamente, los seres humanos no conocen todas las consecuencias lógicas de sus conocimientos o creencias.


En pocas palabras, cuando las situaciones pueden ser consideradas como originándose a partir de la presencia o ausencia de conocimiento, hablamos entonces de alternativas epistémicas.


En este plano, dos ejes principales son la elucidación del conocimiento individual y, mucho más significativo, la comprensión del conocimiento social o colectivo. Un asunto de la mayor complejidad para la inmensa mayoría de ciencias y disciplinas. Para lo cual la lógica epistémica distingue entre el conocimiento implícito, el distribuido y el común.
Desde luego que la lógica epistémica tiene una prehistoria y una historia. De aquella forman parte figuras como Aristóteles, Buridano, Duns Scoto y G. De Ockham. Sin embargo, en cualquier caso, la lógica epistémica puede decirse que nace en 1962 a raíz de un libro ya clásico y fundamental de J. Hintikka: Knowledge and Belief: An Introduction to the Logic of Two Notions (otro de esos libros esenciales que nunca fueron traducidos al español).


Si hay un área destacada de trabajo en lógica epistémica actualmente es el de las ciencias de la computación. Para lo cual basta con remontarse al trabajo pionero de A. Turing: ¿es posible distinguir claramente la inteligencia humana de la inteligencia artificial? La respuesta es cada vez menos evidente. El más radical de los estudiosos al respecto es R. Kurzweil, alguien que pone nerviosos a los conservadores y humanistas de la vieja guardia. (Kurzweil llega tan lejos que ya le puso una fecha a la respuesta: 2019, la fecha cuando será imposible distinguir entre inteligencia humana e inteligencia artificial).


Subrayemos esto: la asunción básica de la lógica epistémica es la de que en materia de conocimientos o de creencias es posible dividir el conjunto de mundos en dos, así: aquellos mundos que son compatibles con el asunto en cuestión, y aquellos que no lo son. Al respecto baste con un reconocimiento explícito: en ciencia conocer es conocer acerca del futuro.


(Digamos entre paréntesis que existe una fuerte implicación recíproca entre la lógica de las opiniones y creencias —técnicamente llamada como lógica doxástica—, y la lógica epistémica: la lógica del conocimiento. Sencillamente, la lógica doxástica es más débil —o está incluida— dentro de las lógica del conocimiento. Las creencias son más frágiles que los conocimientos).


La epistemología clásica se define a partir de un reto: resolver los ataques del escepticismo. (No existe una lógica del escepticismo, así como tampoco existe una cultura de la muerte; hablar así es lo que sucede cuando el lenguaje está de vacaciones). Acorde a los desarrollos más recientes de la investigación, de otra parte, el interés se centra cada vez más en el modelamiento de las dinámicas que implican conocimientos y creencias. Este plano desborda el ámbito estrictamente humano y se extiende en general a todos aquellos agentes —animales, bacterias, sistemas artificiales, robots, etc.—, que exhiben claramente rasgos y estados cognitivos. El tema se torna magníficamente más complejo en este segundo plano.


Pues bien, es posible sostener que la lógica epistémica inaugura un camino novedoso —o bien, para los escépticos, se integra en las vías que hacen de lo siguiente un asunto mayor—, a saber: comprender la racionalidad de los procesos de investigación. Así, por ejemplo, la resolución de problemas; el trabajo con escenarios múltiples, muchas veces muchos de ellos disyuntos; la importancia de la intuición, la creatividad, la imaginación o la espontaneidad; en fin, la importancia del juego y el azar, por ejemplo. Todos los cuales implican y están atravesados por estados de creencias o de conocimiento.


Dicho de manera breve, hoy por hoy es imposible un estudio de la epistemología al margen de la lógica epistémica. Supuesto que se trabaja en las fronteras del conocimiento.
Para los sistemas vivos el mundo está configurado en correspondencia con los estados mentales —imágenes, mapas, asociaciones, y demás— de que son capaces los sistemas vivos. Dicho brevemente, mientras que la lógica formal clásica es una lógica eminentemente antropocéntrica y antropomórfica, la lógica epistémica admite que el problema no se agota ni se reduce a los seres humanos. Sólo que constituyen un ejemplo conspicuo de creencias y conocimientos.

El papel de las mujeres en la historia de la ciencia

En una época donde la igualdad en el laboratorio está más cerca que lejos, la cultura revisa el arrinconado papel de las mujeres en la historia de la ciencia


En el otoño de 1940, mientras el antisemitismo daba dentelladas, Rita Levi-Montalcini (Turín, 1909-Roma, 2012) fabricaba instrumentos artesanales para rehacer en su habitación un laboratorio donde continuar con la investigación que las leyes raciales de Mussolini habían truncado. Ante cada bombardeo británico, protegía su vida tanto como la del microscopio binocu¬lar Zeiss que se llevaba al refugio. En la montaña, donde se ocultó con su familia, peregrinó por granjas para conseguir huevos que le proporcionasen embriones para el experimento y tortillas para sus estómagos, por este orden. Y ni siquiera fueron las horas más angustiosas que vivió durante la guerra, cuando ejerció la medicina con tal impotencia ante la avalancha de muertos que renunció de por vida a la práctica clínica.


Años después, al revivir aquellas horas para sus memorias Elogio de la imperfección (Tusquets), afirmaría que siguió adelante con sus trabajos mientras el mundo se derrumbaba gracias a “la desesperada y en parte inconsciente voluntad de ignorar lo que ocurre, porque la plena consciencia nos habría impedido seguir viviendo”. Aquellos estudios desarrollados a contrapelo acabarían en un descubrimiento, el factor de crecimiento nervioso (NGF), que le daría en 1986 el Nobel de Medicina.


Un asunto, el del Nobel, al que ella dedica dos escuetas alusiones en sus memorias. Lo importante estaba en otra parte. En el consejo que un colega le dio en uno de aquellos días apocalípticos: “No se dé por vencida. Monte un laboratorio y siga trabajando. Recuerde a Cajal, y cómo en la ciudad soñolienta que debía ser Valencia a mediados del XIX sentó las bases de lo que conocemos del sistema nervioso de los vertebrados”.


No darse por vencidas pese a que todo, el contexto también, invitaba a hacerlo. La clave que convierte en historias épicas las trayectorias de las mujeres que dieron a la ciencia más de lo que la ciencia les reconoce reside en un heroico afán de superación. En una inteligencia portentosa protegida por una coraza de galápago para sobreponerse a los abucheos, las burlas, la explotación salarial o la apropiación indebida de sus ideas. Contra la visión de que la ciencia era un reducto de hombres, emergen cada vez más biografías y películas de esas aventureras del conocimiento (desde 2009:Ágora, El viaje de Jane, Temple Grandin, Figuras ocultas o Marie Curie).


Pocas, sí. Pero tan silenciadas que no existían hasta que en las últimas décadas, acompañando a la irrupción masiva de mujeres en el laboratorio y al impulso de los estudios de género, aflora una relectura que pone algunas cosas (y personas) en su sitio: desde la paleontóloga Mary Anning (1799-1847), que renovó el conocimiento de la prehistoria con sus descubrimientos de fósiles de dinosaurios (y silenciada por ser mujer, pobre y no anglicana, en el orden que quieran), hasta la matemática Ada Lovelace (1815-1852), considerada precursora de la programación informática.


Claro que si el Nobel es la cúspide para medir la excelencia, solo 48 mujeres han tocado el cielo. Un raquítico 5% de los 881 premiados (excluidos organismos) desde que se entregan en 1901. Tampoco las estadísticas domésticas invitan al jolgorio: los principales premios científicos concedidos hasta 2015 en España (Princesa de Asturias, Nacionales, Jaime I y Frontera-¬BBVA) han ido a manos de hombres en el 89% de las ocasiones, según datos de la Asociación de Mujeres Investigadoras y Tecnólogas (AMIT).


Los honores no resisten una revisión crítica de su historia. La trastienda del Nobel está repleta de pelusa sexista. Tres ejemplos. La austriaca Lise Meitner, pese a su papel en el descubrimiento de la fisión nuclear, es excluida en 1944 del Nobel de Física, entregado a su colaborador ¬Otto Hahn (otra alegría que sumaba la judía Meitner después de haber tenido que huir del Berlín nazi). Rosalind Franklin y su famosa Fotografía 51, donde se aprecia la doble hélice del ADN por la que pasarían a la historia James Watson, Francis Crick y Maurice Wilkins, que se valieron de la imagen sin reconocer a su autora. O la irlandesa Jocelyn Bell, que descubrió los púlsares con 24 años, mientras realizaba su doctorado. Tanta precocidad perturbó a la Academia, que distinguió con el Nobel a sus superiores.


A este rescate histórico se suma ahora la exposición Mujeres Nobel, dedicada a algunas de las ganadoras. Una lista que inauguró Marie Curie en 1903 y de momento cerraron en 2015 la periodista bielorrusa Svetlana Alexiévich (Literatura) y la científica china Youyou Tu (Medicina). Detrás de cada una coinciden a menudo la voluntad, la modestia y el humanismo. Si Levi-Montalcini ejerció la medicina clandestinamente durante la Segunda Guerra Mundial, Marie Curie (Nobel de Física y Nobel de Química) creó un servicio móvil de atención radiológica, los petit curie, para facilitar la extracción de metralla a los heridos en la Primera, ayudada por su hija Irène, futura Nobel de Química en 1935.

“Preocupada por la posibilidad de que alguna vez el conductor no estuviese disponible, aprendió a conducir y también la mecánica imprescindible”, cuentan en la biografía Ella misma (Palabra) Belén Yuste y Sonnia L. Rivas-Caballero, también comisarias de la exposición, que han organizado el CSIC y el Museo Nacional de Ciencias Naturales.
Marie Curie es probablemente la científica más admirada. Fue también una de las más atacadas por su vida personal (su supuesta relación, ya viuda, con Paul Langevin, ya casado), utilizada por la prensa sensacionalista con la saña de las redes sociales de hoy. El mito Curie, sin embargo, pudo con todo, incluida la apertura de las puertas del Panteón de Hombres Ilustres de Francia en 1995. Un modelo que llevó a la niña Joaquina Álvarez a saber de qué iría el futuro: “Me regalaron un libro sobre ella y me dije: ‘Yo quiero hacer esto, saber cómo funciona el mundo, y más o menos lo he conseguido, pero siempre he sido minoría. Y cuando eres minoría, no te escuchan, te ignoran y casi siempre estás sola”. La geóloga Álvarez, que investiga en Taiwán los procesos que influyen en la formación de cordilleras, preside la AMIT, la organización que desde 2002 lucha por una ciencia libre de discriminación. Y aunque hay señales optimistas —tantas mujeres como hombres leyendo tesis—, se mantiene el predominio masculino en la cima de la carrera científica española.


En Europa se cita el 2000 como punto y aparte. Se presenta ese año el informe ETAN sobre Mujeres y Ciencia, un alarmante compendio de desigualdades en los países comunitarios. “La brecha de género afecta al PIB. Una sociedad no puede permitírselo, como tampoco se puede permitir la esclavitud, porque significa perder talento”, sostiene Pilar López Sancho, presidenta de la Comisión Mujeres y Ciencia del CSIC. En 2015 promovió la entrega de la medalla de oro del organismo a Jocelyn Bell, la descubridora de los púlsares. Pensó que era la primera mujer en recibirlo. Su estupor fue mayúsculo al descubrir que había un precedente que ignoraba. “La primera en recibir la medalla fue Rita Levi-Montalcini, pero en vez de en el salón de actos, se le dio en una salita pequeña y no se hicieron fotos. Pasó desapercibido. El colmo es que le den la medalla y no se sepa”.


La periodista Dava Sobel reconstruyó en El universo de cristal (Capitán Swing) la insólita experiencia del Observatorio de Harvard, que en 1893 alcanzaba la paridad: el 42,5% de los ayudantes eran mujeres. Hasta ahí lo bueno. “A veces me siento tentada de abandonar y dejar que pruebe poniendo a otra o a algún hombre a hacer mi trabajo, para que así se dé cuenta de lo que está obteniendo conmigo por 1.500 dólares al año, comparado con los 2.500 que recibe cualquier otro ayudante (hombre). ¿Piensa alguna vez que tengo un hogar que mantener y una familia que cuidar al igual que los hombres?”, se quejaba Williamina Fleming, una escocesa que entró como sirvienta en la casa del director del Observatorio, Edward Pickering, y acabó como conservadora oficial de fotografías astronómicas de Harvard.


Además de la complicidad de Picke¬ring, las investigadoras se beneficiaron de otra circunstancia: la financiación del Observatorio dependía de la filántropa Anna Palmer Draper, viuda del astrónomo Henry Draper. Para la historia también quedó constancia de la incomodidad que suscitaban las astrónomas en el presidente de Harvard: “Siempre pensé que el cargo de la señora Fleming era un tanto anómalo y sería mejor no convertirlo en una práctica regular otorgando a sus sucesoras el mismo cargo”.

Lunes, 04 Septiembre 2017 07:43

Las teorías coherentes

Las teorías coherentes

El reconocimiento de que existen y son posibles teorías inconsistentes, paraconsistentes y subdeterminadas permite ganar enormemente en grados de libertad y en comprensión y explicación de los fenómenos del mundo.

Th. Kuhn establece la distinción —jamás la jerarquía— entre la comunidad académica y la comunidad científica. Cabe aquí detenernos un instante en la segunda.

Un investigador destacado no simple y llanamente se concentra en autores, líneas y/o escuelas de pensamiento y determinadas técnicas y herramientas. Además y fundamentalmente debe poder ser capaz de discutir y elaborar modelos. Así, por ejemplo, modelos educativos, modelos físicos, modelos políticos, modelos matemáticos, modelos económicos. La más apasionante y difícil de las discusiones en este plano consiste en considerar: (a) cómo surge un modelo teórico; (b) cómo se mantiene o se sostiene; (c) cómo se hecha abajo o se tumba un determinado modelo del mundo o la sociedad.

Pues bien, correspondientemente, un investigador de primera fila debe poder elaborar una teoría (decir “teorías” suena en realidad muy presuntuoso). Son numerosos que estudian, conocen y debaten teorías; constituyen un puñado selecto aquellos que desarrollan una teoría, en acuerdo con sus fortalezas y/o campos de trabajo.

El concepto de “teoría”, tal y como se lo conoce actualmente —esto es, por ejemplo, en el sentido de la teoría de la evolución o la teoría de la relatividad—, es perfectamente reciente. La primera vez que aparece el término como tal es en 1600 con el libro Tellluris Theoria Sacra (conocido en ocasiones también como Theoria Terra Sacra) de Th. Burnetti. Teoría de la Tierra Sagrada.

Ocasionalmente alguien con formación filosófica podrá argumentar que el concepto de teoría se remonta al griego theorein, que significa contemplar, observar. Esto es cierto. Y, sin embargo, nada tiene que ver con el término de “teoría científica” tal y como se conoce y se emplea habitualmente.

Pues bien, prácticamente todas las teorías habidas en la historia de la humanidad occidental son y han sido teorías coherentes. Esto es, tienen la pretensión de ser conclusivas y/o concluyentes. En verdad, una teoría que no es concluyente y/o conclusiva no es, en el sentido normal de la palabra, una teoría; es, tan sólo, una hipótesis, o una conjetura.

La primera y más radical reflexión acerca del significado de las teorías habidas en la historia se debe a K. Gödel, quien demuestra (= teorema) que se ha tratado y se trata, en verdad, de teorías triviales, por tautológicas.

Dicho de manera sintética, las forma como se han explicado los fenómenos hasta la fecha es atendiendo al sistema en consideración por sí mismo, o bien, a los componentes y a las relaciones del sistema en consideración. Debemos, sostuvo Gödel, poder pensar en términos no tautológicos, esto es, no autorreferenciales. La lógica paraconsistente pone de manifiesto que una teoría tautológica es trivial. Sorpresivamente, la mayoría de explicaciones sobre el mundo han sido... triviales; y, sin embargo, sostiene un argumento pragmático, “han funcionado”.

Otra manera de entender lo anterior es gracias a una aproximación importante en el marco de la filosofía de la ciencia: el coherentismo. El coherentismo (Ramsey, Bradley, Quine, Sellars, o Recher, entre otros) es sencillamente la tesis que sostiene que todas las explicaciones de un fenómeno deben cuadrar como un rompecabezas, unas con otras. Eso, coherencia.

Pensar en términos tautológicos o coherentistas, sin embargo, significa en realidad pensar en términos de incompletud. Gödel: si una teoría es coherente, entonces es incompleta. Una forma de entender esto es diciendo que las teorías estándar o normales son inconsistentes. La historia de la lógica, la matemática y la epistemología no ha podido recobrarse de la crítica de Gödel. Y de consuno, de las reflexiones por parte de la lógica paraconsistente.

Pues bien, un buen investigador puede reconocer que no es necesario ni inevitable que una teoría científica, del mundo o de una parte del mundo deba ser coherente o completa. Son posibles —e incluso, a fortiori, necesarias— otras teorías. Este es el tema, dicho ampliamente, de la metateoría que emerge de las lógicas no clásicas.

En verdad, son posibles teorías inconsistentes, teorías paraconsistentes y teorías subdeterminadas. Algo perfectamente inopinado e inaudito cuando se lo ve con los ojos de la tradición y/o de la ciencia normal, predominante todavía allá afuera. Este tipo de teorías son alternativas a las teorías completas (una vez más: concluyentes y/o conclusivas, o por lo menos con pretensiones de ser tal). Este nuevo panorama complejiza enormemente el conocimiento, y al mismo tiempo el mundo y la naturaleza.

La verdad es que el reconocimiento de que existen y son posibles teorías inconsistentes, paraconsistentes y subdeterminadas permite ganar enormemente en grados de libertad y en comprensión y explicación de los fenómenos del mundo. Y uno de ellos, quizás el más sensible de todos: la vida y los sistemas vivos. La vida–tal–y–como–la–conocemos, tanto como la vida–tal–y–como–podría–ser–posible.

Un investigador de primera fila, por así decirlo, no se encuentra ya abocado(a) a tener que trabajar con, ni a formular y desarrollar, teorías coherentes. Que por ello mismo son cerradas y percluyentes. Ello conduce a comprender el mundo en términos de ámbitos, áreas, campos o compartimentos —más o menos consistentes.

Sorpresivamente, pensar el mundo y la naturaleza consiste en indeterminarlos, algo perfectamente desconocido a la luz de toda la heurística conocida, la metodología y la lógica de la ciencia habida y normal. Indeterminar el mundo, la sociedad y la vida es perfectamente posible con la ayuda de tres formas de teoría perfectamente desconocidas hasta la fecha. Teorías inconsistentes, teorías paraconsistentes y teorías subdeterminadas.

Cuando los científicos, académicos e investigadores se dan a la tarea de desarrollar teorías científicas. Del mundo, o de una sección del mundo y la realidad. Que es lo que sucede la mayoría de las veces.

Superláser de rayos X permitirá analizar la materia en el nanomundo

European XFEL, fruto de la colaboración de 11 países, será inaugurado en Alemania

Se extiende a lo largo de 3.4 kilómetros en los alrededores de Hamburgo


El mayor láser en el dominio de los rayos X del mundo, el European XFEL, será inaugurado mañana en Alemania con la misión de analizar la materia a escala atómica y permitir avances sobre todo en medicina y biología.

Este equipamiento puntero, fruto de una colaboración entre 11 países, en especial Alemania y Rusia, pero también Francia y España, se extiende a lo largo de 3.4 kilómetros en los alrededores de Hamburgo.

"Es la mayor y más potente fuente de rayos X fabricada por el hombre en el mundo", declaró Olivier Napoly, del Comisionado de la Energía Atómica francés, que participó en su construcción.

El Láser Europeo de Electrones Libres y Rayos X (XFEL, por sus siglas en inglés) comprende varios túneles subterráneos, de los cuales uno, con una profundidad de 38 metros, alberga un acelerador lineal de electrones que mide 1.7 kilómetros, y que permitirá que éstos generen una energía de entre 10 mil millones y 17 mil 500 millones de electronvoltios (V).

Este láser X podrá producir hasta 27 mil flashes de rayos X por segundo, un enorme salto comparado con los 120 emitidos por el láser estadunidense LCLS, de Stanford, y los 60 generados por el SACLA de Japón.

Tendrá además "el mayor promedio de brillo en el mundo", declaró Robert Feidenhans’l, presidente del consejo de administración del European XFEL.

Se trata del número de fotones (partícula de luz) generados a una determinada longitud de onda. "En su punto más álgido, el brillo del XFEL será mil millones de veces mayor que el de los sincrotrones, las mejores fuentes de rayos X convencionales", aseguran sus responsables.

"Permitirá ver los detalles más pequeños y procesos jamás observados en el nanomundo", agregó Feidenhans’l.

Sus aplicaciones abarcarán desde la medicina y la biología hasta la química y la ciencia de los materiales.

Por ejemplo, los científicos podrán "observar en detalle los virus a escala atómica, descifrar la composición molecular de las células, tomar imágenes en tres dimensiones del nanomundo y estudiar los procedimientos similares a los que se producen en el interior de los planetas", subrayaron los responsables.

Como la duración de los flashes es extremadamente corta, los investigadores podrán también realizar "filmes" de procesos ultrarrápidos, como las reacciones químicas y los cambios en las biomoléculas de los seres vivos.

El European XFEL es el resultado de un acuerdo alcanzado en 2009 entre 11 países y fue promovido por el centro de investigación alemán DESY, de Hamburgo. La construcción tuvo un costo de unos mil 800 millones de dólares, financiados en 57 por ciento por Alemania, 26 por Rusia, mientras los otros países (Francia, España, Italia, Suiza, Dinamarca, Hungría, Polonia, Eslovaquia, Suecia) participaron entre uno y 3 por ciento, cada uno. Reino Unido prometió sumarse próximamente al proyecto.

Los científicos compiten para ser los primeros en experimentar con este equipamiento, cuya potencia aumentará de forma progresiva tras su inauguración. "Hay una gran competencia entre los investigadores para obtener tiempo de haces", indicó Feidenhans’l.