Miércoles, 27 Diciembre 2017 07:52

Colciencias, la investigación y la filosofía

Colciencias, la investigación y la filosofía

A propósito de la clasificación de revistas, grupos e investigadores, realizada por Colciencias cada año, este artículo critica la ideología del rendimiento con que tal institución ha sometido la investigación en el país, generando como resultado no sólo la mecanización de los ritmos vitales del investigador, sino la banalización de los fines de la investigación, de la crítica y del papel de la filosofía.

 

Todos los años es lo mismo: investigadores de todas las ciencias, pero en especial los de las llamadas ciencias sociales, angustiados por la clasificación dada por Colciencias a sus grupos de investigación y a ellos mismos como investigadores. No es para menos, de tal clasificación dependen desde las movilidades nacionales e internacionales para socializar la investigación e intercambiar con pares, y consiguientemente, hacer co-crecer el conocimiento, hasta la obtención de presupuesto para los grupos de investigación, pasando por su propia estabilidad laboral en las universidades.

Es un verdadero calvario. Si no se logra una buena clasificación, no se obtienen recursos para nuevas investigaciones, no hay comunidad científica y hasta puede perderse el empleo. Lo cierto es que a pesar de muchos esfuerzos, la investigación en el país no despunta. Esta es, en pocas palabras, la dictadura de Colciencias, apoyada, como toda dictadura, en una burocracia asfixiante que mata la creatividad y la libertad, al apostarle de manera preponderante a la investigación útil, al hacerla depender sólo de los intereses de las grandes compañías, sometiendo la investigación y sus resultados al mercado.

Una consecuencia de la ciega sumisión de la investigación a los requerimientos de la empresa, es lo que en el mundo ha sucedido con las farmacéuticas: le pagan a las universidades o tienen sus propios centros de investigación, forzando los resultados y ocultando los efectos secundarios de las drogas, lo que no sólo genera daños en la salud de los pacientes, sino que pervierte los fines éticos y sociales de la ciencia misma. En estos casos, los científicos se convierten en apéndices de las necesidades financieras de sus patrocinadores, pasando por alto la ética de la profesión.

La ciencia y la investigación deben, ciertamente, dar respuestas a las necesidades de las sociedades, solucionar retos productivos, buscar la eficiencia para reducir los daños ambientales, etcétera, sin embargo, lo que no es aceptable es que la investigación dependa exclusivamente de las necesidades del mercado, de las multinacionales y de las empresas. La razón es sencilla: esa lógica sólo busca resultados inmediatos, atentando contra la investigación autónoma, desinteresada y libre, investigación que a futuro (los resultados no son siempre inmediatos) puede ofrecer grandes beneficios y generar grandes oportunidades para el conjunto social, la empresa privada también ahí considerada. La investigación libre, aquella que toma tiempo, requiere presupuesto; aquella que nace de la intuición y de la creatividad, deben mantenerse en las universidades, sin estar sometida al pragmatismo y al eficientismo ciego. Pensar lo contrario, no es más que una miopía interesada que desconoce los procesos propios de la creación y el desarrollo científico, donde, como decía Einstein, la imaginación juega un rol fundamental.

La lógica según la cual la investigación debe financiarse cada vez más con recursos privados, fomenta la dependencia de las universidades del mercado y, por consiguiente, limita la libertad de investigación y hasta la creatividad. A la vez, es la manera como el Estado se desentiende de la inversión en investigación, tal como se prevé para el año 2018. Es curioso que Colombia desee ingresar a la Ocde y pretenda ser el país más educado, reduciendo justamente la inversión en ciencia y tecnología. Podemos prever desde ahora el fracaso de esa política, a la vez que la profundización de la dependencia tecnológica y científica del país. Así las cosas, el horizonte del desarrollo, y de la reivindiacada soberanía, está cada vez más distante.

Fordismo filosófico y pensamiento crítico

Como han denunciado hasta la saciedad los pensadores sociales, Colciencias ha privilegiado el conocimiento útil al conocimiento humanístico. La gran cantidad de becas en el país, así como el presupuesto, está invertido en las ciencias duras, dejando de lado los saberes humanísticos. Sin embargo, aquí Colciencias erra de nuevo, pues no se trata de privilegiar uno u otro, sino de plantear una política integral. El país necesita tanto de la investigación de punta, productiva, como de las humanidades. El desarrollo científico no va en contra del humanismo. Todo lo contrario, una buena dosis de humanismo contribuye a una ética científica preocupada por los efectos sociales de la investigación así como por el florecimiento y consolidación de la ética profesional. La crisis actual de la justicia, el llamado cartel de la toga, es muestra de la indigencia de la formación ética de los abogados y de la ausencia de una ética fuerte de la profesión con responsabilidad social y amor a lo público. En suma, ausencia de reflexión humanística en el país en relación con las profesiones.

Colciencias debe entender algo elemental: las sociedades no sólo viven de ciencia... también requieren de grandes mitos, ideales, esperanzas y utopías. La ciencia poco puede decir sobre la justicia, la honradez, la ética, la responsabilidad, la paz, el respeto, la convivencia y, evidentemente, sobre la corrupción que nos azota como sociedad. El odio que respira gran parte de la sociedad colombiana, no dispuesta a perdonar y a convivir con el Otro, no se cura con la ciencia, sino con las humanidades y la filosofía. Éstas ayudan al conocimiento de nuestra historia, de lo que somos, y ayudan también a proyectar un futuro distinto, donde las diferencias sean vistas de manera productiva, donde se entienda que el rencor corroe el alma y las entrañas e impide avanzar. La ciencia, decía el maestro Darío Botero Uribe, ocupa un espacio mínimo dentro de toda la complejidad de la vida y la convivencia humanas.

En este sentido, es lamentable lo que ocurre con la filosofía en la educación secundaria en Colombia: cada vez más se la reduce y excluye del espacio social, como si la sociedad no necesitara pensar y reflexionar. Lo preocupante de esta realidad, es que las políticas y los sistemas métricos de Colciencias, contribuyen a una depreciación y des-cualificación de la disciplina, pues matan su libertad, creatividad e independencia: es lo que he llamado el taylorismo y el fordismo filosóficos. En el primer caso, la academia filosófica ha adoptado la racionalización del trabajo, los tiempos, la regulación de la investigación, igualando al filósofo o profesor de filosofía a un "orangután amaestrado", para usar en esta analogía la expresión del ingeniero y economista Frederick Taylor. Aquí, el filósofo es un obrero más, cuyos ritmos vitales y espirituales están sometidos al paradigma de la organización. Así se cae en la jaula de hierro, que aniquila la vida y con ella el espíritu. La consecuencia lógica y práctica del taylorismo filosófico, es el fordismo filosófico, posible sólo por el paradigma de la organización y el control del trabajo del profesor. El fordismo, categoría aceptada para la sociología del trabajo y la producción, y que describe la producción en serie, inspirada por el empresario Henry Ford, sirve para describir no sólo la industria cultural consumista, sino lo que en el campo académico puede denominarse como paperfordismo o "producción serializada de artículos para ser publicados en revistas indexadas, cuyo fin es la mejor categorización del investigador, los grupos de investigación y las universidades".

Lo que hay que advertir es que el taylorismo y el fordismo filosóficos igualan la reflexión y la investigación filosófica con el trabajo mecánico y repetitivo del que habló Marx, convirtiendo artículos, libros y conferencias, en cifras, en mercancía y en cosa, sin advertir siquiera la pertinencia, y en muchos casos, hasta su calidad. Creo que estas prácticas están matando el sosiego del filósofo, lo están lanzando vertiginosamente a la sociedad velocífera en la cual el afán mata la filosofía, pues el afán es enemigo del pensar, y quien no piensa queda reducido a una pieza más del engranaje, perdiendo la visión total del cuadro, como pensaba Nietzsche.

En conclusión, cuando Colciencias no diferencia en sus sistemas de medición entre la investigación en artes, ingeniería o filosofía, está produciendo un allanamiento que termina con la falta de autonomía y libertad que se traduce en un asesinato de la imaginación, la creatividad y el pensamiento crítico. Todo un desastre para el pensamiento, la investigación y la docencia, con malos augurios para el futuro por construir para nuestro país.

Publicado enColombia
Martes, 26 Diciembre 2017 07:49

Ciencia y tecnología para el futuro

Ciencia y tecnología para el futuro

No es posible que un país avance con vocación de cambio y aporte global, sin unas políticas claras y ambiciosas en ciencia y tecnología. ¿Cómo está en ello Colombia y qué debería hacer ahora y hacia el futuro inmediato?

 

Vivimos una época apasionante, de cambios vertiginosos, y una mezcla ambigua de mucho optimismo combinado con profundo desasosiego, desazón y desgana. Es imposible entender las políticas de ciencia y tecnología de un país sin una clara comprensión de los marcos y contextos, nacionales e internacionales, en los que vivimos. Tres formas son posibles para designar los tiempos que vivimos, en términos de igual manera científicos, industriales, tecnológicos y culturales. Estas son:

Desde el punto de vista científico, vivimos tres revoluciones científicas:

• La primera revolución científica fue la de la ciencia clásica o moderna; esto, aquella ciencia que comienza con R. Bacon, F. Bacon, Galileo, Descartes y que se proyecta hasta Pasteur y Einstein, pasando por Loewenhoek, Vesalius, Newton, Darwin y Mendeleiev, entre otros. Esta es la ciencia que, en términos de Th. Kuhn, puede ser considerada como la "ciencia normal", y que corresponde al ascenso y al triunfo de la burguesía como clase social.
• La segunda revolución científica, que puede decirse que se gatilla en agosto de 1900, nace en 1905, y se prolonga hasta nuestros días. Es la revolución del mundo cuántico y que comprende, puntualmente, cinco dimensiones: la física cuántica, la biología cuántica, la química cuántica, todas las tecnologías basadas en comportamientos cuánticos y las ciencias sociales cuánticas.
• La tercera revolución científica, que en general son todas las ciencias de la información y de procesamiento de información. La expresión puntual de la tercera revolución científica son las ciencias de la computación y todos los sistemas informacionales. Puntualmente dicho, la inteligencia artificial, la vida artificial y toda la robótica, la clásica y la de enjambre.

A propósito de la segunda y la tercera revolución científica, de acuerdo a M. Castells, corresponden a la emergencia de una nueva clase social que no tiene los medios de producción y que no necesita tener los medios de producción para producir las condiciones de bienestar, desarrollo y calidad de la vida en las nuevas condiciones. M. Castells sostenía que no tenía un nombre para esta nueva clase social, que, consiguientemente ya no es ni la burguesía, ni el proletariado o la clase trabajadora en el sentido de la primera revolución. Desde la sociología asimismo, S. Sassen, Z. Bauman, y U. Beck aportan tres caracterizaciones distintas para la nueva clase social en emergencia. Vivimos, literalmente, una nueva época, que está naciendo y reconfigurando el mundo y la sociedad.


Ahora bien, desde el punto de vista de la organización social del trabajo y las formas de producción, cabe hablar, con legitimidad, de cuatro revoluciones industriales, así:

• La primera revolución industrial es aquella del siglo XIX, la industrial de Manchester y Chicago, caracterizada, dicho puntualmente, por el desarrollo de las máquinas de vapor, el automóvil y el tren, las máquinas industriales de todo tipo, en fin, la industria mecánica, metalmecánica y, las primeras formas de electrónica y electricidad.
• La segunda revolución industrial se caracteriza por la producción en serie o masiva. Los representantes de esta revolución son las formas de administración de Ford, Taylor, Fayol, y la llamada administración científica. La producción y la organización social del trabajo se estructura en torno a la fabricación en serie y masiva y grandes cadenas de producción en línea.
• La tercera revolución industrial emerge a partir de los años 1960, pero se consolida y catapulta en el año 2008. Se trata de la importancia de internet para la organización, esta vez, ya no solamente del trabajo y de la producción económica, sino, además, como forma de organización de la sociedad en general. Internet es el canal que se expresa en la web 1.0, 2.0 y, a la fecha, en la 3.0, o también la internet de las cosas (IoT, por sus siglas en inglés). Actualmente ya se tiene la previsión del desarrollo, hacia los años 2025-2040 de la web 4.0.
• Finalmente, la cuarta revolución industrial es reconocida públicamente en el año 2016, y está identificada como la síntesis entre la dimensión física, la biológica y la digital. Esta revolución ya se está produciendo entre nosotros, y habrá de tener consecuencias, sencillamente impredecibles, a la fecha de hoy.

Dos puntualizaciones: la idea de revoluciones científicas, tanto como de revoluciones industriales en absoluto debe ser tomada en un sentido lineal, y por el contrario, expresa el hecho de que se producen rupturas, inflexiones o bifurcaciones en cada uno de los campos. Asimismo, no existen ninguna correspondencia uno a uno entre las revoluciones científicas y las industriales. Aunque sí cabe legítimamente afirmar que cada vez se imbrican más la una con la otra.


Desde el punto de vista al mismo tiempo sociológico, económico y político, nuestra época puede ser igualmente comprendida en otros términos, los cuales arrojan nuevas luces sobre las caracterizaciones anteriores. Se trata de: la sociedad de la información, la sociedad del conocimiento y la sociedad de redes. Tres nombres diferentes, para tres momentos de una misma dinámica y transición.


Ahora bien, desde el punto de vista tecnológico, el mundo actual se comprende en función de las tecnologías convergentes que son las tecnologías NBIC+S; estas son: la nanotecnología, y por derivación la nanociencia, la biotecnología, las tecnología de la información, las tecnologías del conocimiento y la dimensión social de las tecnologías.


Colombia no ha accedido, desde el Estado y el sector privado a esta comprensión; aquí sólo existen en el mejor de los casos las tecnologías TIC, un concepto que corresponde, en estricto sentido, al desarrollo de los años 1970.
La anterior caracterización de los marcos o contextos hacia una política de ciencia y tecnología del futuro están condensados y requerirían, cada uno, un espacio mayor, por sí mismo.


Realidad científica y tecnológica y realidad política


En Colombia ha dominado desde siempre una fuerte asimetría entre los científicos, tecnólogos e investigadores y la clase política, el gobierno y el Estado. Esta asimetría consiste en el hecho de que, históricamente, en este país la ciencia y la tecnología nunca han sido plenamente comprendidas por quienes han dirigido al país, política, económica y militarmente.


En efecto, la puerta de entrada al tema es, sin lugar a dudas, la importancia del positivismo, esto, el reconocimiento explícito de la importancia de la ciencia para el desarrollo de un país. Pues bien, Colombia constituye una notable excepción al respecto: acá el positivismo jamás entró, en contravía de lo sucedido en México, Argentina, Brasil y Chile, debido a los gobiernos conservadores de la segunda mitad del siglo XIX, de finales del siglo XIX y comienzos del siglo XX. Esto es, el positivismo jamás entró al país debido al peso del neotomismo y las ideas conservadoras lideradas, e impuestas, por M. Ospina Rodríguez, R. Nuñez y J. E. Caro.


Como consecuencia, los debates con base en argumentos, pruebas, refutaciones y demostraciones nunca ocuparon un papel importante en la vida social del país, sentando así las bases para las violencias: las del siglo XX (La guerra de los mil días), la masacre de las bananeras (1928-29), el bogotazo, los "pájaros" o "bandoleros" (paramilitares) de los años 1950, las guerrillas, los paramilitares de los años 1980 a la fecha, en fin, el narcotráfico y el terrorismo de Estado. Otra hubiera sido la historia del país, si el positivismo lo hubiera penetrado. Ni siquiera la llamada hegemonía liberal y los gobiernos radicales del siglo XIX y XX, lograron que "ciencia" (= positivismo) fuera un concepto de uso común en la vida nacional.


La segunda evidencia de la asimetría mencionada es el hecho de que cuando se crea en Colombia el sistema nacional de ciencia y tecnología (1991), las recomendaciones de un importante grupo de científicos e intelectuales de la época apuntaron, en nombre del país de la ciencia, la tecnología, la investigación y la educación, a que se destinara el 1 por ciento del PIB para la ciencia y la tecnología. Jamás, hasta la fecha, ningún gobierno a seguido esta indicación, y las proporciones jamás han superado el 0,5 por ciento del PIB, lo que para los macro-indicadores del país conlleva que este rubro simplemente salga de consideración por defecto.


Finalmente, la recomendación de crear alguna vez un ministerio de ciencia y tecnología jamás fue escuchada. Se creó, sí, el ministerio de cultura, pero la ciencia y la tecnología estuvieron a cargo de Colciencias, un organismo que a las reuniones del gobierno nacional asistía con voz, pero sin voto, y cuyo presupuesto fue siempre, primero oscilante, y luego, sistemáticamente recortado hasta el día de hoy.


Tres evidencias puntuales fuertes, de orden político y nacional, que nunca fueron atendidas por parte del Estado, de los gobiernos de turno, en fin, por la clase dirigente del país: ni la del sector público ni la del sector privado.


Ulteriormente, en abril del año 2016, el Sistema Nacional de Ciencia y Tecnología (SNCyT) desaparece de Colciencias, es desplazado al Departamento de Planeación Nacional y subsumido bajo el Sistema de Ciencia, Tecnología e Innovación (Sncti). Una muerte de segunda para Colciencias y sus aspiraciones de siempre. Suponiendo que Colombia sea finalmente aceptada a la Ocde, sería el único país entre quienes la integran sin un sistema nacional de ciencia y tecnología. De suceder así las cosas, se trataría de una cuarta evidencia contundente de la ignorancia de las élites de este país por la ciencia, la tecnología y la investigación.


Hacia un sistema futuro, posible


Una política de ciencia y tecnología no es posible sin la participación activa de la comunidad de científicos e investigadores y al margen de las dinámicas en la región (Latinoamérica) y en el mundo. Pero, al mismo tiempo, una política semejante no es, en absoluto, posible, sin mucha sociología, rural y urbana, sin mucha antropología, e historias locales. En otras palabras, se trata de atender a los micros sistemas sociales y culturales para aprender también de ellos, y hacer ciencia vernácula de alcance nacional y mundial, evitando lo que hasta ahora ha sido la norma: transferencias de conocimientos y tecnologías.


Hay que ser enfáticos: en nuestro país no existe un sistema nacional de ciencia y tecnología como tal: como sistema, sencillamente porque ha prevalecido una sospecha tradicional hacia las universidades públicas y un apoyo, directo e indirecto, muy fuerte hacia las universidades privadas. Esta asimetría no es provechosa ni deseable.


La base para un plan futuro, que trastoque esta constante, es imposible ponerlo en marcha sin una apuesta-nación, esto es, sin un apuesta fuerte, de largo alcance. Y es que las políticas de ciencia y tecnología han sido siempre corto-placistas, inmediatistas y efectistas. Es necesario que el país piense y apueste a 20, 40, 80 años hacia delante. Algo que jamás ha sucedió en ningún ámbito en la historia de esta nación.


Enrutarse en tal dirección implica un diálogo sostenido y horizontal entre tomadores de decisiones y académicos, científicos e investigadores, de cara al país y al mundo. Un diálogo semejante jamás ha tenido lugar acá, y por ejemplo, las distintas academias en el país –Academia Nacional de Medicina, Academia de la Lengua, y otras–, son simplemente órganos consultivos, en determinados momentos.


Es indudable que apoyos fuertes a la ciencia y la tecnología (CyT), y por consiguiente a las artes y la educación, se traducen en el mejoramiento significativo de la calidad de vida de la nación y en más y mejores condiciones de dignidad y respeto de los derechos humanos. El crecimiento humano es hoy imposible sin CyT. Lo cual se traduce también, inmediatamente, en más y mejores políticas ambientales y de protección de los recursos y la riquezas naturales del país.


Propuestas


En el marco de los post-acuerdos y la construcción de la paz, los enormes presupuestos de seguridad y defensa pueden estar destinados a educación, artes, cultura, humanidades y CyT. Históricamente el presupuesto social siempre ha sido menor relativamente a otros ítems y rangos. Es absolutamente necesario que para el gobierno 2018-2022 se asegure que el 1 por ciento del PIB se dedique a actividades de CyT. Y que en cada cuatrenio siguiente aumente un punto porcentual, si Colombia quiere ocupar puestos destacados de desarrollo y crecimiento en el panorama internacional. Esta meta no es imposible ni utópica, pero sí implica reelaborar prioridades y estrategias.


En la actualidad, la mitad de los grupos de investigación ante Colciencias son de ciencias sociales y humanas y, grosso, modo, la otra mitad es para ciencias y tecnología medicina, biología, ingenierías, y otras). Esta realidad realza un hecho. Las ciencias sociales y humanas merecen un lugar propio, diferenciado, al lado de la ciencias físicas y exactas. Sin embargo, en la actualidad, todos los indicadores de calidad, impacto y pertinencia está definido por el rasero de las ciencias naturales. Deben ser posibles criterios de calidad y medición diferenciados. Lo contrario implica introducir guerras que no son las de los científicos e investigadores, sino las del capital y las corporaciones.


Consiguientemente, no hay un lugar principal por donde comenzar, sino dos: el de las ciencias sociales y humanas, y el de las ciencias exactas y naturales. Así, atender a CyT que promueva el desarrollo humano en toda la línea de la palabra, pero al mismo tiempo mejorar la salud, las infraestructuras, el medioambiente y la riqueza natural del país.


Es absolutamente necesario que haya un apoyo decidido y de largo aliento a la investigación básica. Hasta el momento siempre ha habido apoyo para la investigación experimental y la aplicada. Las investigaciones de Colciencias son usualmente financiadas por el BID, y nunca el BID ha dado apoyo a la investigación básica. Las élites gobernantes del país deben poder identificar y resolver esta dificultad. Sin apoyo real para la investigación básica es imposible la innovación, la creatividad, el crecimiento humano.


Colombia debe entender, por fin, que la tercera revolución científica y la cuarta revolución industrial son hechos ya consumados en el mundo. El país debe poder apoyar la investigación en estas direcciones, de manera decidida y frontal. Ello implica revolucionar el sistema educativo nacional para que sea posible no únicamente de cara a la demandas del mercado, sino a las posibilidades de desarrollo social y humano. De forma tradicional las economías más desarrolladas fueron siempre proteccionistas de sus clases nacionales y lo mejor estuvo orientado hacia ellas; y sólo después se exportaba. Sn calidad de vida y dignidad humana no es posible la investigación ni el pensamiento abstracto, dos pilares de la CyT.


En Colombia nombres como García Márquez, Nairo Quintana, James Rodríguez, Jorge Reynolds, Rodolfo Llinás Shakira y Juanes, Piedad Bonnett o Raúl Gómez Jattin, por mencionar tan sólo unos pocos nombres no han sido, en absoluto, el resultado de políticas de educación, de ciencia y tecnología, de cultura o de deporte, sino el resultado de esfuerzos estrictamente personales, todos encomiables. Los académicos e investigadores son el resultado de sí mismo, antes que de políticas de CyT en toda la acepción de la palabra. Mientras no haya políticas nacionales de largo alcance, la situación seguirá prevaleciendo: cada quien hace lo mejor que puede para alcanzar logros y metas. Pero no porque haya políticas de Estado y de Gobierno que lo faciliten y lo promuevan.


Colombia debe dejar de ser un abastecedor de materias primas para convertirse en factor de referencia, calidad de vida y crecimiento social y humano. Sin olvidar jamás la más importante de las fortalezas de sus pobladores: sus inmensas capacidades de trabajo, esfuerzo y lucha.


No existe periodismo científico en el país, o sus espacios son muy limitados; asimismo, el periodismo cultural es limitado y podría ocupar más y mejores espacios. La ciencia, la tecnología, las artes y las humanidades deben ser un asunto cotidiano, social, cultural. Deben crearse amplios sistemas de reconocimiento, premios, distinciones, homenajes a personajes de la CyT y la cultura y las humanidades. Se trata de poner en el primer plano el conocimiento y la creatividad antes que los crímenes y otras noticias del día a día, actualmente.


La ciencia y la tecnología no son posibles, en otras palabras, sin una inculturación de las mismas. En toda la acepción de la palabra. 

*Profesor Titular Universidad del Rosario.

Viernes, 22 Diciembre 2017 07:48

La kilonova, descubrimiento del año

La kilonova, descubrimiento del año

La revista ‘Science’ destaca la primera observación de luz y ondas gravitacionales de una fusión de estrellas de neutrones


Hace 130 millones de años, cuando los dinosaurios aún dominaban la Tierra, dos estrellas de neutrones colisionaron en la constelación de Hidra. Eran tan densas que cada cucharadita de astro pesaba unos mil millones de toneladas. El choque produjo un estallido de ondas gravitacionales que deforman a su paso el espacio-tiempo, el material del que está hecho el universo. El pasado 17 de agosto, el interferómetro láser del observatorio LIGO en Hanford (EEUU), uno de los instrumentos científicos de mayor precisión del planeta, captó las ondas gravitatorias producidas por aquel cataclismo, muy debilitadas tras su largo viaje intergaláctico. Segundos después, telescopios espaciales observaron un potente estallido de luz justo en la dirección de Hidra. Era la primera vez que se observaba una fusión de estrellas de neutrones y se hizo usando tanto la luz como las ondas predichas hace más de un siglo por Albert Einstein.

Según la revista científica Science este es el descubrimiento más importante del año. Más de 3.600 científicos de casi 1.000 instituciones de todo el mundo han estudiado el evento, que “probablemente es el más observado de la historia”, resalta la publicación. El hallazgo supone la consagración de las ondas gravitatorias como un nuevo sentido que han ganado los humanos para explorar el universo. Si hasta ahora la astronomía se había basado en observar la luz en todas sus variantes, ahora también se le puede escuchar y estudiar así objetos totalmente invisibles.

El equipo de LIGO ya había observado cuatro señales de ondas gravitacionales producidas por la fusión de agujeros negros. La primera fue en septiembre de 2015 y el resto en 2016. Este otoño, los padres científicos del experimento, Kip Thorne, Barry Barish y Rainer Weiss, ganaron el premio Nobel de Física por contribuir a un descubrimiento “que sacudió al mundo”, en palabras de la Real Academia de Ciencias Sueca.

El despliegue científico para observar la colisión en la galaxia NGC 4993 permitió documentar con un detalle inusitado un evento que sólo se repite en galaxias similares a la Vía Láctea cada 10.000 años, según la astrónoma Alicia Sintes, investigadora de la Universidad de Islas Baleares y líder del único grupo español que colabora con LIGO, el experimento que junto al Virgo europeo captó las ondas gravitacionales producidas por la fusión.

En 2010, una colaboración internacional codirigida por Gabriel Martínez-Pinedo, del Centro de Investigación de Iones Pesados y la Universidad Técnica de Darmstadt (Alemania), y Brian Metzger, de la Universidad de Columbia (EE UU), determinó los elementos producidos en la colisión y calculó la energía que liberarían, y Metzger usó esos datos para reconstruir la “curva de luz” que produciría la fusión. Los cálculos indicaban que la colisión brillaría como 1.000 novas, por lo que la bautizaron como kilonova. Los investigadores predijeron el tipo de destello lumínico de la fusión de las dos estrellas y, siete años después, los telescopios observaron una curva de luz muy parecida a la que predijeron. El físico español estima que el choque de los dos astros produjo unas 100 veces la masa de la Tierra en oro. Lo más probable es que ambos astros se hayan convertido en un agujero negro.

EE UU se dispone a poner fin a la neutralidad en la Red

La medida, que se vota este jueves, acabará con la igualdad de los usuarios en internet y permitirá imponer un sistema de diferentes velocidades y pagos.

 

La era de la neutralidad en la red toca este jueves a su fin en Estados Unidos. La Comisión Federal de Comunicaciones (FCC, en su siglas inglesas), bajo control republicano, tiene previsto aprobar la retirada de las medidas establecidas en 2015 para blindar la equidad en internet. Frente a una red entendida como “bien público”, donde los proveedores están obligados a tratar por igual todos los datos sin importar su origen, tipo y destino, se va a imponer un sistema que permite diferentes velocidades en función del pago y de los intereses de los operadores.

El cambio ha llegado de la mano de los grandes proveedores. Gigantes de las telecomunicaciones como Comcast, AT&T o Verizon se han aliado con la Administración de Donald Trump para romper el dique legal que evitaba precisamente que esas empresas acabasen imponiendo sus dictados en el tráfico y los contenidos de la red. Bajo el sistema aprobado en la era de Barack Obama, el operador debía ofrecer siempre el mismo trato. Se le impedía bloquear el acceso a páginas web, lentificar la conexión o acelerarla bajo pago. El criterio era la equidad. Evitar la discriminación. Salvaguardar la neutralidad del sistema nervioso del conocimiento mundial. Todo ello se viene abajo si este jueves, como todo indica, se aprueba el cambio.

Las consecuencias de esta desregulación pueden ser profundas. “La neutralidad en la red garantizaba la competitividad darwiniana entre todos los posibles usos de Internet de forma que sobreviviesen los mejores”, ha escrito Tim Wu, el profesor de la Universidad de Columbia que acuñó el concepto. Derribado este blindaje, empieza el juego de la discriminación.

Aunque los proveedores no han manifestado sus planes, se abre la puerta a que negocien acuerdos con portales, a que puedan ofrecer paquetes de servicios de internet parecidos a los de las televisiones por cable, y que, a la postre, doten de mayor velocidad a sus asociados en detrimento de los que no. E incluso que bloqueen a quienes compitan con sus ofertas.

Rota la neutralidad, el caleidoscopio de escenarios es casi inagotable, pero se resume en la posibilidad de escalas de servicio y, por tanto, precios distintos para el usuario y también para las grandes compañías. Este último punto es especialmente delicado. Una queja antigua de los operadores es el gasto generado por los portales más grandes y su uso masivo de datos. Esto puede dar pie a tarifas especiales, algo asumible posiblemente por Google, Amazon o Facebook, pero oneroso para nuevas empresas o aquellas en situaciones financieras precarias.

El presidente de la FCC, Ajit Pai, principal enemigo de la neutralidad en la red, ha negado reiteradamente que los cambios vayan a aumentar costes al usuario, frenar la velocidad o permitir bloqueos. Entre sus argumentos figuran que nada de esto ocurría antes de 2015 y que, por el contrario, la reforma ha reducido la inversión en banda ancha hasta el punto que de continuar esta caída no solo peligraba la velocidad en la red sino que el consumidor se iba enfrentar a un aumento de los precios.

“La retirada de la neutralidad supondrá volver a un internet libre y abierto; el gobierno dejará de regular cómo los proveedores deben manejarse, y estos tendrán incentivos para afrontar la próxima generación de redes y servicios”, ha declarado Pai.

El control de los operadores y la persecución de las prácticas injustas o lesivas recaerá en la Comisión de Comercio Federal, con autoridad en competencia y consumo, mientras que la FCC, que regula las telecomunicaciones, supervisará que mantengan la transparencia e informen sobre su actividad respecto al tráfico y los datos. Ambos organismos son agencias federales independientes. La mayoría de la FCC es de designación republicana.

Una vez aprobada la iniciativa, solo hay dos formas de impedir la aplicación. Los tribunales o una ley. Ninguna parece fácil de lograr en el corto plazo. Pero el frente opositor no deja de ser amplio y poderoso. Los demócratas, al igual que las grandes compañías de internet, consideran que la desregulación ataca el nervio central de la red. “La medida sólo se la pueden creer aquellos que piensan que los proveedores de Internet van a poner el interés del publico por delante del de sus inversores”, ha llegado a declarar uno de los comisarios demócratas de la FCC. “Para saber lo que va a ocurrir basta con mirar cómo en la última década los operadores han intentado aplastar a sus competidores”, dijo el martes el congresista demócrata, Mike Doyle, quien ha anunciado la presentación de una ley para impedir la desregulación. Una iniciativa destinada al fracaso ante la casi monolítica oposición de los republicanos a la reforma de Obama. Otro golpe de Trump a su legado.

Lobby de los grandes pulpos globales en la OMC

“El comercio electrónico es el futuro. Por eso se necesitan normas simples y modernas, diseñadas específicamente”, señaló Jack Ma, fundador de Alibaba, el portal de comercio electrónico más grande del mundo. Las ONG piden proteger los datos personales.

“El comercio electrónico es el futuro. Se consolidará la relación que va desde el consumidor a las empresas y no al revés. Y será a través de paquetes y no de contenedores. Por eso se necesitan normas simples y modernas, diseñadas específicamente”, señaló ayer Jack Ma, CEO y fundador de Alibaba, el portal de comercio electrónico más grande del mundo. El empresario chino participó del panel de “Facilitación de comercio electrónico”, junto al director de la Organización Mundial del Comercio (OMC), Roberto Azevedo y Richard Samans, del Foro Económico de Davos. Fue en la segunda jornada de la cumbre de la OMC en Buenos Aires. Las grandes empresas del sector (Google, Amazon, Facebook, Apple y Alibaba) buscan forzar la aparición de la regulación laxa de nivel supranacional en la OMC para esquivar potenciales políticas de protección de datos (entre otras) de parte de los Estados nacionales. Las organizaciones no gubernamentales advierten sobre el peligro que existe de la liberalización del flujo de datos electrónicos.


Un rato antes de las 2 de la tarde de ayer una serie de ONGs realizaron una protesta con pancartas en el ingreso del Hotel Hilton (ver página 5). Uno de los puntos de los reclamos fue el tema del comercio electrónico, que motivó también una reunión en el Centro Cultural Kirchner en donde fue analizado el impacto de este fenómeno en la protección de datos personales y el empleo en los países en desarrollo. El clima opuesto se vivió en la conferencia de prensa de Jack Ma, Azevedo y Samans. “En China, todas las normas nos tratan de obstaculizar. Esto tiene que ser al revés. Si les gusta avanzamos, y si no les gusta, también avanzamos”, resumió Jack Ma.


“Estamos hablando de la cuarta revolución industrial. Los gobiernos tienen que ser más ágiles”, pidió Samans. Los cinco grandes jugadores del sector (Google, Amazon, Facebook, Apple y Alibaba) del comercio electrónico buscan instalar en la OMC el comienzo de las negociaciones vinculadas a la actividad. El objetivo es empezar a crear una institucionalidad supranacional en el terreno de los datos y de los servicios online, que es el eje del negocio de estas mega empresas de manejo de datos. Como en el caso de los bienes, la OMC podría cumplir un rol para garantizar la “libertad de empresa” en el rubro de los datos. “Los datos, como el nuevo oro, es un recurso muy valorable. Son utilizados para apuntar a determinados consumidores con anuncios, noticias y bienes y servicios, que a su vez crearán nuevos datos”, explicaron en un comunicado una serie de organizaciones no gubernamentales. De todas maneras, se espera que en esta cumbre de Buenos Aires no se logre el consenso para decidir el comienzo de las negociaciones en el terreno del comercio electrónico.


“El comercio electrónico se ha transformado sustancialmente en dos décadas. Antes se refería a emplear medios digitales para mejorar y armonizar el comercio de bienes materiales. Hoy día se relaciona con el comercio de 'bienes digitales'; fundamentalmente, datos personales extraídos por multiplicidad de sensores”, explica la Fundación Vía Libre, que integra la especialista Beatriz Busaniche. “La libre circulación de los datos sólo debería ser posible en el marco de un sistema armonizado de garantías de protección de los datos personales, que no puede ser inferior al estándar nacional más exigente. En el plano económico, el libre flujo agravará la situación en que un número muy reducido de corporaciones transnacionales monetizan datos que obtienen en todo el mundo, dejando poco o ningún beneficio económico en los países de donde extraen esos datos”. Otro elemento de la agenda del comercio electrónico es la eliminación de tarifas y aranceles y el tratamiento de bien nacional a los bienes comercializados de forma digital. También está la habilitación para las corporaciones para operar y obtener ganancias dentro de un país sin necesidad de tener ningún tipo de presencia, ni física, ni como persona jurídica.


El slogan del lobby del comercio electrónico es que favorece las ventas de las pymes y estimula a los emprendedores. “Los emprendedores pueden dejar atrás grandes dificultades como la distancia física. El objetivo es lograr internet para todos y comercio electrónico para todos los empresarios. Creo que no estamos haciendo lo suficiente para impulsar el comercio electrónico”, indicó Roberto Azevedo. “Este mundo puede modernizarse, simplificarse. Se necesitan políticas de incentivo para el comercio electrónico. Que las pyme paguen menos impuestos si utilizan comercio electrónico. Sí, hay que regular para proteger propiedad intelectual y productos falsificados”, agregó Jack Ma.


“No se trata de promover o no el comercio electrónico, sino de establecer reglas para un sector que todavía no está consolidado en la mayor parte de los países integrantes de la OMC. Imponer estas reglas a esta altura del desarrollo no tendrá ninguna consecuencia positiva para los países en desarrollo y sólo contribuirá a consolidar las altas tasas de concentración en un mercado dominado por un puñado de empresas globales que se reparten el mundo de la economía digital”, considera la Fundación Vía Libre.

Publicado enInternacional
Investigadores descubren por qué la membrana amniótica ayuda a cicatrizar heridas de la piel

Investigadores integrados en el Instituto Murciano de Investigación Biosanitaria (IMIB)-Arrixaca han descrito por primera vez el mecanismo por el cual el tratamiento con membrana amniótica es capaz de promover y mejorar el cierre de las heridas de la piel.

 

En concreto, se ha descubierto cómo la membrana amniótica es capaz de activar rutas moleculares clave para la reorganización del esqueleto celular, algo necesario para la migración de las células que forman el borde de cicatrización de una herida acelerando así su cierre.


La directora general de Planificación, Innovación, Farmacia y Atención al Ciudadano, María Teresa Martínez Ros, explicó que los resultados obtenidos con este estudio "pueden tener especial trascendencia en el desarrollo de nuevos fármacos y estrategias para el tratamiento de heridas cutáneas en general y heridas crónicas en particular", según informa la Ser.


"Por sus sorprendentes propiedades, en los últimos años la membrana amniótica está siendo objeto de una gran actividad investigadora en el campo de la medicina regenerativa y la ingeniería de tejidos", especificó.


Este tejido, que se corresponde con la capa más interna del saco amniótico que protege a los embriones en su desarrollo, ya se usa de forma rutinaria en el tratamiento de algunas patologías oculares como la lesión de córnea.

 

Regeneración de heridas


Según informa la Ser, esta investigación se enmarca en la línea de trabajo sobre regeneración de heridas que desarrolla el laboratorio de Oncología Molecular del hospital clínico universitario Virgen de la Arrixaca, que dirige el doctor Francisco J. Nicolás, y en él han colaborado los doctores Sergio Liarte, José María Moraleda y Gregorio Castellanos. Todos ellos se engloban en el grupo de investigación 'Trasplante Hematopoyético y Terapia Celular' del IMIB-Arrixaca.


Martínez Ros destacó "el gran potencial investigador de los profesionales sanitarios de la Región, que con trabajos como éste ayudan a avanzar en el conocimiento y mejor tratamiento de las enfermedades". Agregó que "contamos con profesionales motivados e innovadores que están generando numerosos proyectos que se aplican en la práctica clínica y tiene gran repercusión en la población".


Las heridas crónicas como el pie diabético o las úlceras por presión afectan al 1 por ciento de la población, representando su tratamiento y el de sus complicaciones hasta un 3 por ciento del gasto sanitario total.


Las conclusiones de la investigación se han publicado en un artículo en la revista especializada ‘Scientific Reports’, perteneciente al grupo editorial británico ‘Nature’.

¿Qué diría Einstein sobre las ondas gravitacionales?

Hace más de 100 años, la Teoría de la Relatividad General de Albert Einstein predijo la existencia de las ondas gravitacionales que surgen cuando dos objetos masivos del espacio sideral chocan entre sí y producen una serie de temblores y olas en el espacio tiempo. Hoy, la ciencia logró comprobarlas pero, ¿qué nos diría el famoso físico sobre la detección de este fenómeno?

 

“Es una situación muy curiosa porque Einstein no las buscaba, sino que la ciencia las identificó como una consecuencia de su ecuación, pero creo que finalmente estaría muy contento”, dijo en entrevista para UNAM Global William Lee Alardín, investigador del Instituto de Astronomía.

 

De hecho, varios científicos y hasta él mismo dudaron sobre su existencia o sólo un artefacto de las matemáticas, porque en aquella época todos pensaban que este fenómeno era imposible de comprobar, detalló el también coordinador de la Investigación Científica de la Máxima Casa de Estudios.

 

Al respecto, Einstein escribió un artículo que negaba su existencia, sin embargo, nunca fue aceptado. Resultó que en este caso se equivocó, las ondas son reales, además tienen energía y una consecuencia sobre los objetos que los producen, añadió el académico.

 

Finalmente, creo que el físico estaría satisfecho porque se trata de una consecuencia de su teoría que embona muy bien con varios planteamientos que han sido comprobados a lo largo de la historia, algunas antes de que él muriera. Sin duda, estaría proponiendo nuevas formas de usarlas para aprender más, añadió Lee Alardín.

 

La detección de ondas gravitacionales y luz

 

A 130 millones de años luz de la Tierra, dos estrellas de neutrones (cenizas estelares que típicamente concentran 1.4 veces la masa del Sol en un radio de 10 kilómetros) se fusionaron violentamente y produjeron una señal intensa en ondas gravitacionales, y de manera simultánea, un destello de rayos gamma.

 

Este fenómeno interestelar fue detectado desde la Tierra a través de los observatorios The Laser Interferometer Gravitational-Wave Observatory (LIGO) y VIRGO, el pasado 17 de agosto. Además, el satélite espacial FERMI identificó de forma simultánea un destello de rayos gamma.

 

Tras esta observación, una cascada de detecciones desde distintos observatorios en la Tierra identificaron horas más tarde la contraparte en luz visible en la galaxia NGC 4993.

 

Sobre este descubrimiento (ondas gravitacionales y luz al mismo tiempo) William Lee apuntó que se obtendrá información sin precedentes.

 

La detección se publicó en múltiples artículos, entre ellos, uno en la revista Nature por un equipo de astrónomos de nueve países, encabezado por Eleonora Troja del Centro Goddard de Vuelos Espaciales de la NASA en Greenbelt, Maryland, Estados Unidos, donde participaron Alan Watson y William Lee, investigadores del Instituto de Astronomía.

 

Una ventana al Universo

 

En los últimos dos años ya se habían detectado ondas gravitacionales provenientes de la fusión de dos agujeros negros, pero ninguno de esos casos produjo luz al mismo tiempo, explicó Lee Alardín.

 

En esta última detección, los astrónomos concluyeron que al colapsar las dos estrellas de neutrones emitieron una serie de rayos moviéndose a la velocidad de la luz, desde los gamma hasta los infrarrojos.

 

Esta observación les permitió a los astrónomos detectar el fenómeno llamado kilonova, que da lugar a la formación de elementos químicos complejos de la tabla periódica, entre ellos el oro y el platino. Así, confirmaron que estas estrellas son uno de los principales productores de materiales pesados en el Universo.

 

“Si pudiera felicitar a Einstein lo haría, porque el concepto de haber planteado la Teoría de la Relatividad General fue un brinco intelectual impresionante de lo que había en su época, donde teníamos inconsistencias en diversas cuestiones. Nos tomó 100 años poder realizar los avances tecnológicos y construir los observatorios para obtener los datos y confirmarlos”, concluyó.

 

Este material se comparte con autorización de UNAM Global

Alerta la ONU del desarrollo de "superbacterias feroces"

La Organización de las Naciones Unidas (ONU) advirtió el martes de un aumento de la resistencia a los antimicrobianos, favorecido por la diseminación de medicamentos y algunos productos químicos en el medio ambiente, que constituye una importante amenaza sanitaria.

 

Si esta tendencia continúa, crecerá el riesgo de contraer enfermedades incurables por los antibióticos actuales en actividades tan banales como nadar en el mar, advirtieron los expertos reunidos en Nairobi, en el contexto de la Asamblea de Naciones Unidas para el Medio Ambiente.

 

En un informe publicado el martes y titulado Frontiers 2017, los expertos advierten que "el vertido al medio ambiente de componentes antimicrobianos proveniente de los hogares, hospitales y establecimientos farmacéuticos, así como la actividad agrícola (...) favorece la evolución bacteriana y la emergencia de cepas más resistentes".

 

"La advertencia lanzada por este informe es verdaderamente alarmante: los humanos podrían participar en el desarrollo de superbacterias feroces debido a nuestra ignorancia y nuestra negligencia", estimó Erik Solheim, director del Programa de la ONU para el Medio Ambiente.

 

"Los estudios ya vincularon el uso inadecuado de los antibióticos en el hombre y en la agricultura en los pasados 10 años a la aparición de una resistencia creciente a las bacterias, pero el papel del medio ambiente y la contaminación recibieron poca atención", observó.

 

La resistencia antimicrobiana es un rompecabezas creciente para las agencias sanitarias internacionales. A escala mundial, unas 700 mil personas mueren de infecciones resistentes cada año.

 

Un informe publicado en 2014 había advertido que las patologías resistentes a los antibióticos podrían matar a 10 millones de personas de aquí a 2050, lo que sería la principal causa de fallecimientos, antes que las enfermedades cardiacas o el cáncer. Se estimaba su costo en 100 billones de dólares.

 

Retrocesos

 

"Podríamos entrar en lo que la gente llama era posantibióticos, o regresaremos a los años de antes de 1940, pues una simple infección (...) será muy difícil o imposible" de curar, explicó Will Gaze, de la Universidad de Exeter, en Inglaterra, coautor del informe.

 

Las bacterias son capaces de transferir entre ellas genes que garantizan resistencia a los medicamentos, de pasarlos a las futuras generaciones, de recuperarlos directamente del medio ambiente o de modificar su propio ADN.

 

Actualmente, entre 70 y 80 por ciento de todos los antibióticos consumidos por los humanos o los animales de granja vuelve al medio ambiente a través de los excrementos.

 

"La mayoría de estos cientos de miles de toneladas de antibióticos que se producen cada año termina así en el medio ambiente", en parte por el derroche de agua y de la agricultura, según Gaze.

Sábado, 02 Diciembre 2017 07:41

El gran árbol de la vida

“La selección natural”, de Charles Darwin.

 

Una flamante edición ilustrada es la excusa para volver a Charles Darwin, ante cuyas ideas no sólo la ciencia, sino el avance de la humanidad toda –en sus millones de contingencias– no son ajenos en el inefable discurrir de los años. Más de un siglo y medio después de haber sido expuestas, argumentadas y fijadas en papel, las bases de la selección natural de las especies tienen mucho para seguir aportando.

La clave está en entender el secreto orden que aletea a través del caos del mundo. Pero para comprender ese orden preciso, casi divino, hay que tener en cuenta los millones de mecanismos de destrucción, lucha y supervivencia que ocurren segundo tras segundo, a nuestro alrededor. La clave la fijó Darwin en el primer párrafo de su tratado: “Contemplamos la imagen radiante de la Naturaleza y, a menudo, vemos abundancia de alimento. No vemos, u olvidamos, que los pájaros que cantan ociosos a nuestro alrededor se alimentan en su mayoría de insectos y semillas, y que de esta forma destruyen vida continuamente. Olvidamos que buena parte de estos cantores, o sus huevos y nidos, son destruidos por aves de presa y otros depredadores. No siempre consideramos que, aunque en un momento dado haya abundancia de alimento, no ocurre así en todas las épocas del año que pasa”.

El naturalista. Sabemos que nada en el mundo le era ajeno. Y aunque hemos fijado en nuestra percepción la imagen de ese hombre viejo, calvo y de copiosa barba blanca, que con gravedad nos devuelve la mirada desde daguerrotipos reproducidos en enciclopedias y solapas, Charles Robert Darwin también fue un joven inquieto alguna vez. Nacido en la ciudad inglesa de Shrewsbury, en el condado de Shropshire, ubicado en las Midlands del Oeste, en el año 1809, rápidamente dejó atrás sus estudios de Medicina para dedicarse a analizar, con enfermiza precisión para algunos de sus condiscípulos, la composición, estructura y ciclo vital de los invertebrados marinos.

Geología, botánica, zoología. Todo se potencia y se redimensiona ante la mirada de Darwin, ante la visión analítica de un mundo complejo, en permanente cambio, y ante la postura crítica de los férreos postulados heredados. Podemos verlo, así, a bordo del imponente buque HMS Beagle, en una travesía de cinco años (1831-1836): joven, temerario e inquieto, con la potestad de moverse en tierra firme mientras espera el regreso de la nave al puerto. De aquel largo periplo, Darwin sólo estuvo en alta mar dieciocho meses, mientras que durante tres años y tres meses metió talón por sitios tan diversos como las costas chilenas y la profunda Patagonia, viajando desde el puerto de Valparaíso hasta Mendoza a través de la cordillera de los Andes, entre otros maratónicos recorridos.

El 24 de setiembre de 1832, en las cercanías de Bahía Blanca, por los barrancos costeros de Monte Hermoso, Charles Darwin localizó una colina de fósiles de mamíferos gigantescos esparcidos junto a los restos modernos de bivalvos (que se habían extinguido en épocas más recientes y de forma natural). Un diente encontrado en las excavaciones le permitió identificar al megaterio, constituyéndose en la primera muestra fósil que le permitiría cavilar sobre la mutabilidad de las especies, piedra angular de su archiconocida teoría.

Es curioso ver cómo este joven investigador –entonces tenía 23 años– no obnubiló su visión ante el mero hallazgo científico en sí, ya que sus diversas recorridas no son ajenas a la observación de diversos problemas políticos y sociales. En ese sentido, la lectura de su famoso diario El viaje del Beagle (1839), originalmente llamado Diario y observaciones, constituye un muestrario de intereses diversos, articulados por la visión privilegiada de una mente única, que no deja pasar nada: desde Rio de Janeiro a Bahía Blanca, desde Maldonado a la isla de Chiloé, desde Cabo Verde a Tahití, todo en Darwin se vuelve materia de estudio y de reflexión, infatigable magma de conocimiento discurriendo en el tamiz de una mente ávida por saber.

La guerra del mundo. La editorial madrileña Nórdica Libros ha publicado una versión bastante tijereteada de El origen de las especies bajo el título La selección natural, con impecable traducción de Íñigo Jáuregui e ilustraciones de Ester García. El libro, un cuidado objeto que engalana por su porte cualquier biblioteca, impreso con una letra grande y con profusión de dibujos, constituye una versión reducida del clásico texto de Charles Darwin. Los mencionados dibujos, de impecable factura en blanco y negro, humanizan a algunos de los animales mencionados en el texto (un gato y un ratón jugando en subibaja, unos ciervos practicando esgrima, etcétera), sin mayores aportes en cuanto al conjunto que conforma con el texto en sí, donde se encuentra, imperturbable, el auténtico valor de esta edición.

En una prosa precisa, exenta de galimatías científicos y sin notas al pie, en La selección natural Charles Darwin le da vueltas a una teoría que se conforma en convencimiento, partiendo del análisis de una gran cantidad de ejemplos, contraponiéndolos y enumerando, sobre el final del texto, los eventuales problemas que acarrea el planteo realizado. Para abordar la noción de selección natural, dice, “es bueno tratar de plantearnos cómo podríamos dar alguna ventaja a una especie sobre otra. Probablemente en ningún caso sabríamos qué hacer para conseguirlo. Eso nos convencerá de nuestra ignorancia sobre las relaciones entre los seres vivos, una convicción tan necesaria como aparentemente difícil de adquirir. Todo lo que podemos hacer es tener bien presente que todos los seres vivos luchan por aumentar su número en proporción geométrica; que todos, en algún período de su vida, en alguna época del año, en cada generación o a intervalos, deben luchar por su vida y sufrir una gran destrucción. Cuando reflexionamos sobre esa lucha, podemos consolarnos con la convicción de que la guerra en la Naturaleza no es incesante, que no se siente ningún miedo, que la muerte suele ser rápida y que los fuertes, sanos y felices sobreviven y se multiplican”.

Desterrada, pues, la idea de una guerra violenta entre especies, en el interior de cada una y entre ellas con el entorno en que se mueven, es posible comenzar la comprensión de la gran variedad de mecanismos (término tan poco natural pero preciso aquí) con que la Naturaleza, en su magnífica sabiduría pragmática, contribuye a la vida y no a la extinción. Los ejemplos analizados por Darwin, en ese sentido, son notables, y de todos ellos quiero detenerme unas líneas en los que tienen que ver con el color de ciertos animales: “Cuando vemos que los insectos que comen hojas son verdes y los que se alimentan de corteza tienen motas grises, que la perdiz alpina es blanca en invierno, el lagópodo escocés tiene el color del brezo y el gallo lira es pardo como la tierra pantanosa, podemos pensar que esos tonos sirven a estas aves e insectos para escapar del peligro. Los lagópodos, de no ser destruidos en algún periodo de su vida, aumentarían hasta resultar incontables. (...) Así pues, no veo ninguna razón para dudar que la selección natural pudo ser muy eficaz dando el color adecuado a cada tipo de lagópodo y manteniendo ese color neto y constante una vez adquirido”.

Dentro del ámbito abierto por el análisis de la selección natural, Darwin introduce el estudio de la selección sexual, para comprender cómo los machos de determinadas especies fueron dotados para perpetuar la descendencia y contribuir, así, a la continuidad de la especie. Y si bien es cierto que la selección natural dotó de medios especiales de defensa a ciertos animales, como la melena del león, la paletilla almohadillada del jabalí y la mandíbula ganchuda del salmón macho, en muchos casos el mecanismo defensivo es la conclusión de un largo proceso ocurrido durante la evolución. Un ejemplo claro de este punto es la cola de la jirafa, que semeja un funcional espantamoscas de fabricación artificial anexado a las extremidades del animal, pero que es, en realidad, fruto de un larguísimo devenir que se pierde en la noche de los tiempos: “Viendo la importancia de la cola como órgano locomotor en la mayoría de los animales acuáticos, su presencia general y su utilidad para muchos fines en tantos animales terrestres, cuyos pulmones y vejigas natatorias revelan su origen acuático, quizás puedan explicarse de este modo. Una cola bien desarrollada que se hubiera formado en un animal acuático, podría moldearse posteriormente para todo tipo de fines, como espantamoscas, órgano prensil, o para ayudar a darse la vuelta, como ocurre con el perro, aunque esta ayuda debe ser pequeña, porque la liebre, que apenas tiene cola, puede girarse muy rápidamente”.

Es interesante observar, como refleja el fragmento anteriormente citado, la forma en que Darwin avanza en la exposición de su teoría, evadiendo a la generalidad sin desatender la anomalía o aquello que escapa de lo común, sabedor de que la Naturaleza en sí y que cada especie animal, cada tipo de planta, cada roca incrustada en las capas geológicas proceden de un misterio superior, un misterio que es posible cercar para proyectar sobre él un rayo de luz, pero que nunca puede ser revelado en su totalidad. Y saltando del reino animal al vegetal podemos tomar, por ejemplo, el caso de un bambú rastrero que el naturalista encontró en el archipiélago malayo. Dicho bambú trepa por los troncos de los árboles más altos auxiliado por una serie de ganchos delicadamente construidos y agrupados alrededor de los extremos de las ramas, convirtiéndose en un mecanismo de suma utilidad para la planta. Pero como los mismos tipos de ganchos, apunta Darwin, se encuentran en otras plantas que no son trepadoras, los ganchos del bambú pudieron haber surgido por leyes de crecimiento desconocidas y después haber sido aprovechadas por la planta que experimentó una nueva transformación, convirtiéndose en trepadora.

De la observación de cientos de ejemplos que Darwin encontró a lo largo de sus viajes e investigaciones, arribó a la conclusión de que la selección natural nunca produce en un ser nada que le sea perjudicial, porque actúa únicamente por y para el bien de todos ellos. De lo anterior se establece que si se alcanza un equilibrio entre el bien y el mal causado por cada parte, se ve que en conjunto todas son ventajosas y que, pasado el tiempo, en condiciones de vida diferentes, si una parte se vuelve perjudicial será modificada, y si no, el ser se extinguirá como se han extinguido miles de criaturas. Tan increíble y sencillo como eso.

Libro abierto. Una de las imágenes más poderosas para comprender el verdadero alcance de la selección natural es aportada por Charles Darwin sobre el final de su tratado, y consiste en ver las afinidades entre los seres vivos de la misma clase mediante la imagen de un gran árbol. El gran árbol de la vida. Escribe Darwin: “Las ramitas verdes e incipientes pueden representar las especies existentes, y las engendradas durante cada año anterior representarán la larga sucesión de especies extinguidas. En cada etapa del crecimiento, los vástagos intentan ramificarse por doquier, y dominar y matar a los vástagos y ramas circundantes, igual que las especies y grupos de especies tratan de doblegar a otras especies en la gran batalla por la vida. Las ramas principales, que se dividen en ramas grandes, las cuales se dividen en otras cada vez menores, fueron anteriormente, cuando el árbol era pequeño, vástagos incipientes, y esta conexión entre los brotes anteriores y los actuales por la ramificación puede representar bien la clasificación de todas las especies extintas y vivas en grupos subordinados a otros grupos. De los muchos vástagos que florecieron cuando el árbol era un simple arbusto, sólo dos o tres, convertidos ahora en grandes ramas, sobreviven todavía y soportan a todos los demás. Del mismo modo, muy pocas de las especies que vivían en periodos geológicos remotos tienen actualmente descendientes vivos y modificados. Desde el primer crecimiento del árbol, muchas ramas se han podrido y caído, y esas ramas desaparecidas de diferente tamaño representan todos esos órdenes, familias y géneros que actualmente no tienen descendientes vivos y que sólo conocemos por haberlos encontrado en estado fósil”.

La lectura de La selección natural nunca pierde vigencia. El libro parece estar llamado a reconvertir el alcance de sus postulados con cada generación de lectores, picaneando a la comunidad científica –la misma que demoró casi cien años en considerar a la selección natural como sustento inicial de la evolución de las especies– a no desatender cada uno de los fenómenos apuntados y expuestos en el tratado. Finalmente, la lectura de este libro para cualquier lector de a pie aporta novedosos elementos para comprender mejor el mundo en el que vivimos, especialmente en una época en la que la industrialización exacerbada, al servicio de los grandes capitales y con el hiperconsumismo como máxima guía, se encarga de fagocitar y destruir los recursos naturales del planeta con una impunidad pasmosa. Desde la cubierta del HMS Beagle, imperturbable ante las mareas del tiempo y de los hombres, el joven naturalista británico, con los cabellos revueltos bajo los aires del Atlántico, otea la costa cercana, ávido de poner pie en tierra firme y avanzar hacia lo desconocido, donde lo espera el rastro de una ignota especie, una huella reciente sobre el limo de un río, un árbol repleto de frutos creciendo entre las espinas, un mundo misterioso para ser explorado.

 

 

Publicado enCultura
Un par de asistentes observan un robot industrial en una feria de robótica en Tokio.

 

Un informe destaca que Japón, EE UU y Alemania serán los más golpeados por la automatización. El impacto en México será menor por los bajos sueldos

 

Entre 400 y 800 millones de personas en todo el mundo se verán afectadas por la automatización y tendrán que encontrar una nueva ocupación desde hoy hasta el 2030, según un informe realizado por la consultoría McKinsey Global Institute.

El impacto de las nuevas tecnologías en la vida de los trabajadores será sentido sobre todo en las economías más desarrolladas. De acuerdo con el informe, hasta un tercio de la fuerza laboral en Estados Unidos y Alemania tendrá que aprender nuevas habilidades y encontrar otra ocupación. En Japón, el porcentaje de afectados podrá llegar casi a la mitad de los trabajadores.

Los efectos del fenómeno calculados por la consultoría varían de acuerdo con la proyección que se tome en cuenta: si la automatización de las economías avanza a un ritmo intenso o gradual.

Los responsables del documento de McKinsey señalan que los bajos sueldos en México conllevarán a un impacto menos intenso de la automatización en el país latinoamericano: del total de 68 millones de personas que formarán la fuerza laboral mexicana en el 2030, unos 9 millones se verán desplazadas.

“México tiene una población joven y una fuerza laboral que está creciendo. El nivel de los sueldos puede disminuir la implementación de la automatización en el país”, destaca la consultoría.

McKinsey analizó el efecto de la robotización en 46 economías que representan casi el 90% del PIB mundial. Además, hizo proyecciones detalladas del impacto de la automatización en seis países: Estados Unidos, China, Alemania, Japón, México e India. La consultoría destaca que los países tienen que encontrar maneras de reubicar a los trabajadores desplazados por la automatización. “En los escenarios en que algunos de los desplazados llevan años para encontrar un nuevo trabajo, el desempleo crece en el corto y medio plazo. A largo plazo se reduce el desempleo y el mercado laboral se ajusta, pero con un menor crecimiento de los sueldos”, afirman.

Además, los cambios tecnológicos golpearán con más fuerza a los trabajadores con menos estudios. Por otro lado, las personas con formación universitaria o posgrado serán los que menos se verán afectados. Entre las actividades más afectadas señaladas por la consultoría, están los operadores de maquinas y los empleados en cadenas de fast food, además de trabajadores que hacen la colecta y procesamiento de datos.

“Las profesiones altamente dependientes de las actividades que identificamos como más susceptible a la automatización —trabajos físicos o procesamiento de datos— serán probablemente las más afectadas”, afirman los responsables del informe. “Ocupaciones que requieren alto nivel de especialización o una alta exigencia de interacción social y emocional serán menos susceptibles a la automatización hasta el 2030”, dicen.

Pese a los efectos esperados en el mercado laboral, los investigadores destacan que la innovación, el crecimiento económico adecuado y las inversiones pueden generar una creación de empleos suficiente para compensar los puestos que serán perdidos por la automatización.