Gracias al nuevo mapa del universo los científicos tendrán más información para acercarse a lo que durante décadas ha sido una incógnita para la ciencia moderna: ¿Qué ocurrió al inicio del universo?, aseguró George Smoot, premio Nobel de Física 2006.

La información captada hace un par de días por el satélite Planck permitirá obtener más conocimientos acerca de las fases del universo y ayudará a comprenderlo mucho más.

“Gracias a los análisis que se harán tendremos un conocimiento mucho más preciso sobre el universo y su contenido. Con suerte veremos ondas gravitacionales (que se dieron) desde el inicio del espacio-tiempo, encontraremos evidencia de no linealidad en las fuerzas que daban forma al espacio-tiempo y aprenderemos mucho sobre el big bang”, señaló.

Durante una conferencia de prensa en la que se informó sobre algunos de los temas del 19 Congreso sobre gravitación y relatividad, que se celebró en la ciudad de México, el profesor de la Universidad de Berkeley, California, indicó que siempre que la ciencia responde una interrogante, genera dos nuevas preguntas.

Hace más de un siglo se decía que la física estaba completa, que ya se sabía todo acerca del universo, al que se consideraba mecánico. También había muchas discusiones sobre el destino y si todo ya estaba determinado o no. Después llegaron la física cuántica, la relatividad o la mecánica cuántica y descubrimos que regularmente hay algo más. Hoy uno no se preocupa por terminar (una investigación), sino por lo que empieza. Siempre van surgiendo nuevas teorías.

Semillas de las galaxias

Smoot obtuvo el Nobel en su disciplina junto con su colega John C. Mather, por sus aportaciones al estudio de la radiación de fondo de microondas mediante el satélite Cobe, con lo que demostraron que poco después del big bang se presentaron diversas irregularidades en el universo que fueron las semillas para la formación de las galaxias.

El nuevo mapa universal permitirá seguir indagando en los postulados de Albert Einstein, Isaac Newton y otros destacados científicos. Una de las principales premisas a estudiar será la teoría de la gravitación, aunque, dijo, tal vez se presenten algunas modificaciones, como las ideas referentes a la energía y materia oscuras.

Abhay Ashtekar, presidente de la Sociedad Internacional de Gravitación y Relatividad y del comité organizador del congreso, dijo que con los recientes hallazgos se realizarán nuevos estudios en astrofísica y gravitación que responderán a varias incógnitas.

“Con Planck podremos restringir más nuestros parámetros y descubriremos algo más sobre la forma del universo. Hemos escuchado sobre el progreso de la física de ondas gravitacionales, que es uno de los experimentos más precisos, donde podemos medir distancias menores a las del radio de un protón usando interferómetros, cuyas lentes miden alrededor de cuatro kilómetros de largo. La sensibilidad es tan alta que el hecho de que no hayamos visto ninguna onda gravitacional indica que no hay montañas en la nebulosa del Cangrejo, que es una estrella de neutrones cercana a nuestra galaxia.”

El científico subrayó que en la frontera de la relatividad general y de la física con la información transmitida por el satélite se podrá probar de manera muy cercana lo que sucedió con el big bang o incluso antes de esta explosión que dio origen al universo, así como en los campos gravitacionales en el interior de los agujeros negros.

Con los nuevos estudios la humanidad podrá tener certeza en los próximos 15 o 20 años sobre si existe o no materia oscura en el universo y la partícula subatómica bosón de Higgs, conocida como partícula Dios, que explicaría por qué la materia tiene masa.

Por Emir Olivares Alonso

 
Publicado enInternacional
París, 30 de junio. Hace dos mil 100 millones de años, es decir mil 500 millones de años antes de lo comprobado científicamente, habrían aparecido formas de vida complejas, organismos de varias células, conocidos como pluricelulares, según un estudio publicado este miércoles.
 
Este importante descubrimiento ocupa la portada de la revista británica Nature. Incluso, según los expertos, plantea más preguntas y no responde a muchas.
 
Las primeras formas de vida aparecidas en la Tierra hace unos tres mil 500 millones de años eran unicelulares. Se trataba de seres vivos constituidos con una sola célula, como las bacterias.
 
El origen de la compleja vida multicelular ya no se sitúa hace 600 millones de años, sino más bien hace dos mil 100 millones de años, el cursor se desplazó mil 500 millones de años, declaró a Abderrazak El Albani, de la Universidad de Poitiers (Francia), principal autor del estudio.
 
Con su equipo internacional descubrió en Gabón más de 250 fósiles de 7 milímetros a 12 centímetros de longitud que podrían revolucionar la historia de los seres vivos.
 
Ya había fósiles con los que se pudo constatar la explosión de formas de vida multicelulares hace 600 millones de años, pero una aparición anterior era un hipótesis controvertida, según el investigador.
 
Sin embargo, esto cambió con el reciente descubrimiento de un fósil, Grypania spiralis, de hace mil 600 millones de años, que planteó la existencia de vida más compleja.
 
Las primeras unicelulares y las bacterias actuales están constituidas de una célula sin núcleo, es decir, sin membrana que proteja el material genético: son procariotas.
 
Las formas de vida complejas, desde los insectos hasta los mamíferos, sin olvidar los unicelulares, como los paramecios, tienen células eurocariotas, con cromosomas dentro del núcleo.
 
Con los fósiles descubiertos en el sitio de Franceville, en Gabón, la existencia de eurocariotas habría surgido hace dos mil 100 millones de años y no mil 600 millones como se suponía con Grypania.
 
Origen biológico
 
Una forma particular de azufre y moléculas de esterano (un hidrocarburo) encontrados en los fósiles dan pruebas, respectivamente, del origen biológico y eurocariota, según los investigadores.
 
Con un tamaño muy grande para ser sólo residuos de simples sistemas unicelulares primitivos, el contorno de los fósiles evoca, según El Albani, las formas de organismos vivos en suspensión dentro del agua o cerca del fondo oceánico.
 
Interpretar realmente fósiles antiguos es un asunto particularmente difícil, estimaron Philip Donoghue, de la Universidad de Bristol (Gran Bretaña) y Jonathan Antcliffe en Nature, prometiendo futuras discusiones entre paleontólogos.
 
Estos fósiles de unos centímetros, que los autores interpretan como representanciones de organismos multicelulares, habrían aparecido cuando la atmósfera era una mezcla tóxica (...) con una cantidad de oxígeno que corresponde a unos centésimos de los niveles actuales, señalan los dos expertos.
 
Sin poner en duda la datación de estos especímenes, los expertos destacan que la definición de una vida pluricelular puede incluir todo, desde colonias de bacterias hasta tejones.
 
En las colonias de bacterias se constató una forma de comunicación interna y de gestión organizada del crecimiento del grupo, como es el caso de los estromatolitos, estructuras más antiguas que los fósiles encontrados en Gabón.
 
Los especímenes descubiertos no pueden provenir de simples bacterias, aseguró El Albani, quien invitó a preservar el sitio gabonés para que sea inscrito como patrimonio mundial de la humanidad.

Afp
 
Publicado enInternacional
Domingo, 27 Junio 2010 06:34

La ciberguerra pasa al ataque

El gran teórico de la guerra total, el barón Von Clausewitz, escribió que "el soldado duerme, come, anda, se entrena y descansa, todo ello para combatir en el momento y el lugar precisos que le ordenen". Desde hace unos meses, en Francia, al igual que en Estados Unidos, China, Israel, Gran Bretaña y Rusia, el soldado se inicializa, carga su memoria, prepara una bomba lógica y penetra los ordenadores zombis rivales, todo ello para combatir en lo que llaman la "lucha informática ofensiva" que ya está en marcha, abiertamente, en los estados mayores.

El ejército francés acaba de traspasar la línea roja que separa la defensa del ataque militar en el terreno de la guerra virtual, considerado por muchos como la madre de los campos de batalla. Seis laboratorios en todo el país y al menos una unidad del ejército del aire han recibido autorización para investigar sobre "armas digitales", capaces de llevar a cabo una "lucha informática ofensiva" en caso de ataque coordinado enemigo contra las webs gubernamentales, las redes internas de la administración o los sistemas informáticos vitales para el país.

Es lo que se desprende de los anuncios efectuados la semana pasada por la industria militar gala en el principal salón mundial del armamento de tierra, el Eurosatory 2010 de París. Y también coincide con el discurso del secretario general del Elíseo, Claude Guéant, en el congreso del Consejo Superior de la Formación y la Investigación Estratégicas (CSFRS), nuevo centro de doctrina estratégica creado por Nicolas Sarkozy.

El aparato militar francés ha puesto ya en marcha la preparación de códigos maliciosos, software espía y virus caballo de troya que se instalan en el PC del usuario sin que este lo sepa . Todo ello para dotarse de la "capacidad de neutralización en el interior mismo de los centros de operaciones adversas", "saber combatir al adversario en la fuente misma de la agresión, mediante modos de acción ofensivos" y "garantizar la capacidad de perseguir y reprimir a los agresores", objetivos todos ellos fijados por la doctrina estratégica del nuevo Libro Blanco de la Defensa francés, elaborado en 2008.

Los seis laboratorios privados con control estatal, llamados CESTI, han recibido la autorización para desarrollar "armas digitales", bajo una argucia jurídica. Como intentar penetrar o destrozar un sistema informático ajeno es delito tipificado en el código penal francés, no se les podía dar un permiso general. Por eso, el Secretariado General de la Defensa Nacional (SGDN) se lo dio bajo un eufemismo: los CESTI, en el marco de su trabajo sobre sistemas de defensa frente a ataques informáticos, disponen del derecho a desarrollar "tests de penetración". Y, obviamente, para efectuar esas pruebas, necesitan desarrollar y conservar "armas digitales" que penetran. Ofensivas, pues.

Contratos a especialistas

Por otra parte, al menos una célula especializada de la base aérea BA 110 de Créil, al norte de París, trabaja en el desarrollo de armas digitales de combate, según fuentes del sector. En otro terreno, la DGSE, principal servicio de inteligencia exterior francés, ha recibido presupuesto para contratar a 100 ingenieros informáticos por año, para operaciones secretas de penetración en servidores ajenos. Especialmente solicitados son los especialistas en downgrading (capaces de transformar de manera invisible un protocolo seguro en otro que lo sea un poco menos), en retroconcepción (desmontar, como un motor en un garaje, el sistema de algoritmos del enemigo para comprenderlo), exploración de vulnerabilidades, sistemas de penetración furtivos y códigos ofuscados (sistemas de explotación cuyas líneas de código están pensadas para que resulten incomprensibles). Las candidaturas de estos expertos, por cierto, son aceptadas sólo por correo postal, y no por email.

Y poco más se puede saber oficialmente de lo que está haciendo en concreto un mundo que avanza bajo el sello top secret, pese a que sí hay algo que aparece ya a la luz: los presupuestos. El gigante francés Thales, por ejemplo, adelanta oficiosamente que negocia con el Gobierno francés y con la OTAN para el despliegue de sus búnkers informáticos Cybels y Nexium en el campo militar. "Para el Estado francés, el coste sería de varios cientos de millones de euros", explicó a Público el coronel de marina Stanislas de Maupeou, responsable de ciberdefensa en Thales y ex responsable del SGDN.

Comprender en qué están trabajando exactamente los ejércitos de Estados Unidos, China, Gran Bretaña, Francia, Rusia e Israel requiere lo que Claude Guéant, secretario general del Elíseo, calificó de "agilidad en la posición intelectual" y "capacidad para comprender y arrojar luz sobre las señales imperceptibles que envían nuestros enemigos invisibles y multiformes".

Diferentes escenarios

Tres escenarios principales, sacados de los actos de ciberguerra de los últimos años, están labrando la mentes de los estados mayores. El primero y más temido consiste en un ataque contra los llamados SCADA, es decir, los sistemas informatizados que gestionan infraestructuras críticas como plantas nucleares, red ferroviaria o aeropuertos: para los militares, es plausible pensar que puedan provocar "en los próximos quince años", según el Libro Blanco de Defensa francés destrozos similares o superiores a un bombardeo físico.

El segundo escenario es un ataque contra la parte visible de Internet, esto es, las webs y las intranets de administraciones clave, como presidencia, policía, impuestos y hospitales. El hundimiento de esas páginas provocaría caos y desprestigio de un Estado ante sus ciudadanos y ante las potencias extranjeras.

El tercer escenario prevé simplemente la integración de cualquiera de esos ataques informáticos en el marco de una secuencia clásica de guerra convencional.

Las soluciones de ciberbúnker, del tipo Cybels y Nexium, han tenido hasta ahora una aplicación civil para grandes empresas. Esos sistemas analizan, en tiempo real, los flujos entrantes y salientes de un sistema, para detectar automáticamente hasta 75 millones de "eventos". A partir de esos sucesos, escanean otros cientos de millones de procesos para estudiar si hay correlación con un eventual intento de ataque, con lo que localizan 85 "alertas posibles" al día, estudiadas más en profundidad. De ellas, entre cuatro y 10 deberán pasar cada día un examen humano efectuado por los 400 ingenieros que, por ejemplo, ocupan los ciberbúnkers de Thales.

Para la industria privada de altos vuelos, esa capacidad en tiempo real es la garantía frente a los crackers (delincuentes informáticos): se acaba la era de los llaneros solitarios. Para los ejércitos, esos centros de lucha de la guerra digital son la retaguardia sólida para contener en tiempo real los ataques desde servidores blindados, comprender la generación de ordenadores zombis que se pueden controlar desde un único ordenador y obedecen sus órdenes, identificar al atacante y lanzar contramedidas.

"El ciberespacio ya es un campo de batalla; es más, es el principal campo de batalla, porque hoy el funcionamiento de un Gobierno o un ejército en el campo de batalla real ya depende enteramente de las redes", explica Stanislas de Maupeou.

El 9 de junio pasado, Bernard Barbier, director técnico de la DGSE, es decir, jefe de sistemas de la agencia de acción-intervención, fue muy claro en la conferencia anual SSTIC de Rennes. "Francia lleva 10 años de retraso respecto a China", explicó, según relatan diversas fuentes presentes en el foro. Y confirmó que París va a quemar etapas. Eso sí: como la mayoría de las operaciones ofensivas previstas están prohibidas, serán efectuadas de manera furtiva y, cuando sea posible, desde fuera del territorio francés.

Por ANDRÉS PÉREZ CORRESPONSAL 27/06/2010 09:00 Actualizado: 27/06/2010 12:24
Publicado enInternacional
Washington, 23 de junio. El décimo aniversario de la decodificación del genoma humano está marcado por importantes avances en la comprensión de los mecanismos fundamentales de la vida, aunque sus aplicaciones médicas hasta el momento han sido modestas, según investigadores.

Este hallazgo y la identificación de numerosas variaciones genéticas también permitieron a los genetistas arrojar nueva luz sobre los orígenes y la evolución de la humanidad tras su emigración de África, hace 50 mil años, para conquistar el mundo.

Al anunciar que se había finalizado la primera decodificación del genoma humano el 26 de junio de 2000, tras 11 años de esfuerzos y 3 mil millones de dólares de inversión, el entonces presidente Bill Clinton dijo que con este nuevo saber la humanidad está a un paso de adquirir un inmenso poder de cura.

Este avance va a revolucionar el diagnóstico, la prevención y el tratamiento de la mayoría, si no todas las enfermedades, predijo.

Diez años después, es cierto que el Proyecto del Genoma Humano todavía no ha tenido efecto directo en los cuidados médicos de la mayoría de los individuos, reconoció recientemente Francis Collins, director de los Institutos Nacionales de la Salud (INS) y responsable del Consorcio Internacional de Secuenciación del Genoma Humano.

Un proyecto privado paralelo, Celera Genomics, lanzado en 1998 y dirigido por Craig Venter, logró decodificar el genoma humano al mismo tiempo que los investigadores del sector público.

Las aplicaciones en medicina clínica hasta ahora son modestas, aunque se han hecho algunos descubrimientos importantes, especialmente en lo que atañe al cáncer, prosiguió Francis Collins en un editorial publicado a fines de marzo en la revista británica Nature.

Collins citó el desarrollo de nuevos tratamientos anticancerígenos orientados a algunas funciones vitales de los tumores, pruebas genéticas capaces de determinar si las mujeres afectadas por cáncer de mama necesitan quimioterapia, y otras que permiten prever la respuesta de pacientes a más de una decena de medicamentos según su perfil genético. En cambio, un experimento para predecir el riesgo de enfermedades cardiacas no fue concluyente.

Recientemente la Administración de Alimentos y Fármacos de Estados Unidos (FDA, por sus siglas en inglés) autorizó el Prolia, una aplicación genómica de la firma biotecnológica Amgen para tratar la osteoporosis.

Hoy, cerca de 10 por ciento de las marcas de medicamentos –objeto de una solicitud de autorización de comercialización en la FDA– contienen informaciones fármaco-genómicas, fuerte aumento comparado con los años 90, destacó Margarett Hamburg en un editorial publicado a mediados de junio en el New England Journal of Medicine.

Pero esto no marca el límite del potencial de la medicina personalizada, agregó. A medida que avanza el campo de investigación, esperamos tener experimentos más eficaces basados en una mayor comprensión de los mecanismos genéticos de la enfermedad, explicó Hamburg.

Afp
Publicado enInternacional
Martes, 22 Junio 2010 17:35

Freno a la geoingeniería

Blanquear nubes, fertilizar el océano, tapar el sol, inyectar nanopartículas de azufre en la estratósfera, abrillantar los mares, "sembrar" miles de árboles artificiales, plantar millones de árboles para quemar como carbón y enterrarlos como "biochar", invadir las tierras con mega-plantaciones de transgénicos super brillantes para reflejar los rayos solares...
 
Suena como lista de delirios, pero son algunas de las propuestas "serias" de los que propugnan la geoingeniería como solución a la crisis climática.
 
La geoingeniería se refiere a la manipulación intencional de grandes trozos del planeta para, supuestamente, contrarrestar el cambio climático. Hasta hace poco era considerada ciencia ficción. Ahora, poderosos intereses económicos y políticos, presionan por llevarla a la práctica. En el último año, varias instituciones científicas de renombre –como la Sociedad Real del Reino Unido– se han prestado a publicar informes sobre geoingeniería, con escasa o nula participación de científicos críticos, concluyendo que "se debe financiar con recursos públicos la investigación y experimentación de la geoingeniería".
 
Los científicos que promueven la geoingeniería, alegan que como los políticos no se ponen de acuerdo para enfrentar el cambio climático, hay que tener preparado un "plan B". Reconocen que implica enorme riesgos, pero según ellos, no hay otra salida.
 
Después del fracaso de la cumbre del clima en Copenhague, paradójicamente provocado por los mismos gobiernos y empresas que causaron el cambio climático, científicos provenientes de esos mismos países convergen en decir que la democracia no es útil para enfrentar las crisis. Proclaman que ellos tendrán que salvar al planeta y a la humanidad, aunque sea a la fuerza y contra nuestra voluntad.
 
James Lovelock, famoso científico preocupado por el ambiente, declaró que "habrá que poner la democracia en pausa" ( The Guardian, 29/3/10). Para él, la única alternativa es manipular el clima con geoingeniería. Lo mismo expresa el científico canadiense David Keith, que en enero 2010 publicó en la revista Nature que urge "manejar la radiación solar", inyectando nanopartículas azufradas en la estratósfera, para que desvíen los rayos del sol. Esto imitaría la nube que se forma en una erupción volcánica, y quizá bajaría la temperatura global (teóricamente lo que sucedió con la erupción del volcán Pinatubo en 1991). Tendría muchos y gravísimos impactos y efectos colaterales no deseados, sobre todo en regiones al sur del mundo, muy lejos de los países de Keith y Lovelock, pero como aclara Keith "el manejo de la radiación solar tiene tres características esenciales: es rápida, barata e imperfecta".
 
Pese a eso, Keith aboga por experimentar con geoingeniería en campo a la brevedad, sin que haya intromisión de Naciones Unidas u otro tipo de supervisión multilateral, que solamente demorará lo que algunos científicos y unos cuantos hombres ricos y empresas pueden hacer sin que los molesten las instancias democráticas internacionales.
 
A principios de mayo 2010 salió a luz el proyecto de otros científicos, financiados con dinero de Bill Gates, para experimentar el "blanqueo de nubes", inyectando agua del mar desde barcos no tripulados en una superficie de 10,000 kilómetros cuadrados de océano. (http://www.etcgroup.org/es/node/5138). Argumentan que es "barato" y solamente un experimento. Pero en rigor, la etapa "experimental" no existe en geoingeniería. Para tener algún efecto sobre clima debe ser a mega-escala. Los que proponen blanquear las nubes para aumentar el reflejo de la luz del sol, reconocen que habría que cubrir cerca de la mitad del Océano Pacífico con barcos que lancen agua de mar a las nubes, para quizá tener algún efecto sobre el clima.
 
No son sólo científicos los que proponen la geoingeniería. Ellos proveen el discurso y las "capacidades" a los más interesados: grandes capitales y transnacionales, sobre todo empresas que hasta ahora negaban el cambio climático porque son los principales culpables (como petroleras, de carbón, energía). Ahora ven en la geoingeniería no como plan B, sino como plan A. Para ellos y gobiernos como Estados Unidos y Reino Unido, la geoingeniería es la solución "perfecta" al cambio climático: no hay que cambiar nada, se puede seguir contaminando y emitiendo gases de efecto invernadero, porque podrían enfriar el planeta permanentemente, lo cual además les reportará lucros adicionales. El discurso de que "todos" somos igualmente responsables de las crisis climáticas y ambientales y que la democracia no sirve, les viene de perillas para tener aún más impunidad. Ahora hasta parece que nos están salvando.
 
Frente a estas tropelías, se creó en el marco de la reciente Cumbre de los Pueblos frente al Cambio Climático en Cochabamba, la campaña "No manipulen la tierra", que ya cuenta con la adhesión de más de 100 organizaciones y grandes redes internacionales de ambientalistas, campesinos, indígenas y otras. La demanda central es prohibir la geoingeniería y cambiar las causas reales de la crisis climática. (http://www.nomanipulenlamadretierra.org/)
 
Un primer logro a nivel internacional, es que un cuerpo de asesoramiento científico técnico de Naciones Unidas, acordó el 14 de mayo 2010, en Nairobi, Kenya, recomendar al Convenio de Diversidad Biológica establecer una moratoria sobre la geoingeniería, por los impactos que puede tener sobre la biodiversidad y las formas de vida relacionadas a ella. Un primer paso de una lucha que será dura, pero que cada vez cuenta con una oposición mayor desde todos los rincones del planeta.
 
Por Silvia Ribeiro, investigadora del Grupo ETC.
Publicado enInternacional
En un futuro no muy lejano, los seres humanos serán capaces de implantarse memorias RAM neuronales que les permitirán almacenar grandes cantidades de recuerdos e información con la que podrán aprender en tiempo récord habilidades nunca antes imaginadas, guardar información confidencial o comerciar con ella. Así lo afirma el estudio Los Trabajos del Futuro, elaborado por la consultora FastFuture, que anticipa que en las próximas dos décadas el mundo se parecerá más a las películas cyberpunk de los años noventa, como Matrix o Johnny Mnemonic, que a la realidad tal cual la conocemos hoy en día.

Para implantar los microchips que hagan las veces de disco duro del ordenador humano harán falta cirujanos de aumento de memoria, una de las profesiones más demandadas en 2030, junto a policía del clima, farmagranjero o arquitecto espacial. Según el futurólogo y presidente de FastFuture, Rohit Talwar, "es el momento de comenzar a reciclarse y pensar en qué querremos ser de mayores".

Las previsiones hablan de que dentro de 20 años la población mundial aumentará unos 1.500 millones de personas hasta llegar a los 8.300 millones. La comida y el agua comenzarán a escasear y será necesario hacer frente a la amenaza del cambio climático, cada vez más presente.

"Los campos claves de crecimiento serán la biotecnología, la nanotecnología, las tecnologías verdes y la educación on-line", explica a Público Talwar, quien para elaborar sus predicciones ha contado con la colaboración de 453 expertos de 58 países en seis continentes. En la investigación han participado compañías líderes en los sectores de consumo, tecnología e innovación, entre ellos, IBM, Intel, Nokia, Panasonic, Pepsi, Pfizer, Samsung, Shell o Siemens. Su idea era identificar los sectores emergentes en 2030 partiendo de la evolución de las actuales tendencias políticas, económicas, sociales, demográficas, medioambientales y científicas.

En la lista definitiva de empleos de ciencia ficción, confirma Talwar, "aparecen trabajos que no existen todavía", junto a empleos minoritarios ya creados pero que "en el futuro serán predominantes". Estas nuevas profesiones servirán para dar soluciones a los problemas que se plantearán en los próximos años, como las hambrunas. Gracias a los farmagranjeros, especialistas con conocimientos biotecnológicos que permitan modificar genéticamente los cultivos, se podrá producir más cantidad de alimentos y con mayores propiedades nutritivas y terapéuticas. Además, el efecto invernadero y la creciente tendencia de algunos países a provocar fenómenos atmosféricos como la lluvia de forma artificial obligarán a que el medio ambiente sea vigilado día y noche, misión para la que se creará un cuerpo internacional de policías del clima.

Medicina regenerativa
Con el previsible acelerón que vivirá el cambio tecnológico en los próximos 15 años, la inteligencia artificial y la robótica también facilitarán la aparición de profesiones como la de fabricante de partes del cuerpo. La medicina regenerativa ya está dando sus primeros pasos y en el futuro se necesitarán personas que combinen medicina, robótica e ingeniería para decir adiós a las lesiones crónicas y a las minusvalías.

Sin embargo, para el autor del estudio, estas no serán las profesiones mejor pagadas, "sino las que tengan que ver con el espacio". Talwar afirma que el siglo XXI será el de la conquista del universo, para lo que harán falta pilotos, guías turísticos e incluso arquitectos espaciales.

"A medida que el turismo espacial vaya en alza, la gente querrá estar cómoda en el espacio", explica Regina Peldszus, una de las pioneras de la arquitectura estelar. A sus 27 años, Peldszus recrea cómo serán los habitáculos de los cohetes del futuro desde su despacho en el Centro de Diseño Aeronáutico de la Universidad de Kingston, en Londres. Para ello, esta alemana de nacimiento y británica de adopción se inspira en sus tres películas de ciencia ficción preferidas: 2001, de Stanley Kubrick; Solaris, de Andrei Tarkovsky; y Alien, de Ridley Scott. Su imaginación le ha valido la nominación como una de los 25 diseñadores que cambiarán la arquitectura en 2010, según la prestigiosa revista inglesa Blueprint Magazine. A pesar de que su profesión parece de otro mundo, su principal objetivo es más que mundano: conseguir que viajemos cómodos al espacio.

Otro reto al que nos enfrentaremos en los próximos años, este más cercano a la sociedad actual, será el progresivo envejecimiento de la población. El estudio The future at Work, elaborado por el Departamento de Trabajo de EEUU y la corporación Rand, anuncia que la principal economía del mundo será la primera en enfrentarse al problema. La llegada a la edad de jubilación de la generación de los baby boomers, nacidos entre 1946 y 1960, forzará la aparición de especialistas médicos en la tercera edad. No sólo se limitarán a cuestiones clínicas, sino también a la salud mental, psicología o ejercicio físico.

En cualquier caso, muchos trabajadores actuales quizá comprueben al jubilarse que su trabajo ya no existe. "Vamos a vivir un enorme cambio en el mercado laboral. Algunos trabajos desaparecerán y otros sobrevivirán, pero con enormes cambios", adelanta el consultor y futurólogo estadounidense Alvin Toffler, autor de los libros Future Shock y Revolutionary Wealth.

Entre los trabajos que Toffler da por extinguidos para 2030 se cuentan el de cajero de supermercado, que será sustituido por las cajas automáticas y el dinero digital, o el de dependiente de tienda de discos, a quienes las descargas de Internet ya han empezado a jubilar antes de tiempo. Otros, como los pilotos de combate, deberán reciclarse en capitanes de aeronaves espaciales y dejar las guerras para las máquinas.

Por ROBERTO ARNAZ Los Angeles (EEUU) 12/06/2010 22:53 Actualizado: 12/06/2010 23:45
Publicado enInternacional
Sábado, 12 Junio 2010 17:24

La nueva máquina de la verdad

Hace unas semanas, un ciudadano estadounidense intentó demostrar su inocencia ante un tribunal con imágenes de su cerebro. Las instantáneas mostraban cómo reaccionaron sus neuronas a preguntas sobre su intención de robar a las arcas públicas. Sus abogados dijeron que las zonas que se activaban en su encéfalo a cada pregunta demostraban que el acusado decía la verdad.

No era la primera vez que un abogado intentaba exculpar a su cliente usando la Imagen por Resonancia Magnética Funcional (fMRI, en inglés), una técnica aún experimental que hasta hace muy poco sólo usaban los científicos y los médicos.

Triple asesinato

El año pasado, una aplicación similar fue aceptada por primera vez en un tribunal de EEUU. Fue en el juicio de Brian Dugan, un caso de gran repercusión mediática ya que, tras 20 años en la cárcel cumpliendo dos cadenas perpetuas por dos asesinatos anteriores, Dugan reconoció que fue él quien mató a Jean Nicarico, una niña de 10 años por cuyo asesinato ya se había condenado a otras dos personas. Lo único que pedía el reo es que no le condenasen a muerte y, para conseguirlo, sus abogados estaban dispuestos a usar cualquier prueba.

Fue así como el neurocientífico Ken Kiehl, de la Universidad de Nuevo México, llegó a Illinois para testificar en el caso. Kiehl había escaneado con fMRI a más de mil reclusos que cumplían condena por asesinato y otros crímenes y creía que esa evidencia permitía distinguir a un psicópata de una persona sana. La clave, señaló Kiehl, está en la amígdala, el centro cerebral de las emociones. La mayoría de sus reclusos con psicopatía mostraban una actividad mucho menor en esa zona que los sujetos sanos.

El tribunal no aceptó como prueba el fMRI de Dugan, pero sí dejó que Kiehl lo explicase al jurado. El especialista dijo que Dugan mostraba signos claros de psicopatía.

Otro psicólogo testificó en contra del uso del fMRI y señaló que la mayoría de estudios hechos hasta la fecha se habían realizado con grupos de personas y no con individuos concretos. También dijo que el crimen se cometió en 1983, con lo que el cerebro de Dugan probablemente se comportaba ahora de una manera muy diferente a la de entonces. Tras oír estos testimonios el jurado declaró a Dugan culpable y el juez le sentenció a muerte.

En el caso de Tennessee, el juez Tu Pham, tras 12 horas escuchando argumentos sobre la fiabilidad y precisión de la técnica y su uso como detector de mentiras, decidió no aceptarla como prueba en lo que pareció una nueva derrota para aquellos que defienden el uso del fMRI en procesos judiciales.

Otros tribunales de California y Nueva York habían hecho lo mismo en casos anteriores. Pero en su informe de más de 39 páginas, el juez Pham dejaba la puerta abierta al uso de esta tecnología en el futuro. "Si se somete a más estudio, desarrollo y análisis por parte de expertos", decía el juez, "esta metodología podría ser admisible".

Cuestión de tiempo

Por ahora no se han dado casos similares en Europa, algo que podía cambiar pronto, según algunos expertos. "Será sólo una cuestión de tiempo hasta que se acumulen estudios suficientes que permitan validar el uso de esta tecnología en los tribunales", explica a Público Burkhard Schafer, un profesor de la Universidad de Edinburgo (Reino Unido) que acudió esta semana al Instituto de Estudios Avanzados de Glasgow para discutir junto a otros 40 neurocientíficos y profesores de derecho de EEUU y Europa si es viable el uso de la imagen cerebral en los tribunales. "Las implicaciones para la privacidad son preocupantes", opina. "Estas técnicas podrían usarse también para fijar las primas de las empresas de seguros, entrevistas de trabajo o pleitos laborales", añade.

La mayoría de expertos, incluidos los que utilizan el fMRI en investigaciones científicas, creen que este aparato aún no es lo suficientemente fiable como para usarse fuera de los laboratorios. "Los neurocientíficos tienen bastante claro que la imagen cerebral no está preparada para usarse con confianza ante un tribunal", explica Mike Nellis, un profesor de derecho de la Universidad de Glasgow.

"En cinco o 10 años el fMRI podría convertirse en un buen detector de mentiras, pero ahora sólo acierta en el 50% de los casos", sentencia Hank Greely, director del Centro de Ley y Biociencia de la Universidad de Stanford (EEUU) y uno de los mayores expertos sobre las implicaciones del uso de estas máquinas fuera de su contexto científico. Al contrario que Schafer, Greely cree que, después de todo, puede que el fMRI nunca resulte viable como detector.

En el mercado

A pesar de las incertidumbres, estos detectores de mentiras ya están en el mercado. Dos empresas estadounidenses, No Lie MRI y Cephos, ofrecen tests de la verdad a sus clientes para que los usen en juicios. La primera afirma que su máquina tiene una fiabilidad de entre el 90 y el 99% . La segunda fue la encargada de escanear al empresario Lorne Sembrau, el acusado del caso de Tennessee que supuestamente obligó a sus empleados a rellenar documentos falseados para recibir más subvenciones del Gobierno. "Si su palabra, su reputación o su libertad está en disputa, contacte con nuestro equipo hoy mismo", anuncia la compañía en su web.

El fMRI estudia el flujo sanguíneo en diferentes zonas del cerebro. Cuanto más flujo hay, más activa está esa zona. "Allí donde hay un cambio en la actividad neuronal, hay un cambio en la señal BOLD [el indicador del fMRI]", explica Santiago Canals, investigador del Instituto de Neurociencias. El experto utiliza el fMRI para estudiar en ratas las diferencias entre un cerebro sano y otro adicto al alcohol o las drogas.

Predicciones

"En estos casos se produce un alteración de los circuitos cerebrales y se segregan grandes cantidades de dopamina en el circuito límbico y el hipocampo", explica. Desde hace 15 años, científicos de todo el mundo han estado acumulando datos similares hasta generar una base científica que, en ocasiones, puede hacer predicciones en función de qué zonas del cerebro registran más actividad. "Un estudio reciente demostró que el fMRI puede identificar si una persona es de izquierdas o de derechas estudiando sus reacciones a fotografías de George Bush y Bill Clinton", explica Juan Lerma, director del Instituto de Neurociencias. Otro trabajo fue capaz de decir cuándo una persona iba a comprar algo antes incluso que decidiera hacerlo, añade. El investigador Ruben Gur, de la Universidad de Pennsylvania, dice que, gracias al fMRI, puede diagnosticar la esquizofrenia con un 80% de fiabilidad.

"Es una técnica mucho más fiable que el polígrafo, porque es imposible que un individuo manipule su actividad cerebral aunque se entrene", explica Lerma. "La técnica aún no está lista para salir del laboratorio de forma general, pero sí para ser usada en casos especiales", opina.

En una declaración conjunta, los 40 expertos reunidos en Glasgow dijeron que, "aunque la neuroimagen ya se usa en tribunales y márketing, esos usos carecen de base científica". "El impacto de las nuevas aplicaciones de la imagen cerebral es tan importante que requieren un debate público así como más investigación que apoye esos posibles nuevos usos", concluyen

Por NUÑO DOMÍNGUEZ MADRID 12/06/2010 13:30 Actualizado: 12/06/2010 13:30
Publicado enInternacional
Sábado, 05 Junio 2010 08:07

Vida artificial con fines de lucro

El pasado 20 de mayo, el controvertido científico Craig Venter anunció que el Instituto Venter y su empresa Synthetic Genomics Inc, habían construido en laboratorio el primer genoma completo totalmente artificial, con capacidad de auto-replicación. Insertaron este genoma artificial en una bacteria a la que habían previamente despojado de su material genético y lograron que el genoma sintético intruso comandara la bacteria, replicándose.

Son muchos los temas y problemas que plantea construir y liberar vida artificial, desde éticos a bélicos –por su alto potencial como armas biológicas– así como por los graves impactos ambientales y económicos que tendría.

Sin embargo, con la arrogancia que lo caracteriza, Venter anunció el hecho como si fuera un estreno de Hollywood, encomiando sus logros y desestimando los riesgos de esta nueva forma de manipulación de la vida. Según él, la construcción de vida artificial será la solución para problemas energéticos, climáticos, ambientales, alimentarios y de salud. Todo en función del lucro que pueda conseguir con ello, por lo que ha patentado todo el proceso y para que nadie pueda usar o copiar su invento, introdujo en el genoma artificial secuencias genéticas que identifican su propiedad.

Un macabro ejemplo que muestra el tipo de "solución" al que se refiere Venter, es la colaboración de Synthetic Genomics, la empresa de la cual es co-fundador (con capitales y participación de los mexicanos Alfonso Romo y Juan Enríquez), con empresas que están entre las más sucias del planeta: las petroleras Exxon y BP. Buscan desarrollar combustibles a partir de su producción con microbios construidos artificialmente y basados en algas transgénicas y microalgas con genoma artificial. Implicaría la liberación masiva de vida artificial en miles de kilómetros del mar, con impactos potenciales mucho más allá de lo que nadie pueda predecir, ya que nunca ha habido vida artificial en interacción con el medio ambiente y otros organismos vivos.

Con el reciente mega-derrame de petróleo en el Golfo de México, BP ha demostrado fehacientemente al mundo que en función de ahorrarse dinero en medidas de seguridad, no duda en poner en riesgo enormes áreas naturales y ecosistemas, la vida de millones de seres vivos y las formas de vida y sustento de cientos de miles de personas. Imagine usted lo que puede surgir de la colaboración entre los entusiastas de la manipulación y privatización de la vida y de la ciencia con las empresas más contaminantes e irresponsables del planeta.

Aunque otros científicos cuestionan, con razón, que ésta sea creación de "vida" artificial, ya que en realidad Venter introdujo un genoma en una bacteria pre-existente, ello no disminuye los riesgos que significa este engendro. El objetivo de Venter es crear un genoma "mínimo" que se pueda construir artificialmente para usarlo como una plataforma, un "chasís" al que agregarle diferentes genes según la función que se busque. Por eso afirma que se podría usar en tantos campos: dependería de los genes que se les agregue.

Para buscar esos genes, Venter se ha dedicado a biopiratear sitios megadiversos del mundo (incluyendo México, Ecuador, El Salvador y otros de América Latina y el mundo). Cuenta ahora con una enorme colección de genes con características extremas, para sus fines comerciales. Mientras los colectaba aseguró que eran para investigación "sin fines de lucro". Poco después declaró que si lograba construir un microbio artificial para producir combustibles, valdría "billones de dólares", y "sin duda patentaría todo el proceso".

Lo que Venter y otros que trabajan en biología sintética no nombran, es que si funcionan, necesitarán alguna fuente de carbohidratos para alimentar esos microbios artificiales y producir lo que avizoran. Eso significará un ataque masivo con nuevas fronteras de explotación y comercialización de la "biomasa" del planeta, de los cultivos y bosques existentes y/o nuevos acaparamientos de tierra para sembrar interminables monocultivos para procesar con microbios artificiales. Esto acarreará más impactos ambientales y sociales, con desplazamientos de campesinos, indígenas y otros habitantes en esas tierras. En lugar de buscar el petróleo bajo tierra, que es biomasa procesada en millones de años, ahora quieren convertir en hidrocarburos y polímeros la biomasa sobre la tierra (y el mar), existente o por sembrar.

Cada vez hay más evidencias científicas de que el funcionamiento de los genes y su relación dentro de los organismos y con el medio, son mucho más complejas de lo que se creía. La construcción de vida artificial en laboratorio puede "funcionar", pero no hay duda que violenta los largos procesos co-evolutivos naturales de los organismos y el ambiente, con impactos impredecibles sobre éstos.

Por éstas y otras razones, el cuerpo científico técnico del Convenio de Diversidad Biológica de Naciones Unidas acordó en Nairobi, al día siguiente del anuncio de Venter, enviar una recomendación de moratoria a la liberación de organismos vivos artificiales, a la próxima sesión del Convenio. Es apenas un comienzo, que marca la urgencia de un amplio debate social para impedir que empresas y científicos ávidos de lucro sigan actuando en la impunidad.

Silvia Ribeiro*
*Investigadora del Grupo ETC
Publicado enInternacional
Miércoles, 02 Junio 2010 07:12

Hablando con un mito matemático

–Usted vino al país invitado por la Facultad de Matemática, Astronomía y Física de la Universidad Nacional de Córdoba (Famaf - UNC) y es un miembro del mítico grupo Bourbaki. Ha hecho aportes originales a la geometría algebraica, a los grupos de Lie, a los grupos algebraicos, probabilidades, teoría de números, física matemática, entre otros. ¿Qué más puedo decir para presentarlo?

–Que nací en 1932 en Sedán, en el norte de Francia, y me dediqué a las matemáticas desde muy temprana edad. Participé fuertemente en el grupo Bourbaki, donde redacté varios volúmenes, en particular los capítulos de teoría de Lie, que es aún hoy en día uno de los más citados de Bourbaki. A veces me presentan como una especie de embajador itinerante de la matemática. Visité una gran cantidad de países, Brasil, Chile, Argentina, el norte de Africa, Vietnam, Japón, India, siempre tratando de que la matemática sirva para unir a los pueblos.

–Usted estaba en el grupo donde estaban Henri Cartan, Dieudonné... ¿Son verdaderas las historias que se cuentan? Por ejemplo, que una vez disfrazaron a alguien, dijeron que había venido un matemático polaco que hablaba una jerga incomprensible y que no obstante todo el mundo dijo “qué maravilla”, pero realmente no habían entendido nada.

–Bueno, aquello fue una broma de los estudiantes en 1930.

–¿De dónde viene el nombre Bourbaki?

–Históricamente es una familia de militares griegos. El más antiguo de ellos fue colaborador de Napoleón en la guerra de Egipto. Napoleón le agradeció nombrándolo general y le ofreció ocuparse de su hijo. Este hijo fue educado en escuelas militares francesas. A partir de lo cual hay varias generaciones de militares franceses en el ejército que llevan ese nombre.

–¿Y por qué eligieron ese nombre?

–Hay dos razones para la elección de este nombre. La primera de ellas es que los estudiantes que hicieron la broma sobre el matemático polaco o ruso en el anuncio de su conferencia pusieron que era Bourbaki. Al principio, el matemático Bourbaki no tenía nombre de pila. La primera vez que el grupo de matemáticos del colectivo Bourbaki quiso publicar un texto en la Academia de Ciencias tuvo que dar un currículum del autor. Cuando tuvieron que presentar el texto en la Academia de Ciencias era obligatorio poner un nombre de pila y, de acuerdo con una vieja tradición de la Sorbona, cuando alguien no era profesor y presentaba un texto en una conferencia llevaba la inicial N, que significa “no existente”.

–Era un grupo secreto. Nadie sabía quién era ese tal Bourbaki.

–Más o menos... se sabía quiénes eran los integrantes. El grupo comenzó a trabajar en 1935, en 1940 Francia colapsa por la Segunda Guerra Mundial y debido a ello una parte del grupo se fue a EE.UU. En particular André Weil. Pero continuaron trabajando, y al final de la guerra había suficiente material como para publicar unos 4 o 5 libros más. En los años ’30 comenzó la colección de libros.

–Las matemáticas que hacían ustedes con el grupo Bourbaki y demás correspondieron más o menos a la etapa del estructuralismo francés.

–André Weil fue el que insistió sobre la idea de estructura. Había dos razones. La primera razón es de tipo histórico: algunos grandes matemáticos previos como Elie Cartan, un gran geómetra, hablaban de la estructura de los grupos, la estructura de los espacios sin tener una definición precisa. André Weil conocía muy bien los trabajos de lingüística de J. Mayer. Estos lingüistas fueron los que introdujeron la noción de estructura. André Weil, que conocía ambas ciencias, buscaba un concepto que ayudara a organizar el trabajo de Bourbaki.

–Casi todo estaba organizado por estructuras.

–Sí. El plan de la colección estaba organizado por estructuras.

–Actualmente, ¿cuál es la situación de esa corriente matemática? Porque en una época, acá en la Argentina, se estudiaba en matemáticas todo Bourbaki. Después entró la matemática norteamericana...

–La influencia de la matemática francesa, o en particular Bourbaki, en América latina viene de que Grothendieck, Dieudonné y André Weil pasaron muchos años en Brasil.

–Y que muchos estudiantes argentinos estuvieron con ellos en EE.UU., me parece. Y ahora, a nivel mundial, ¿en qué está Bourbaki?

–Nuestra broma era que los libros de Bourbaki se llamaban “la Biblia”.

–Y así lo tomábamos nosotros cuando estudiábamos.

–El gran éxito de Bourbaki fue haber hecho una enciclopedia. Hace unos 50 años había muchas divergencias en cuanto a las definiciones correctas de determinadas nociones y esas diferencias llevaban a distintas interpretaciones. Bourbaki estableció un estándar de rigor, pero sobre todo de presentación, de terminología. Hoy en día la terminología matemática está unificada en gran parte gracias a Bourbaki. Pero el grupo no tiene más actividad. Hace 25 años que no se escriben nuevos libros. Diría que nosotros estamos después de la revolución. La revolución que hubo en matemática en los años ’30 y ’40 es el fundamento de la matemática que se desarrolla hoy en día. Pero los problemas, las cuestiones matemáticas que se abordan hoy en día son de una naturaleza diferente.

–¿Y cuáles son?

–La geometría continúa desarrollándose en gran parte debido a sus profundas conexiones con la aritmética, y la teoría de números. En segundo lugar, la mecánica de Newton, que fue considerada muerta hace 60 años debido a las nuevas mecánicas de los físicos, la relativista y la cuántica, pero en gran parte debido a la exploración espacial sigue habiendo una necesidad de trabajos en mecánicas newtonianas muy importantes. Después de trabajos como los de Arnold o los de la Escuela Rusa han llevado a una conjunción de la mecánica newtoniana y la geometría. De una manera más general los problemas matemáticos de la física son muy difíciles y muchos de ellos no han sido resueltos.

–Lo que ahora se llama teoría del caos. A mí nunca me convenció mucho su rigor...

–Los fundamentos matemáticos son sólidos, pero aquellos que desarrollaron esta teoría, como Mandelbrot, Roel, Cimat, creían que tenían la llave para explicar todo. Del mismo modo, René Tom, con la teoría de catástrofes, tenía la misma sensación. Hoy en día somos más modestos. Hay muchos fenómenos de mecánica donde aparece el caos. En los últimos 25 años, los astrónomos franceses han estudiado la evolución del sistema solar en períodos de miles de millones de años. En sus estudios sobre este tema aparecen realmente fenómenos del caos. Por ejemplo, como se ve que de repente Mercurio se encuentra muy cercano a Júpiter, en estos períodos tan prolongados pueden suceder cosas muy complicadas.

–Le pregunto, porque acá en Famaf se dedican a esto. ¿En qué consiste la historia conceptual de las matemáticas?

–Fue Jean Dieudonné quien por primera vez abordó la historia conceptual de las matemáticas, que consiste en intentar comprender desde un punto de vista retrospectivo cómo se llegó a determinado resultado, por ejemplo en alguna área del conocimiento en el siglo XIX.

–¿Y cómo llega a sus resultados conceptuales?

–A veces sucede que los matemáticos encuentran diversos resultados que no se entienden y sólo mucho tiempo después alguien encuentra una teoría que los encuadra y entonces uno se da cuenta de que aquellos resultados que fueron encontrados primero, en realidad tenían que ver con este concepto que todavía no había nacido.

–Como en el caso de los grupos de permutaciones...

–Sí, creo que cuando hay diversos métodos, en cualquier ciencia, lo más rico es utilizarlos a todos simultáneamente.

–Ya que estamos, hablemos un poquito de historia... ¿Cómo fue que usted se dedicó a las matemáticas?

–En mi familia hace más de cien años que hay profesores y maestros de matemática. Y mi abuela, madre, esposa, hijas, todas han trabajado como profesoras o maestras.

–Bueno, sabiendo que el de su familia no es un caso común, ¿cree que la divulgación influye en la vocación por las matemáticas?

–Yo diría que no se trata de hacer propaganda de la matemática. Creo que una de las maneras es hacer conocer la historia de las matemáticas y de los propios matemáticos. Pero fíjese que, paradójicamente, el mayor motivo de orgullo de un matemático destacado es cuando su nombre se olvida y su descubrimiento pasa a ser parte del conocimiento común.

–Ciertamente se da en muchos campos del progreso científico...

–Sí, por ejemplo sabemos muy bien que en la electricidad se habla de amperes y watts, y muy pocos saben quiénes eran Ampère y Watt.

Por Leonardo Moledo
Desde Córdoba

leonardomoledo.blogspot.com 
Publicado enInternacional
Miércoles, 26 Mayo 2010 06:27

Ciencia: ¿hasta dónde?

La ciencia, a diferencia de la literatura, no admite ficción. Las artes enriquecen la vida gracias a la imaginación, a la belleza, a la paz que suelen ofrecer. Las ciencias fortalecen la existencia por medio de sus descubrimientos, por los problemas que resuelven, porque mejoran las condiciones de vida. Las artes se nutren del correr de la vida y del contacto entre seres humanos; crecen por lo que observan, y, salvo cuando se usan con fines propagandísticos, como sucedió en la Alemania nazi, suelen ser benéficas e inocuas.

Las ciencias incrementan el conocimiento por medio de reglas muy estrictas. Sus aportes siempre son bienvenidos: sólo dañan cuando se utilizan para destrozar Hiroshima o Nagasaki, o cuando se prueban fármacos en seres humanos sin apegarse a códigos éticos. La ficción no daña. La ciencia, cuando vulnera leyes éticas, produce desgracia. Ni la ciencia ni el arte tienen fronteras.

Algunas conquistas científicas, además de producir admiración, generan preocupación. Craig Venter, uno de los padres del genoma humano, y su grupo, informaron, hace pocos días, la creación de una bacteria. Este hallazgo pone fin a uno de los grandes (e inviolables) dogmas de la biología: las células, es decir, la vida, provienen forzosamente de la división de otras células vivas. Romper paradigmas biológicos es un suceso inmenso. Crear células artificiales generará, seguramente, grandes beneficios; sin embargo, es muy probable que se susciten algunos dilemas éticos. Otro ingrediente insoslayable es que Venter combina su gran capacidad científica con su ímpetu comercial: es fundador y codueño de la empresa Synthetic Genomics.

El descubrimiento del científico estadunidense se inició hace 15 años mientras trabajaba en el genoma humano. Desde el punto de vista científico el logro es inmenso; Venter y su grupo crearon una bacteria cuyo origen son los tubos de ensayo que contienen productos biológicos y químicos y no células madre. Me explico: las células y las bacterias se reproducen a partir de formas similares –madres biológicas es una buena forma de denominarlas–, mientras la bacteria de Venter podría llamarse bacteria sintética o informática, ya que su origen no es la vida tal y como la conocemos, sino la información proveniente de otras células cultivadas en el laboratorio.

La primera célula sintética, como la denomina Venter, se llama Mycoplasma mycoides JCV1-syn 1.0. JCV se refiere a John Craig Venter; el 1.0 es su leitmotiv: el científico buscará crear nuevas versiones de células. Por ahora se procurará elaborar vacunas, crear nuevas medicinas, mejorar las características de algunos alimentos, diseñar microrganismos capaces de purificar aguas sucias y producir algas que utilicen la energía solar para generar hidrocarburos. De cumplirse algunos de esos propósitos la aportación del grupo de Venter a la humanidad será inconmensurable.

Los alcances científicos deparan algunas cuestiones. Dentro de las reales resaltan el posible mal uso de las bacterias de laboratorio (células sintéticas) para la producción de sustancias tóxicas que se utilicen como armas biológicas, es decir, como instrumento del denominado bioterrorismo; esas armas podrían ser una amenaza contra la seguridad pública. Otro uso cuestionable se refiere a la propiedad intelectual del descubrimiento. La patente y sus posibles usos pertenecen a Venter, lo que implica que él tiene derecho para utilizarla de acuerdo con sus intereses empresariales.

El mal uso de la ciencia profundiza las diferencias entre ricos y pobres y se vende al mejor postor. Los bioeticistas bien saben que la propiedad intelectual no es la mejor bandera cuando se trata de acortar las distancias entre distintos grupos de seres humanos. No en balde algunos científicos de vieja cepa, como Jonas Salk, descubridor de la vacuna oral contra la poliomielitis, solía decir que la ciencia no puede ni debe ser patentable.

Además de las cuestiones previas resaltan algunas de índole filosófica. Venter comentó: Este es un paso importante tanto científica como filosóficamente, a lo cual agregó, han cambiado mis opiniones sobre la definición de vida y sobre cómo funciona la vida. Es bien sabido que la ciencia no se detiene. De ahí algunos problemas éticos. Bienvenidas las vacunas y las bacterias que limpien el ambiente. Bienvenidos muchos descubrimientos pero no todos: ¿Qué sucederá cuando se logre modificar el genoma humano?

Aunque es muy probable que pasen muchos años hasta que se logre cambiar el genoma humano, esbozo algunas respuestas: Se mal usará la ciencia, se romperán algunos códigos éticos, se incrementará la brecha entre ricos y pobres, se crearán seres humanos distintos, inmunes a muchas enfermedades y, por último, será necesario reinventar nuevas ficciones antes de que Venter, lejos del bienhechor cobijo de las artes, diseñe seres humanos a la carta.

Por Arnoldo Kraus
Publicado enInternacional