Miércoles, 20 Abril 2011 06:29

Experimentos con humanos (I)

Las investigaciones en el campo de la medicina y las ciencias naturales, el ímpetu civilizador del colonialismo y el éxito literario de Frankenstein o el moderno Prometeo (Mary Shelley, 1818) llevó a los pensadores europeos del siglo XIX a debatir sobre un tema algo complicado: ¿es posible mejorar a los seres humanos?

Curiosamente, una de las fuentes de inspiración de Frankenstein fue Erasmus Darwin (1731-1802), el abuelo de Charles, a quien el vulgo veía como un tipo capaz de devolver la vida a los muertos cuando experimentaba con electricidad.

Frankenstein cautivó la imaginación de generaciones, convirtiéndose con los años en alegoría de las perversiones científicas para experimentar con seres humanos. Sólo faltaba vencer los remilgos éticos de una burguesía muy pagada de sí misma. Y los cuatro tomos del Ensayo sobre la desigualdad de las razas humanas (JA Gobineau, 1853-55) contribuyeron a superar los complejos de culpa.

Pocos años después, tras el impacto de El origen de las especies (Charles Darwin, 1859), brotaron nuevas herramientas teóricas para justificar el racismo. Prescindiendo del rol del azar en la ciencia, el zoólogo Ernst Haeckel (1834-1919) divulgó en Alemania la obra de Darwin, dictando cátedra acerca de las razas primitivas que, a su juicio, estaban “…más cerca de los monos que de los europeos”.

Emplazado por las insólitas repercusiones de sus investigaciones, Darwin sostuvo que la ciencia no responde a ninguna agenda política, moral o religiosa: “la evolución –dijo– carece de finalidad, y es absurdo calificar a un animal superior a otro”. En cuanto a la muletilla divulgada por Haeckel, preguntaba: ¿en qué momento afirmé que el hombre desciende del mono?

Naturalmente, Darwin creía que si se ayuda a las especies débiles a sobrevivir y procrear “…se podrían perder los beneficios de la selección natural…” Pero simultáneamente advertía que negar tal ayuda a los seres humanos ponía en peligro el instinto de solidaridad, “…la parte más noble de nuestra naturaleza”.

Fue en vano. Un primo suyo, el erudito inglés Francis Galton (1822-1911) inventó el término eugenesia, claramente inspirado en lecturas torcidas de la teoría de Darwin. La eugenesia (de bien nacido, buena reproducción) posibilitaría la reducción del nacimiento de los ineptos, débiles y enfermos, y la mejora de la raza mediante el fomento de la productividad de los más aptos y sanos (El genio hereditario, 1867).

Otro sabihondo inglés, el positivista Herbert Spencer (1820-1903) planteó que nada interfiere en las leyes naturales. Spencer inventó la expresión darwinismo social, que le venía como anillo al dedo al imperialismo y a la idea de libre mercado: los hombres son desiguales desde su origen, y los débiles quedan sometidos siempre al dominio de los más fuertes.

En América Latina, el darwinismo social animó el pensamiento de los gobernantes que le dieron forma y sustento ideológico a los nacientes estados nacionales. En Conflicto y armonías de las razas en América, Domingo F. Sarmiento (1811-1888) ponderó la barbarie liberal para justificar el exterminio de los pueblos indígenas, y el influyente socialista argentino José Ingenieros (1877-1925) dijo en relación con su país: ...Chile carece de extensión y de fecundidad. Al Brasil le faltan el clima y la raza. La Argentina reúne las cuatro: territorio vasto, tierra fecunda, clima templado, raza blanca.

El libro del alemán Wilhelm Schallmeyer (1857-1919), Herencia y selección en la historia de los pueblos (1903), fue la biblia del grupo de entomólogos y eugenistas que en Berlín organizaron la Sociedad para la Higiene Racial (1903). Tres años después, Galton fundó en Londres la Eugenics Education Society, mientras en Alabama se fundaba la Escuela superior de la civilización para ennoblecer a la raza negra.

Los primeros experimentos médicos con humanos tuvieron lugar en Namibia, colonia alemana de África occidental. Allí, el secretario de la oficina colonial del reich, Bernard Dernburg (1865-1937), banquero, político liberal y miembro de una influyente familia judía, concibió un sistema para liberar al negro de sus “…defectos físicos… y de este modo su espíritu se abrirá a la influencia beneficiosa de la naturaleza superior”.

En 1913, el antropólogo Eugen Fischer (1874-1967) publicó el estudio Los bastardos de Rehoboth (comunidad de Namibia), en el cual intentó demostrar el predominio de una raza prehistórica en tiempos históricos. Gran amigo del filósofo Martin Heidegger, Fischer fue uno de los responsables del exterminio de judíos y enfermos mentales durante la Segunda Guerra Mundial.

En poco más de medio siglo, las fantasías del doctor Frankenstein habían echado raíces profundas en los estamentos científicos, políticos y económicos de la cultura occidental. Y el menú científico para experimentar a escala individual o en masa con seres humanos quedó listo: biologismo, racismo, higiene racial, eugenesia y darwinismo social.

Por José Steinsleger/I
Publicado enInternacional
China es ya la segunda potencial científica mundial, sólo por detrás de EEUU en la clasificación y por delante de otras superpotencias tradicionales de la ciencia (Europa Occidental y Japón). Brasil e India, están también haciéndose hueco en la I+D internacional, pero hay otros países que empiezan a destacar, al menos por su esfuerzo en este campo, como son Irán, Túnez y Turquía, según un estudio realizado por la Royal Society británica.

El estudio, titulado Conocimiento, redes y países: colaboración científica global en el siglo XXI se basa en análisis de gran cantidad de datos, incluido el número de publicaciones científicas de cada país y en el número de citas de esos trabajos por otros investigadores (un parámetro que se considera válido para medir la calidad de la investigación). España aparece en el noveno lugar de la lista por número de publicaciones y en el décimo por citas.

“El mundo científico está cambiando y están apareciendo rápidamente nuevos jugadores”, comenta el físico Chris Llewellyn-Smith, que ha presidido el comité que ha hecho el estudio de la Royal Society. “Más allá de la emergencia de China, apreciamos una escalada de otros países de del Sudeste Asiático, Oriente Medio y África del Norte.

El incremento de la investigación científica y de las colaboraciones, que pueden ayudarnos a encontrar soluciones a los retos globales que ahora afrontamos, es bienvenido. Sin embargo, ningún país históricamente dominante se puede permitir dormirse en los laureles si quiere mantener la ventaja económica competitiva asociada al liderazgo científico”.

Los dados del análisis se centran en dos períodos (1993-2003 y 2004-2008) para ver la evolución, explica la Royal Society en un comunicado. EE UU sigue manteniendo el liderazgo mundial, pero entre el primero y el segundo períodos considerados, su porcentaje de autoría de la investigación mundial ha caído del 26% al 21%., mientras que China ha pasado de ocupar el sexto lugar (un 4,4%) al segundo (10,2%).

En el tercer puesto se mantiene el Reino Unido con una ligera caída de su porcentaje (del 7,1% al 6,5%). En 1993-2003, Japón ocupaba el segundo lugar mundial, seguido de Reino Unido, Alemania y Francia; España estaba en el puesto décimo con un 2,5% del total de las publicaciones científicas. En 2004-2008, tras EE UU, China y Reino Unido, van Japón y Alemania, y España ocupa ya el puesto número nueve.

En la clasificación por citas, es decir, el impacto o calidad de la investigación, Estados Unidos ocupaba y ocupa el primer puesto. La lista no han cambiado desde el puesto segundo hasta el sexto (Reino Unido, Alemania, Japón, Francia y Canadá), pero si en 1999-2003 Italia estaba en séptima posición, ahora ha pasado a la octava, cediendo el sexto puesto a China. Holanda pasa del octavo al noveno en 2004-2004 y sale Australia de la clasificación de los 10 primeros (puesto noveno en 1999-2003), mientras que entra España en el décimo lugar en 2004-2008.

El análisis destaca la trayectoria reciente de otros países en I+D. Turquía está creciendo con una tasa casi equiparable a la de China, multiplicando por seis veces su inversión en ciencia y tecnología entre 1995 y 2007 e incrementando en un 43% su número de investigadores. En 2008 los científicos turcos publicaron cuatro veces más artículos que en 1996. Irán es el país en que más ha aumentado el número de publicaciones científicas del mundo, pasando de 736, en 1996, a 13.238 en 2008.

El Gobierno iraní trabaja con un plan para la ciencia que incluye impulsar la inversión en I+D hasta llegar al 4% de su PIB e 2030, partiendo de un 0,59% en 2006. Túnez es otro de los países que ha empezado a esforzarse en ciencia, pasando de una inversión del 0,03% de su PIB en 1996 al 1,25% en 2009 y reestructurando su sistema de investigación, con la creación de 139 laboratorios. Singapur ha casi duplicado su gasto en I+D entre 1996 y 2007, pasando del 1,37% de su PIB al 2,61% y triplicando sus publicaciones científicas en ese período (de 2.620 a 8.506). Por último, el informe de la Royal Society destaca Qatar, que quiere alcanzar el 2,8% de su PIB en inversión en I+D.

El análisis de los expertos británicos se ha detenido también en la tendencia a la colaboración científica internacional, señalando que actualmente el 35% de los artículos publicados en las revistas son de colaboraciones científicas de varios países, frente al 25% de hace 15 años. El deseo de los investigadores de colaborar con los mejores, independientemente del país en que trabajen, el aumento de temáticas de impacto global, el desarrollo de las tecnologías de la comunicación y el abaratamiento de los viajes serían los factores determinantes de esta tendencia.

(Tomado de El País, España) 
Publicado enInternacional
Experto en política científica y tecnológica, Mario Albornoz asume que la catástrofe nipona será un símbolo que obligará a rediscutir los parámetros del desarrollo tecnológico. Y plantea que aquí el nuevo escenario abre la discusión sobre su futuro. El imaginario en torno de Japón, la conciencia sobre la fuerza de la naturaleza, el futuro de la energía nuclear.

–De pronto mucha gente tomó conciencia de que la tercera economía mundial, el modelo en el imaginario social de desarrollo tecnológico, tiene cincuenta centrales nucleares siendo un país con riesgo sísmico. ¿Qué reflexiones debería promover los acontecimientos en Japón?

–Antes que reflexiones, lo primero que uno tiene es estupor. Una potencia como Japón vuela de repente como casitas de papel. No sólo las centrales nucleares, sino también trenes que desaparecieron con la gente adentro. El estupor quita la palabra. En segundo lugar, uno siente mucho miedo por la fuerza de la naturaleza. Hay ciertas predicciones de que se viene una revancha de la naturaleza contra todo modelo de desarrollo tecnológico e industrial.

–¿Quién lo dice?

–Lo dicen la literatura, el cine, el temor de la gente. Es un tema viejo, de principios del siglo XX. Hay textos que están denunciando que todo esto es sumamente peligroso. Quien mejor lo dice es un sociólogo alemán, Ulrich Beck, que habla de la sociedad del riesgo. En su libro La Sociedad del Riesgo Global, de 1986, plantea que hay toda una dinámica de la sociedad industrial moderna que conlleva a las raíces de su propia destrucción.

–¿Por qué?

–Dice que es una sociedad que necesita cada vez más crecimiento para sostener su propio crecimiento, necesita más energía. Beck plantea que la propia dinámica de la sociedad, por el tipo de desarrollo industrial, genera todo el tiempo riesgo. Un riesgo obvio, del que se habla mucho, es el “efecto invernadero”, la desertificación, el agotamiento y el maltrato de los recursos naturales, pero también en tecnologías de menor nivel científico que una central nuclear, como las grandes obras públicas, las grandes represas. Hoy leí en los comentarios de lectores de uno de los diarios un accidente que yo desconocía con una central hidroeléctrica que se rompió en China hace un tiempo, que causó 26 mil muertos cuando inundó la ciudad que estaba abajo. Hay una dinámica que impulsa casi con necesidad a la sociedades industriales a mantener su ritmo de industrialización, a mantener el consumo y la competencia por la frontera tecnológica, y eso lleva a generar soluciones tecnológicas guiadas por una competitividad permanente que ponen en peligro la propia sociedad. Este es un tema para reflexionar, pero para reflexionar en concreto, no en abstracto. Lo primero que uno tiene que ver es si, en este caso de Japón, como señalan los defensores de la energía nuclear, sería la falta de previsión del gobierno que aparentemente habría tenido informes que indicaban que sus centrales nucleares no iban a resistir un terremoto de grado superior a 7. Si el gobierno japonés lo sabía, no estamos tanto ante un caso de riesgo tecnológico –porque la propia tecnología habría proporcionado los medios para evitar eso–, sino ante un caso de irresponsabilidad gubernamental. No me consta que sea así, pero siempre que se producen este tipo de catástrofes uno puede preguntarse si era un tema previsible o no, y si los gobiernos habían tomado las medidas necesarias para evitarlo. Yo soy de Santa Fe y recuerdo que cuando se produjo en la ciudad la última inundación causada por el río Salado, siempre se habló de que había habido imprevisión gubernamental y que los informes de los ingenieros hídricos de la Universidad Nacional del Litoral habían dado avisos de que se venía una inundación, no se tomaron recaudos y la ciudad se inundó. Ahora han construido un murallón alrededor de la ciudad y hay bombas extractoras. ¿Por qué no las habían construido antes? Siempre hay una dinámica que tiene que ver con que los gobiernos son más o menos sensibles a las catástrofes en general después de que ocurren, y no antes. La magnitud del drama de Japón me parece que sí obliga a pensar un poco más allá en la línea de la sociedad de riesgo.

–¿A qué se refiere?

–Por un lado, porque Japón es la tercera potencia mundial, pero al nivel del imaginario popular de desarrollo tecnológico es la primera.

–Es el modelo, el ideal de desarrollo tecnológico.

–Exacto. La frontera de la tecnología cae como papel. Las noticias nos dicen que los habitantes de Tokio están huyendo de la ciudad. Esto obliga a pensar, no sé sí metafísicamente, sobre la vulnerabilidad del ser humano, u obliga a pensar, primero, las bases de lo que sería un tipo de desarrollo científico, tecnológico y de infraestructura social. ¿Por qué digo esto? Estoy por ir a una reunión en Bilbao donde se discuten temas como la sociedad de la información y del conocimiento, como si fueran temas de los que no se retornan. Pero resulta que a la sociedad del conocimiento y de la información en su máxima expresión viene una ola de diez metros de altura y se la lleva. Entonces, a lo mejor no sé si ese modelo de desarrollo tecnológico es el más adecuado. Este es otro tema a discutir. Todo ministro de Ciencia y Tecnología que se precie, en el mundo occidental por lo menos, no puede apartarse de que la meta es la sociedad de la información y del conocimiento y la innovación –que es ahora la palabra fetiche– y que hay que apostar a los temas de tecnología de avanzada. Esa es una corriente. La otra corriente, más basada en demandas sociales, tiene una aproximación más hacia un modelo de desarrollo de ciencia, tecnología y sociedad, que a lo mejor no sea del más alto tenor científico, pero sí de respuesta a las demandas sociales. La prioridad estaría en buscar que la política científica y tecnológica esté conectada directamente con las necesidades sociales del país que sostiene ese sistema. Como todas las discusiones de política, son posiciones polares. En la práctica, no tienen que ser tan polares. Si se tienen grupos de investigación que son capaces de competir en la primera línea, hay que apostar a ellos. Pero sin olvidar que al mismo tiempo hay grandes demandas de conocimiento práctico en la sociedad cuya solución no requiere la primera línea de conocimiento.

–Por ejemplo, desarrollar viviendas económicas para enfrentar el déficit habitacional.

–Claro, temas de salud y muchísimos otros. Además, hay otro problema con las tecnologías muy de punta: es que generan una sociedad de grandes inversiones y están asociadas a grandes concentraciones de capital. Empresas pequeñas y medianas o economías regionales no están en condiciones de sostener tecnologías de punta. El otro día estaba leyendo un informe sobre la producción algodonera en el norte de Santa Fe que decía que la producción está en manos de grandes terratenientes que utilizan semillas avanzadas que les proveen las grandes corporaciones que comercializan semillas tratadas genéticamente, y pequeños productores cuya economía es tan frágil que no les permite acceder a semillas de primera calidad, con lo cual están produciendo un algodón de peor calidad y tienen una economía de subsistencia. Solucionar esto, hacerlos acceder a semillas de primera calidad, confronta con una estructura económica, política y social, es confrontar con intereses económicos concentrados. Es decir, las tecnologías más avanzadas, a menos que haya una acción del Estado reguladora muy enérgica en el plano de la producción, genera mayor concentración.

–Y fuertes presiones.

–Cuanto más concentración más presiones.

–Obama, por ejemplo, tiene grandes dificultades para aprobar una ley que favorezca energías alternativas debido a las presiones de la industria nuclear.

–Totalmente. Hay otra cosa, además, que no está directamente relacionada con el tema que venimos hablando, pero vale la pena mencionar: generalmente se dice que la política científica y tecnológica moderna es un invento de la posguerra, es decir, que el mundo tomó conciencia de la importancia de la ciencia y la tecnología durante la Segunda Guerra Mundial, no sólo por la bomba atómica –que ya de por sí fue muy sho-ckeante, el icono nuclear es como el icono del poder de la ciencia destructiva, pero al mismo tiempo energía que la ciencia es capaz de desatar–, pero además porque en el transcurso de esta competencia científica se desarrollaron las computadoras, la famosa Iniac, que fue la primera computadora con miles y miles de válvulas, el radar, la penicilina, etc. Cuando los Estados toman conciencia de la importancia de la ciencia empiezan a generar políticas para apoyarla. Lo cual implica que en realidad la política ciencia moderna es hija de la guerra y de los intereses asociados a la guerra y de los intereses de las grandes corporaciones que desarrollaron los equipos militares, el famoso complejo militar-industrial, que genera las mayores inversiones. De hecho, todavía hay algunos autores norteamericanos, un poco heréticos para el establishment norteamericano que dicen que, todavía hoy, más de dos tercios de la inversión de Estados Unidos en ciencia y tecnología está directa o indirectamente relacionada con el potencial militar. Entonces, si tenemos un modelo científico y tecnológico que está desarrollado en función de una visión del mundo concebida como hegemonía, como desarrollo y capacidades militares de grandes intereses industriales, no es de extrañar que las necesidades sociales de la población queden en segundo lugar y que grandes obras de infraestructura tienen que ver con grandes empresas constructoras que necesitan permanentemente que se generen oportunidades de ocupar espacios en el mercado y tienen intereses de que esto sea de un modo y no de otro. Esto es muy serio y hay que tomarlo en cuenta, sobre todo cuando un país como el nuestro tiene la oportunidad de elegir su propio modelo de desarrollo científico y tecnológico. ¿Vamos a tratar de repetir en minúsculo una política científica y tecnológica que en realidad en el fondo responde a intereses corporativos o vamos a tratar de hacer otro modelo de desarrollo científico y tecnológico que trate de dar respuestas a las necesidades concretas de la población en términos de medicamentos, de salud, de vivienda como usted dijo, de aprovechamiento de recursos naturales en forma no agresiva? Estos son dilemas que hay que tomar en cuenta. Pero hay otra cosa que tenemos que analizar.

–¿Qué otra cosa?

–Hoy por hoy, como decía, la palabra fetiche es innovación. Acá como en todo el mundo el ministerio se llama de Ciencia, Tecnología e Innovación Productiva. Esto es una moda que se remonta a los últimos años del siglo pasado, alrededor del 1980 empezó la innovación como un sesgo muy fuerte de la política científica. Pero la innovación, que fue algo que los europeos sobre todo redescubrieron cuando la crisis del petróleo de los años setenta, es una teoría de un economista que se llama Joseph Schumpeter, escrita en 1912, luego archivada y rescatada en los años ’80. Schumpeter decía que lo que mueve la economía es la innovación. Pero a la innovación la llamaba destrucción creadora.

–¿Por qué?

–Porque cuando una empresa innova por encima de las otras competidoras al mismo tiempo las destruye. Si las otras no pueden repetir el proceso innovador de la primera, desaparecen del mercado. Y eso significa puestos de trabajo que se pierden, empresas que quiebran, infraestructuras que se vuelven obsoletas. Cuando uno transita la zona sur del conurbano bonaerense, encuentra muchísimas fábricas abandonadas que no son sólo expresión de las crisis económicas que afectaron el país, sino expresión de una crisis tecnológica: empresas que se volvieron obsoletas, que la innovación destruyó. Por eso Schumpeter decía que la innovación es destrucción creadora: crea algo nuevo, pero destruye lo viejo. Y lo viejo no es una teoría, una idea; lo viejo es gente que pierde su trabajo, cuyas competencias laborales no sirven, barrios que pierdan su capacidad económica y de empleo. Entonces, cuando se estimulan las nuevas tecnologías y la innovación, y queremos correr esa carrera, alguien tiene que acordarse de qué pasa con los perdedores de esa competencia. Esto me lo pregunto cuando veo que el paradigma del país innovador, desarrollador de tecnologías de punta, en el fondo estaba sometido a una gran vulnerabilidad. ¿Cuál es nuestra vulnerabilidad? Esa es la pregunta que tenemos que hacernos.

–¿Qué piensa de la crisis nuclear?

–Obvio que me pregunto qué va a pasar con el mundo, qué nuevos equilibrios habrá, pero me parece que no hay que ir por el lado de ya mismo cuestionar la energía nuclear. Sí hay que tomar nota. Argentina ha hecho una apuesta, aunque modesta, a la energía nuclear, con una actitud favorable de la población hacia ese tipo de energía. Hay que estudiar el tema. Hay que ver si las condiciones de vulnerabilidad de una central japonesa son reproducibles en otros países. Pero me parece que lo de las centrales nucleares es lo de menos, porque los ingenieros nucleares saben. Si hay voluntad política de prever los daños, los técnicos tienen los conocimientos para solucionar un problema. Lo que hay que tener en cuenta es que el hecho de estar en la tecnología de punta, en el conocimiento básico de avanzada, no garantiza nada, porque todo eso forma parte de una dinámica que alguien ya llamó sociedad del riesgo y conlleva muchísimos riesgos. Uno tiene que tener un modelo de desarrollo productivo y social que permita incorporar la ciencia y la tecnología subordinada a las prioridades sociales y económicas del país. Así como la foto del hongo atómico fue el icono de la potencia de la ciencia, el terremoto y el tsunami son el icono de la vulnerabilidad de la sociedad tecnológica, son el antiicono. Cuando se plantea cuáles deben ser los ejes de una política científica y tecnológica, si debe estar guiada por los grandes intereses económicos y de las corporaciones, por competir con los otros países por la primera línea de la tecnología mundial o más bien debe estar guiada por preservar el planeta, cuidarlo de su destrucción, construir sociedades más amigables con la naturaleza.

–¿Cree posible desafiar las presiones de las grandes corporaciones?

–Y si no, tendrán razón los mayas...

–¿...?

—(Se ríe a carcajadas.) ... que pronosticaron que se acaba el mundo en 2012.

Por Mariana Carbajal
Publicado enInternacional
Los detalles de los ataques con ántrax de septiembre de 2001, que componen la mayor investigación criminal en la historia de EEUU, siguen persiguiendo a las autoridades del país.

Un estudio independiente recién publicado por la Academia Nacional de Ciencias de EEUU (NAS, en inglés) señala que el FBI exageró la validez de los estudios científicos que permitieron determinar que el ántrax enviado por carta en el peor ataque bioterrorista sufrido por el país no provenía de Al Qaeda, sino de un laboratorio militar a unos 80 kilómetros de la capital estadounidense.

"Es imposible alcanzar una conclusión definitiva sobre los orígenes del B. anthracis [ántrax] en las cartas basándose sólo en las evidencias científicas", concluye la revisión, encargada por el propio FBI a 17 científicos independientes. El informe, que fue pospuesto en 2010 para incluir nuevos datos secretos, también cuestiona la forma en la que el FBI manejó las muestras de ántrax que recabó "de seis continentes" y solicita que se revisen los datos de un supuesto laboratorio de Al Qaeda en el que pudieron producirse esporas de ántrax del mismo tipo que se usó en los ataques.

Sólo para "crédulos"

Los resultados han vuelto a despertar las dudas sobre el polémico caso en el que el FBI acusó a investigadores inocentes y sometió a intensos interrogatorios a los mismos científicos a los que había pedido ayuda. Varios políticos ya han pedido que se realice una nueva investigación. Entre ellos está el demócrata Rush Holt, que ha propuesto en la Cámara de Representantes que se forme una comisión de investigación similar a la creada en su día tras los ataques del 11-S. "Sólo alguien muy crédulo podría creer las pruebas circunstanciales que el FBI usó para sacar sus conclusiones", dijo Holt en un comunicado.

Además, el FBI aún mantiene en secreto parte del material sobre el caso. "Hemos podido revisar unas 9.500 páginas relacionadas con el análisis científico, pero no sabemos si es este todo el material", confiesa David Relman, microbiólogo de la Universidad de Stanford y copresidente de la comisión científica de la NAS. "De hecho sabemos que no nos han dejado ver datos primarios sobre las muestras en el extranjero", lamenta.

El conjunto de las pruebas sirvió al FBI para determinar que el culpable de los ataques fue Bruce Ivins, un investigador del laboratorio militar de Fort Detrick, en Maryland, que trabajaba en el desarrollo de una vacuna contra el ántrax. El patógeno, resistente y letal si es aspirado, se convirtió en un nuevo agente de terror al ser encontrado en varias cartas enviadas a periódicos y políticos estadounidenses semanas después del 11-S junto a proclamas como "Muerte a América, muerte a Israel, Alá es grande".

Los ataques mataron a cinco personas, hirieron a otras 17 y dieron comienzo a una investigación de casi una década durante la cual las autoridades interrogaron a 10.000 personas y analizaron cuatro millones de megabytes de información.

El FBI cerró el caso en febrero con un culpable al que nunca pudo atrapar. El 27 de julio de 2008, poco antes de que los federales presentasen cargos en su contra, Ivins fue encontrado muerto por una sobredosis de paracetamol en su domicilio cercano al fuerte militar de Fort Detrick, donde llevaba trabajando con ántrax casi dos décadas.

"Era un científico normal, lo que significa que no era un tipo corriente", explicaba ayer Paul Keim al teléfono desde su despacho de la Universidad del Norte de Arizona. Keim conoció a Ivins en 1997 y colaboraba habitualmente con el investigador, sobre todo facilitándole muestras de su laboratorio, una de las bibliotecas de patógenos más grandes del mundo.

Keim fue uno de los primeros científicos a los que acudió el FBI. El investigador analizó el ántrax del cuerpo de Robert Stevens, un editor de fotografía en el periódico The Sun que se había infectado con el patógeno salido de una carta dirigida a la actriz Jennifer López y que contenía también un puro barato. Tras analizar las muestras del cuerpo de Stevens, que fue la primera víctima mortal de los ataques, Keim demostró que la variante de ántrax usada era del tipo Ames, la más virulenta.

Así comenzó una colaboración entre el FBI y expertos en ántrax de varias universidades de EEUU que se llevó bajo secreto y cuyos resultados han aportado tanto éxitos como fracasos.

"El FBI no tenía información de fondo ni tampoco expertos en el tema", recuerda Keim, que hoy publica en PNAS los análisis genéticos que permitieron al FBI determinar el origen de las esporas encontradas en las cartas. Entre sus primeras medidas, el FBI ofreció una recompensa de 2,5 millones de dólares por el responsable de los ataques.

Keim y sus compañeros comenzaron a trabajar casi a ciegas. Un laboratorio preparaba las muestras, otro las analizaba y sólo el FBI conocía todos los datos. "No compartían la información", recuerda Keim, "sólo recurrían a nosotros cuando no podían responder las preguntas que les surgían por sí mismos", recuerda el investigador.

Una parte de esos resultados se mantiene en secreto y su contenido podría desacreditar las conclusiones del FBI. El cuerpo federal analizó en total 1.070 muestras solicitadas a laboratorios de todo el mundo, incluyendo ántrax de tres laboratorios europeos (ninguno en España), según Keim. Su equipo logró identificar un rasgo clave de las esporas de ántrax usado en los ataques en forma de cuatro mutaciones en su ADN. Podían funcionar como una huella dactilar si primero se conocía cómo eran de frecuentes esas mutaciones en las variantes de ántrax de todo el mundo. Si había suerte, también determinarían de dónde salieron. Según el FBI, ocho muestras llevaban las cuatro mutaciones y siete salieron de un matraz que se encontraba en el laboratorio de Fort Detrick y al que Ivins tenía acceso.

Pero aún falta parte del pastel. Sólo el FBI conoce los datos completos del análisis de esas 1.072 muestras y los resultados sobre cómo son de frecuentes las cuatro mutaciones desveladas por Keim y usadas para cerrar el cerco en torno a Ivins. "Es una información crítica", confiesa el investigador, que reconoce que incluso podría señalar que las esporas de ántrax tuvieron un origen diferente. "Esperamos que el FBI publique todos los datos", confiesa.

El FBI mantiene que el informe de la NAS le da la razón, porque señala que el caso no puede resolverse sólo por el estudio científico de las muestras. "Esperamos que este estudio incremente el conocimiento del público sobre el esfuerzo que resolvió una de las investigaciones más extensas en la historia del FBI", señaló el cuerpo en un comunicado.

"Jódete, Nueva York"

Las pruebas no científicas contra Ivins las habían logrado los sabuesos del FBI acechando a su sospechoso. En los días previos al envío de las cartas, Ivins había trabajado hasta muy tarde en su laboratorio, algo a lo que no acostumbraba. Además había sido ambiguo hablando del caso. Otra de las pruebas del FBI parecía sacada de una película. Los investigadores encontraron en la basura de Ivins una copia del libro Gödel, Escher, Bach: un eterno bucle dorado en el que supuestamente se había basado para componer mensajes ocultos con iniciales en sus cartas. Uno de ellos era, "FNY", es decir, "Jódete, Nueva York", lo que mostraría el odio visceral de Ivins por esa ciudad, según el FBI.

Ivins no fue el único sospechoso. En verano de 2002, el Gobierno de EEUU declaró a Steven Hatfill, que también había trabajado en los laboratorios de Fort Detrick, como "persona de interés", lo que contribuyó a que algunos medios de comunicación le culpasen. En juicios posteriores, Hatfill recibió casi seis millones de dólares del Gobierno de EEUU como compensación por haber arruinado su reputación.

"Durante la investigación hubo interrogatorios brutalmente agresivos, la gente estaba abrumada", recuerda Keim sobre aquellos días en los que ser colaborador científico del FBI no le excluía de ser investigado.

"Recuerdo que preparábamos nuestras coartadas al mismo tiempo que estudiábamos las muestras que nos proporcionaban sobre el caso", señala el investigador.

Keim confiesa que no quiere pensar en si Ivins es o no culpable. "Fue un buen científico y uno de los más adelantados en la búsqueda de una vacuna [contra el ántrax]", señala. "Si fue él lo sentiría mucho", concluye.

Un caso cerrado con muchas dudas

Cartas letales para periodistas y políticos 

Entre septiembre y octubre de 2001, en plena psicosis por los atentados del 11-S, varias cartas dirigidas a medios de comunicación y a los senadores demócratas Tom Daschley y Patrick Leahy contenían esporas de ántrax, un patógeno letal si se aspira. La enviada al periodista Tom Brokaw, de la NBC, comenzaba así: "Esto es lo próximo, ahora toma penacilina (sic), muerte a América, muerte a Israel, Alá es grande".  

El culpable era un científico, según el FBI 

Bruce Ivins trabajaba en el laboratorio militar de Fort Detrick. Estaba muy adelantado en el desarrollo de una vacuna contra el ántrax. Entre las pruebas del FBI hay esquemas en los que Ivins parecía trazar sus planes y también los registros del laboratorio, que demostraban que trabajó hasta muy tarde. Nunca se pudo demostrar su presencia en Nueva Jersey, desde donde se enviaron las cartas. Se suicidó antes de que se presentasen cargos. 

El matraz del que salieron las esporas 

Poco después de los ataques, el FBI recurrió a investigadores de varias universidades para secuenciar el genoma completo de la variante Ames del ántrax, que había sido usada en los ataques. La comparación de ese genoma con el análisis del ADN de otras variantes recogidas en laboratorios de EEUU y otros países apuntaron a que las esporas usadas salieron del matraz RMR 1029, que Ivins usaba en sus investigaciones en busca de una vacuna. 

Un patógeno casi indestructible 

Las esporas de ántrax tienen forma de bastón. Son muy resistentes, por lo que suponen una de las armas biológicas más temidas. La variante Ames encontrada en las cartas se encontró en una vaca muerta en 1981. Tras los ataques de 2001, EEUU reforzó la legislación sobre el uso de este y otros patógenos en los laboratorios militares y civiles. Hoy las normas de seguridad son tan estrictas que algunos centros han renunciado a estudiar el ántrax. 

Por NUÑO DOMÍNGUEZ MADRID 08/03/2011 08:20 Actualizado: 08/03/2011 08:25

Publicado enInternacional
Miércoles, 23 Febrero 2011 06:20

Los cultivos transgénicos agonizan en Europa

En el mismo día del lanzamiento de un nuevo estudio sobre la comercialización de transgénicos a escala mundial patrocinado por la industria, un nuevo informe de Amigos de la Tierra Internacional revela que los cultivos transgénicos en Europa siguen cayendo en picado, al tiempo que aumenta el número de países que los prohíben [1].
El informe “¿Quién se beneficia de los cultivos transgénicos?” demuestra que apenas el 0,06% de los campos europeos se cultivan con transgénicos, un descenso del 23% desde 2008. Siete Estados miembro de la UE prohíben el cultivo del maíz transgénico de Monsanto por las evidencias cada vez mayores de sus impactos ambientales y socioeconómicos, así como por la incertidumbre de sus efectos esobre la salud. Tres países han prohibido el cultivo de la patata transgénica de BASF por precauciones sanitarias inmediatamente después de sque se aprobase su cultivo en la primavera de 2010, y cinco Estados miembros han llevado a la Comisión Europea ante los tribunales por su autorización [2]. La oposición pública a los alimentos y cultivos transgénicos se ha incrementado hasta el 61% [3].

David Sánchez, responsable de agricultura y alimentación de Amigos de la Tierra España afirmó: “Los cultivos transgénicos no tienen ningún futuro en Europa por la fuerte oposición social, sus demostrados impactos ambientales, sociales y económicos, y por los riesgos que plantean sobre la salud. Es lamentable que el Gobierno español siga sin darse cuenta y juegue con nuestro medio ambiente, nuestra alimentación y con el futuro de nuestra agricultura.”

A escala global, el nuevo informe muestra que incluso los países que más han apostado por los cultivos transgénicos en América Latina se han visto forzados a tomar medidas para mitigar sus impactos negativos sobre la agricultura, la ciudadanía y el medio ambiente. En este sentido, el Gobierno brasileño ha lanzado un programa de soja libre de transgénicos para facilitar a los agricultores el acceso a semillas de soja no modificadas genéticamente; en Argentina, nuevas evidencias científicas muestran los graves impactos sobre la salud del herbicida Glifosato [4], utilizado en la inmensa mayoría de los cultivos transgénicos a nivel mundial, lo que ha conducido a la prohibición de la fumigación cerca de los núcleos de población, y en Uruguay cada vez son más las administraciones locales que se declaran libres de transgénicos.

La coordinadora de Soberanía Alimentaria de Amigos de la Tierra Internacional, Kirtana Chandrasekaran añadió: “Los agricultores y la sociedad latinoamericana sufren las consecuencias de diez años de cultivos transgénicos con graves implicaciones sanitarias y costes crecientes. Los mitos sobre los que se asienta la industria de los transgénicos se están derrumbando y los estragos causados en toda Sudamérica muestran claramente que esta tecnología no sirve. Se trata de una llamada de atención a nivel global para avanzar hacia una agricultura más ambiental y socialmente responsable”.

El informe “¿Quién se Beneficia de los Cultivos Transgénicos? Una industria basada en mitos” demuestra a su vez que:

 Una nueva generación de cultivos transgénicos diseñados para promover el uso de peligrosos pesticidas como Dicamba y el 2-4 D están listos para su liberación en EE.UU. Las multinacionales biotecnológicas los están promoviendo como la solución al fracaso de los transgénicos actuales para controlar las malas hierbas y reducir el uso de pesticidas.

 La industria de los transgénicos, con el apoyo del Gobierno de EE.UU., buscan nuevos mercados en África en un intento de subir su cuota de negocio. La Fundación Gates, que invierte miles de millones de dólares en proyectos agrícolas en África ha comprado acciones de Monsanto, manifestando su interés directo en maximizar los beneficios de la industria de los transgénicos y no en proteger los intereses del pequeño campesinado africano.

Por Rebelión/Amigos de la Tierra

Notas:
[1] Nuevo informe: “¿Quién se Beneficia de los Cultivos Transgénicos? Una industria basada en mitos” http://www.foei.org/en/who-benefits-from-gm-crops-2011/view

[2] Hoja de datos de Amigos de la Tierra Europa

http://www.foeeurope.org/GMOs/download/FoEE_Who_benefits_fact_sheet.pdf

[3] Comisión Europea (2010), Eurobarómetro: Informe sobre Biotecnología, Octubre 2010.

http://ec.europa.eu/public_opinion/archives/ebs/ebs_341_en.pdf

[4] Paganelli, A et al. Glyphosate-Based Herbicides Produce Teratogenic Effects on Vertebrates by Impairing Retinoic Acid Signaling, Chem. Res. Toxicol., 2010, 23 (10), pp 1586–1595,

http://pubs.acs.org/doi/abs/10.1021/tx1001749
Publicado enInternacional
La Habana, 10 de enero. Científicos cubanos registraron la primera vacuna terapéutica a escala mundial contra el cáncer avanzado de pulmón, resultado de 15 años de investigaciones, con la cual han sido tratados hasta el momento más de mil pacientes en la isla, publicó hoy el semanario Trabajadores.

La jefa del proyecto de dicha vacuna en el Centro de Inmunología Nuclear de La Habana, Gisela González, manifestó a la publicación que la CIMAVAX-EGF “permite convertir el cáncer avanzado en una enfermedad crónica controlable, no provoca efectos adversos severos y ha demostrado ser segura.

“A diferencia de las quimioterapias y las radioterapias –usualmente empleadas en la atención del cáncer–, que desencadenan una elevada toxicidad, pues son inespecíficas y atacan tanto a las células malignas como a las normales, la CIMAVAX-EGF va hacia el sistema relacionado con el tumor”, aseveró.

Controla el tumor sin toxicidad asociada

La experta explicó que dicha vacuna ayuda a controlar el crecimiento del tumor sin toxicidad asociada y comienza a aplicarse una vez que el paciente concluye el tratamiento de radioterapias o quimioterapias y es considerado terminal, sin alternativa terapéutica.

Gisela González sostuvo que CIMAVAX-EGF está basada en una proteína que todos tenemos: el factor de crecimiento epidérmico, relacionado con los procesos de proliferación celular, que cuando hay cáncer están descontrolados. Agregó: Puede ser utilizada como tratamiento crónico que aumenta las expectativas y la calidad de vida del paciente.

Según la especialista, tras el registro en Cuba progresa su inscripción en otros países y se evalúa la manera de emplear el principio de esta vacuna en otros tumores sólidos, como los de próstata, útero o mama.

Dpa
Publicado enInternacional
Jueves, 06 Enero 2011 08:43

Matemágica

Una rama de la matemática recreativa que ha tenido un desarrollo imponente en los últimos años es la que se llama Matemágica. Justamente, el uso de la aritmética, la geometría, la combinatoria, el álgebra y la topología –entre otras– compone una fuente increíble de recursos para hacer magia. Sí, magia. La misma magia que por más de veinte siglos ha mantenido y mantiene a las personas como usted y como yo preguntándose: ¿cómo hizo?

La idea es sorprender, atentar contra la intuición, desafiar la lógica y hasta llegar a adjudicarle al interlocutor –el mago– recursos sobrenaturales. El desarrollo ha sido espectacular, sobre todo en la última década, y por eso ahora hay congresos y convenciones en distintas partes del globo, en donde magos y matemáticos se empeñan en crear una nueva generación de “matemágicos” y seducir en el trayecto a una buena parte de la población que ve a la matemática como insensible, árida y poco práctica.
En las contratapas de Página/12 del 29 de abril y el 8 de julio de 2008 aparecieron dos problemas que apuntan en esa dirección: la de promover la matemágica. Aquí va un tercero.[1]

Hay un mago que tiene en las manos un mazo de cartas españolas, como las que sirven para jugar a la escoba de 15 o al truco. Por lo tanto, están excluidos los números 8 y los números 9. De hecho, el número 12 (el rey) vale 10 puntos, el número 11 (el caballo) vale 9 puntos y el número 10 (la sota) vale 8 puntos.

El resto de las cartas tienen el valor que indica su número. Por último, para fijar las ideas, los cuatro palos de las cartas son: oros, espadas, copas y bastos. En total, son cuarenta cartas.

El mago entonces le ofrece a una persona que elija un naipe cualquiera, sin que él (el mago) pueda verla. Y le pide que haga las siguientes operaciones:
a) Multiplique por 2 el número de la carta.
b) Al resultado, súmele 1.
c) Al nuevo resultado, multiplíquelo por 5.
d) Para terminar, si la carta que había elegido es de oros, súmele 4. Si es de espadas, súmele 3. Si es de bastos, súmele 2, y si es de copas, súmele 1.

Con esos datos, el mago le pide a la persona que le diga qué número le dio.
La respuesta que obtiene es: 39.
El mago piensa un instante y replica: “Entonces, la carta que usted eligió originalmente era el 3 de oros”.

¿Cómo hizo?
 
El proceso es muy sencillo. Sólo se trata de pensar una estrategia que permita encontrar la carta seleccionada del mazo y asignarle un número. Claro: el mago tiene que saber qué número le corresponde a cada naipe. Ahora, le toca a usted hacer de mago.

Respuesta

Antes de pensar juntos la solución, veamos que si esta persona había elegido el 3 de oros, el resultado de hacer todas las operaciones lo llevó al número 39.
a) Al multiplicarlo por 2, obtiene el número 6.
b) Al sumarle 1, obtiene el número 7.
c) Al multiplicarlo por 5, obtiene el 35.
Como eligió el 3 de oros, y a las cartas de oros debía sumarles 4, entonces, (35 + 4) = 39. O sea, efectivamente, si hubiera elegido el 3 de oros, el resultado debió ser 39.

¿Cómo hizo el mago para poder deducirlo al revés? Es decir, conociendo el número 39, ¿cómo hizo para volver para atrás?
Acompáñeme en esta reflexión. Usted es el mago y yo soy la persona que eligió la carta, digamos con el número X (que usted todavía no conoce). Pero fíjese qué pasó con las operaciones que usted me pidió que hiciera (con ese número X).
a) Lo multipliqué por 2. Obtuve entonces (2.X).
b) Le sumé 1. Tenía entonces (2.X + 1).
c) Después lo multipliqué por 5 y obtuve
(2.X +1).5 = 10.X + 5, (*)
que es un número múltiplo de 5.

¿Qué pasa cuando le sumo el número para indicar el “palo” que tenía la X? Transformo el resultado en:
1) Un múltiplo de 5 más 4, si la carta X era de oros.
2) Un múltiplo de 5 más 3, si la carta X era de espadas.
3) Un múltiplo de 5 más 2, si la carta X era de bastos.
4) Un múltiplo de 5 más 1, si la carta X era de copas.

Ahora volvamos al número que yo le dije, 39. Como usted advierte,
39 = 35 + 4.

Por lo tanto es un múltiplo de 5 más 4. Luego, usted acaba de descubrir que la carta X que yo elegí es de oros. No sabe todavía cuál es el valor de X, pero sí sabe que es de oros.

Ahora bien, al restarle los 4 que corresponden al palo, ahora usted tiene el número 35. Por lo tanto, si usted se fija en (*), sabe que en este caso:
10.X + 5 = 35 (**)
Luego, se trata de calcular el valor de X en la igualdad (**).
En consecuencia,
10.X = 35 5 = 30, lo que quiere decir, que X = 30/10 = 3.
X = 3

Moraleja: la carta que yo había elegido fue el 3 de oro.

¿Se anima ahora a calcular conmigo qué carta elegí yo si el resultado de las operaciones fue 86?

Piénselo usted por su cuenta y, si quiere, confronte acá abajo lo que le dio.

Primero hay que ver de qué palo es la carta. Para eso, hay que ver que 86 se escribe como 85 (múltiplo de 5) + 1. Esto dice que la carta es de copas.

Una vez que uno tiene el número 85, ahora todo lo que queda por hacer es “despejar” la letra X en la igualdad:
10.X + 5 = 85
10.X = 85 5 = 80, por lo que X = 80/10 = 8.

En consecuencia, la carta elegida fue la sota de copas (ya que la sota, con la convención que habíamos hecho, vale 8 puntos).[2]

[1] El problema me lo sugirió Laura Pe-zzatti, Lic. en Matemática por la UBA y coautora de los contenidos de los programas Alterados por Pi, que se emiten en el Canal Encuentro que depende del Ministerio de Educación de la Nación. A ella le corresponde el crédito de este artículo entonces.
[2] Como se ve, la matemática que se usa es sencilla: sumas, restas, productos, divisiones. Pero también hay un dato no menor que es indispensable para llegar a la solución: cualquier número entero positivo tiene un “único” resto al dividirlo por cinco. Algunos ejemplos: el número 72, al dividirlo por 5, resulta tener resto igual a 2. Es que 72 = 5 x 14 + 2. El número 11 tiene resto 1, ya que 11 = 5 x 2 + 1. Y el 108 tiene resto 3, ya que 108 = 5 x 21 + 3. Y es fácil convencerse de que los posibles restos son 0, 1, 2, 3 y 4. Justamente, en el problema que figura más arriba, ese resto es el que identifica el palo de la carta elegida. Sin este dato, uno podría deducir el número, pero no sabría de qué palo es. O al revés. Si uno sólo supiera el resto que se obtiene al dividir el número por 5, y no tuviera ninguna otra información, sabría el palo de la carta, pero no el número. La combinación de ambos datos permite resolver el problema. Por supuesto, el mago conoce todo esto, que resulta invisible para la persona que hace de interlocutor: usted y yo.
Publicado enInternacional
Washington. Unos 10 compuestos, entre ellos hidrógeno, carbono, nitrógeno y oxígeno serán actualizados en breve en la tabla periódica de los elementos químicos, a 138 años de su primera publicación por el científico ruso Dmitri Mendeleyev.

También incluye al litio, boro, silicio, azufre, cloro y talio anunciaron los autores de esta investigación, liderada por la Comisión para la Abundancia de Isótopos y Pesos Atómicos de la Unión Internacional de Química Pura y Aplicada (Iupac).

La nueva tabla expresará los pesos atómicos de estos elementos como conjuntos de valores y no como valores únicos estándar, o sea, ofrecerá más precisión sobre cómo se encuentran estos productos en la naturaleza.

Durante casi un siglo y medio, en las clases de química, se nos enseñó a usar los pesos atómicos promedio, o sea, un valor único, explicó Michael Wieser, profesor de la Universidad de Calgary, Canadá, coautor del estudio.

Con las nuevas tecnologías, añadió, descubrimos que los números de nuestras tablas no son tan estáticos.

El peso atómico de un elemento es la medida de las masas promedio de los átomos que contiene y su composición isotópica. Aquellos que sólo poseen un isótopo no muestran variaciones en su peso atómico, explican los especialistas de IUPAC.

Sin embargo, algunos elementos tienen más de un isótopo estable y esto los hace aparecer en la naturaleza con diferentes pesos atómicos, señalan.

El azufre tiene un peso atómico de 32,065, pero su peso real oscila entre 32,059 y 32,075 en dependencia de su procedencia, ejemplifican.

A juicio de especialistas, los cambios pueden parecer insignificantes, pero relevantes para la investigación y la industria.

La pureza y la fuente de un alimento natural, así como la contaminación de las aguas son algunas de las futuras aplicaciones, destacan.

Publicada en 1872 por el científico ruso Dmitri Ivánovich Mendeléyev, la tabla periódica incluyó en aquel momento 63 elementos de los 90 que existían en la naturaleza.

Uno de los aportes de Mendeléyev consistió en pronosticar la existencia de algunos elementos. Dejó casillas vacías para situar aquellos cuyo descubrimiento se realizaría años después.

PL 
Publicado: 16/12/2010 13:22
Publicado enInternacional
Washington, 16 de diciembre. La Comisión de Bioética, creada por el presidente estadunidense, Barack Obama, consideró este jueves que era inútil imponer nuevas restricciones a la investigación en biología sintética, un campo controvertido cuyo potencial médico se considera prometedor.

Integrada por 13 miembros, incluidos científicos y expertos en bioética, la comisión anunció su decisión en un informe divulgado este jueves.

La Casa Blanca indicó que estudiaría "cualquier medida que fuera necesaria sobre la base de sus recomendaciones".

La comisión fue creada por Obama el año pasado, y el primer tema de su agenda fue considerar el de la biología sintética, luego de que el J. Craig Venter Institute anunciara en mayo que había desarrollado la primera célula viva dotada de un genoma sintético.

Ese avance en la comprensión de los mecanismos de la vida abre la puerta para la fabricación de organismos artificiales potencialmente capaces de producir vacunas, medicamentos, pero también carburantes limpios, armas biológicas y organismos peligrosos para el ecosistema.

Así, la Comisión de Bioética, que hace referencia a "una incertidumbre respecto de los riesgos vinculados a este campo de investigación", insiste en "una coordinación reforzada" entre los diferentes organismos federales que supervisan las actividades vinculadas a la biología sintética, incluyendo el otorgamiento de fondos para investigar y licencias comerciales para los productos resultantes.

"Analizamos de manera amplia este nuevo ámbito de investigación de la biología sintética para comprender a la vez sus consecuencias potenciales y sus riesgos", explica la doctora Amy Gutmann, presidenta de la Universidad de Pensilvania, quien preside la comisión.

"Consideramos un espectro de enfoques para reglamentar este campo, que van desde una gran libertad con poca normatividad hasta la prohibición de las experiencias hasta que sean consideradas absolutamente seguras", explica en un comunicado.

"Y concluimos en un enfoque intermedio, de modo de optimizar los beneficios para el público y reducir lo riesgos", añadió.

La comisión "concluyó que la biología sintética es capaz de alcanzar logros limitados, pero significativos con riesgos limitados", señala en su primer informe.

"Futuros desarrollos pueden plantear nuevas objeciones, pero la comisión considera que no hay razones para aprobar en este momento nuevas reglamentaciones o una moratoria del trabajo en este ámbito", añade el informe.

La comisión insiste en la necesidad de "un diálogo entre los diferentes grupos de investigación privados y públicos, de modo que los científicos y las autoridades públicas puedan discutir sobre las reglamentaciones necesarias para proteger la seguridad pública a medida que este campo de investigación evolucione".

Los críticos argumentaron que al crear organismos sin la adecuada comprensión de sus implicaciones y alterar el orden natural, el descubrimiento equivalía a "jugar a ser Dios".

Con el anuncio de la creación de "la primera célula sintética", el investigador Craig Venter dijo en su momento: "Ciertamente cambió mis opiniones sobre la definición de la vida y de cómo funciona".

La comisión, sin embargo, afirmó que en rigor el equipo del Venter Institute no había creado vida, ya que el trabajo principal supuso alterar las formas ya existentes.

Afp

Publicado enInternacional
El estudio más relevante de 2010 no es la secuenciación del genoma del neandertal ni la supuesta célula sintética de Craig Venter. Según la revista Science, editada por la mayor sociedad científica del mundo, el puesto de honor es para la primera máquina cuántica, cuyo corazón es una pequeña tira de aluminio visible a simple vista y que tiene de largo lo que un pelo tiene de ancho.

El ingenio, presentado en marzo de este año en Nature, es como un trampolín para lanzarse a otro mundo. Es el reino de la física cuántica, que gobierna el movimiento de los átomos, los electrones y las moléculas y donde las unidades de medida son la micra y el nanómetro (una milésisma y una millonésima de milímetro, respectivamente). A esta escala sólo existen probabilidades de que algo suceda, así que, hasta que un hombre lo observa, un gato en peligro de muerte puede estar vivo y muerto al mismo tiempo, como propuso en 1935 Erwin Schrödinger, uno de los ases de la mecánica cuántica.

Extender estas reglas al mundo visible haría realidad fantasías de la ciencia ficción como las capas de invisibilidad o la teletransportación, aunque nadie sabe aún si es posible.

El invento destacado este año por Science y sus editores, la Asociación Estadounidense para el Avance de la Ciencia (AAAS), demuestra un primer paso, el primer objeto visible y fabricado por el ser humano que se comporta según las leyes de la física cuántica. "Hemos construido algo que puede estar en dos sitios a la vez y en dos estados al mismo tiempo", explica a Público Andrew Cleland, investigador de la Universidad de California en Santa Bárbara (EEUU) y uno de los creadores del ingenio.

De alguna forma, el trabajo pulveriza un gran muro. "Hemos mostrado que la mecánica cuántica es la descripción correcta de cómo funciona la materia a todas las escalas, aunque las predicciones de la teoría cuántica sean tan opuestas a nuestra experiencia del mundo real", aventura Cleland.

Science ha premiado al equipo por "la ruptura conceptual que presenta este experimento" y "sus muchas aplicaciones".

Entre ellas está una nueva generación de computadores millones de veces más potentes que los actuales y que funcionarían con qubits, bits del mundo cuántico que pueden reproducir un 0, un 1 o ambos a la vez.

La laminilla de aluminio de Cleland hace las veces de qubit. Una vez enfriada a casi el cero absoluto (-273ºC) para evitar que el calor cause en ella vibraciones, logra reproducir el estado fundamental de menor energía en el mundo cuántico, es decir, lo más parecido que hay a estar quieto para un átomo o una molécula. Desde este punto, los posibles estados "son casi infinitos", como explica Emilio Elizalde, físico del Instituto de Ciencias del Espacio (CSIC), pero la energía se gana o se pierde siempre en paquetes de magnitud determinada llamados "cuantos". Cleland inyectó y luego extrajo un cuanto a su trampolín y demostró que este podía estar quieto y en movimiento a la vez. Para ello tuvo que hacer millones de mediciones y extraer probabilidades de que estuviese en uno u otro estado o en ambos para así conjurar el efecto anunciado por Schrödinger y su gato.

"El experimento tiene una dificultad técnica muy grande, pero no es tan rompedor", opina Elizalde. "Abre la puerta hacia el ordenador cuántico pero no ha roto ninguna barrera ya que el láser [descubierto en 1953] ya era una consecuencia macroscópica de la física cuántica", señala.
Finalistas

Science también cita otros nueve estudios de 2010 que han quedado como finalistas para el primer premio. Los dos primeros son las células sintéticas de Craig Venter, cuyo genoma, ensamblado en un laboratorio, contenía citas de James Joyce, y la secuenciación del genoma del neandertal, que demuestra que el Homo sapiens se cruzó varias veces con esta especie y que aún conserva restos de ADN neandertal.

Otros trabajos destacados son los recientes éxitos de dos terapias experimentales para prevenir el sida y los estudios genéticos a gran escala como el proyecto de los 1.000 Genomas, que son ahora posibles gracias al imparable avance de la tecnología para secuenciar ADN. "Es una selección basada en futuras aplicaciones", comenta Carles Lalueza-Fox, coautor del estudio sobre el genoma neandertal. "Es imposible determinar hoy su impacto. En 1890 nunca hubieran elegido a Vincent Van Gogh como pintor del año", opina.

Los diez descubrimientos de la década según ‘Science'


El lado oscuro del genoma
Hasta que se publicó por primera vez el genoma humano, las cosas parecían claras: el ADN era el encargado de indicar al cuerpo cómo construir las proteínas y las instrucciones estaban escritas en los genes. Entre estos, había secuencias del genoma que no codificaban nada, a las que se bautizó como "ADN basura". La ciencia se encargó en esta década de dar la vuelta a este concepto y el ADN basura resultó no serlo y tener, sin embargo, un papel destacado en muchos procesos biológicos, incluyendo enfermedades como el cáncer. Al final, lo cierto es que parte de este tipo de ADN sí codifica proteínas y se puede utilizar, de hecho, para cerrar genes defectuosos.

La receta del universo
Los científicos ya tienen en su recetario los ingredientes para cocinar un universo. Según los últimos cálculos, hace falta una pizca de materia, como estrellas y planetas, que supone el 4,5% del universo; una buena cantidad de la misteriosa materia oscura, cuya gravedad sostiene las galaxias, y que suma el 22,7%; y grandes cantidades de energía oscura, hasta el 72,8%, y que sirve para acelerar la expansión del universo. Estos ingredientes se conocían en el siglo XX, y las pruebas de la existencia de la energía oscura datan de 1998, pero en los últimos años se ha podido concretar una teoría rigurosa de la formación del universo y un relato ajustado de su origen.

El tiempo viaja en ADN
Las herramientas para explorar el genoma humano han permitido que se desarrollara un nuevo campo de investigación de la vida prehistórica, el del ADN fósil. Y todo gracias a estas pequeñas máquinas del tiempo, las biomoléculas que sobrevivieron durante miles de años, que permiten conocer el genoma del neandertal, un trabajo completado este mismo año. Con la paleogenética se ha llegado a saber que buena parte de los neandertales eran pelirrojos de piel clara, pero también importantes detalles sobre relaciones familiares de especies ya extinguidas, como la cercanía de los dinosaurios a los pájaros actuales, mucho mayor que a los reptiles.

Hielo marciano
El 31 de julio de 2008, la NASA confirmaba la existencia de restos de hielo en las muestras del suelo marciano obtenidas por la sonda Phoenix. Se trata de una de las muchas evidencias de agua en el planeta rojo recabadas durante la última década, gracias a las misiones que se han realizado para explorarlo, como la sonda

Pathfinder o la Odyssey. Aunque en mucha menor proporción que en la Tierra, existen grandes cantidades de agua helada en glaciares y casquetes polares, aunque también existe agua en estado gaseoso en la atmósfera en proporciones ínfimas. La capa de hielo perpetuo del norte del planeta comprende unos 1.000 kilómetros de diámetro.

Células que se reescriben
Las células adultas capaces de reprogramarse no sólo es uno de los hallazgos de esta década sino que, seguramente, de este hecho se deriven grandes avances en un futuro cercano. El hito que logró el investigador japonés Shinya Yamanaka en 2006 desafiaba una creencia inamovible de la biología: que en el camino de desarrollo de un embrión, una vez que una célula se diferencia no puede volver atrás para convertirse en otro tipo de célula. Sin embargo, Yamanaka demostró que al añadir copias extra de cuatro genes a células adultas de ratón, estas pasaban a ser pluripotenciales. El hito se ha reproducido varias veces en células humanas.

Los amigos microbios
Esta década se recordará como el momento en que los microbios dejaron de ser enemigos de la humanidad para reconocerse como parte fundamental del organismo. Desde que el Nobel Joshua Lederberg abogó en el año 2000 en Science por el fin de la filosofía "nosotros somos el bien; ellos el mal", ha habido muchos avances en torno al microbioma, la ciencia que estudia cómo conviven en el cuerpo bacterias, virus y microbios. Desde entonces, se ha descubierto que los microbios afectan a la energía que absorbe el cuerpo y que algunas bacterias protegen frente a enfermedades, entre otros hallazgos.

Nuevos mundos
En este momento, se cuenta con un catálogo de 510 exoplanetas confirmados -planetas que orbitan en torno a estrellas distintas al Sol- en 422 sistemas planetarios distintos. Aunque el primer exoplaneta se halló en 1992, ha sido durante esta década cuando su registro se ha disparado, hasta el punto que se han creado aplicaciones de iPhone que informan de nuevos descubrimientos. La gran cantidad de ejemplos permite realizar un retrato más ajustado de las características que definen a estos mundos ajenos al Sistema Solar, en su mayoría gigantes de gas, aunque también abundan pequeñas Tierras.

Inflamación enemiga
Hasta hace relativamente poco tiempo, con la inflamación pasaba como con la fiebre: se pensaba que era una reacción del organismo para defenderse de agresiones. Algo, por lo tanto, positivo. Pero las cosas empezaron a cambiar cuando, a finales de la década de 1980, investigadores de la Universidad de Washington observaron macrófagos (células del sistema inmune, típicas de la inflamación) en tejido aterosclerótico. Desde entonces, todo fueron descubrimientos negativos, habiéndose demostrado en esta década la relación de la inflamación con el alzhéimer, el cáncer, la diabetes y la obesidad.

Materiales invisibles
La posibilidad de manipular la materia a niveles nanométricos (un millón de veces menor que un milímetro) podría generar lentes mucho más potentes que las que usan los microscopios actuales o generar capas de invisibilidad. Si esto llega a ser posible, será gracias a los metamateriales, hechos de bastones o anillos diminutos cuya disposición puede conducir o reflejar la luz de formas inusitadas. Estos materiales podrían usarse para crear superlentes capaces de concentrar diez veces más luz que una lente convencional o de reflejarla de forma que hagan invisible el objeto que cubren.

Camino del desastre
Durante esta década, la idea del calentamiento del planeta -de carácter antropogénico, por la emisión a la atmósfera de gases de efecto invernadero- se ha consolidado entre la comunidad científica (hasta un 97%, según datos oficiales), un consenso que llegó en 2007, cuando el panel de científicos de la ONU aseguró que era "inequívoco". Pero, resalta Science, a pesar de evidencias como el derretimiento de los glaciares o la acidificación de los mares, es una verdad científica que se ha encontrado de frente con la política, que no está asumiendo su papel para contrarrestarlo.
Publicado enInternacional