Londres, 2 de septiembre. Los desarrollos en la física moderna excluyen a Dios de las teorías sobre el origen del universo, afirma el astrofísico británico Stephen Hawking en un nuevo libro del que el diario The Times publica este jueves algunos extractos.

Según argumenta el eminente científico en The Grand Design (El gran diseño), coescrito con el físico estadunidense Leonard Mlodinow y que llegará a las librerías el 9 de septiembre, el big bang fue una consecuencia inevitable de las leyes de la física.

Debido a que existe una ley como la de la gravedad, el universo puede crearse a partir de nada. La creación espontánea es la razón por la que hay algo en lugar de nada, de por qué existe el universo y de por qué existimos nosotros, escribe Hawking.

No es necesario invocar a Dios para encender la mecha y poner en marcha el universo, agrega. Dios no creó el universo y el big bang fue la consecuencia inevitable de las leyes de la física, según señala el eminente físico teórico británico.

Esta posición representa, según The Times, una evolución respecto de lo que el científico británico de 68 años había escrito anteriormente sobre el tema.

En su Historia del tiempo (1988), uno de los grandes best sellers de la literatura científica, Hawking sugería que no existía incompatibilidad entre la noción de Dios, en tanto que creador, y una comprensión científica del universo.

The Grand Design también desmonta la teoría de Isaac Asimov de que el universo debió ser creado por Dios debido a que no pudo surgir del caos. Desde 1974, el científico ha trabajado para ligar las dos piedras angulares de la física moderna: la teoría general de la relatividad, de Albert Einstein, relacionada con la gravedad y los fenómenos a gran escala, y la teoría cuántica, que cubre las partículas subatómicas.

Hawking elabora su teoría a partir del descubrimiento en 1992 de un planeta que gira alrededor de una estrella que no es el Sol.

“Eso hace que la coincidencia de nuestras condiciones planetarias –el único Sol, la afortunada combinación de distancia Tierra-Sol y masa solar–, sea menos excepcional y menos convincente como prueba de que la tierra fue cuidadosamente diseñada para satisfacer a los seres humanos.”

Hawking, quien padece una grave enfermedad degenerativa que lo obliga a moverse en silla de ruedas y a comunicarse a través de una computadora, abandonó el año pasado la prestigiosa Cátedra Lucasiana de Matemáticas de la Universidad de Cambridge que ocupaba desde 1979. En Una breve historia del tiempo escribió: Si descubriéramos una teoría completa, sería el triunfo final de la razón humana, porque así conoceríamos la mente de Dios.

En su libro más reciente, señaló que el descubrimiento, en 1992, de un planeta que orbitaba otra estrella distinta al Sol ayudaba a replantear el punto de vista del padre de la física, Isaac Newton, respecto de que el universo no podría haber surgido del caos, sino que fue creado por Dios.

“Eso convierte a las coincidencias de nuestras condiciones planetarias –una estrella única, la afortunada combinación de la distancia Tierra-Sol y la masa solar–, en una evidencia mucho menos destacable y mucho menos convincente de que la Tierra fue diseñada cuidadosamente sólo para agradarnos a los seres humanos”, escribe.

Hawking comenzó a sufrir la enfermedad cuando tenía poco más de 20 años, pero logró convertirse en una de las autoridades científicas mundiales, y también ha tenido participaciones estelares en Star Trek y en las series animadas Futurama y The Simpsons.

El año pasado anunció que iba a dejar el puesto de profesor lucasiano de matemáticas de la Universidad de Cambridge, puesto que ostentó Newton y que él había tenido desde 1979.

The Grand Design saldrá a la venta la semana próxima.

Agencias

Cuando el cerebro humano necesitó inventarse a Dios

Los últimos avances en neurociencia atribuyen a una combinación de sustancia químicas y necesidades fisiológicas la aparición de religión y la idea de Dios.

El ser humano, a pesar de del proceso cultural, es presa fácil del miedo y la incertidumbre que le atenazaban hace miles de años. Los pequeños problemas de la vida diaria y las grandes preguntas provocan estrés neuronal, induciendo hasta cien cambios diferentes en el cerebro. Para balancear la carga, surgió la religión.

Como recogen el antropólogo Lionel Tiger y el neurólogo Michael McGuire en el libro God's brain (El cerebro de Dios), publicado en Estados Unidos la pasada primavera, la religión tiene un efecto balsámico sobre el cerebro.

Mediante la recopilación de decenas de investigaciones científicas apoyadas en las modernas técnicas de neuroimagen (resonancia magnética, tomografía o magnetoencefalografía, los autores cogen fuerza para explicar la función de la religión. Según explican, la experiencia religiosa libera neurotransmisores como la serotonina la dopamina y hormonas como la oxitocina, que dan paz al cerebro, restaurando su equilibrio.

En una serie de experimentos realizados con monos por McGuire, los científicos pudieron establecer una relación directa entre el estatus social de cada individuo dentro del clan y el nivel de serotonina, un neurotransmisor que funciona a modo de recompensa para un cerebro estresado.

'Fitness' cerebral

En humanos, los más recientes trabajos de neurociencia y religión muestran cómo la fe en Dios reduce los síntomas de la depresión y favorece el autocontrol, mientras que la meditación mejora algunas capacidades mentales.

Los autores reconocen que hay otras formas de conseguir reducir el estrés neuronal, como hacer deporte o una cena agradable. Pero las otras actividades sociales no tienen los tres elementos que dan utilidad a la religión: socialización positiva en comunidad, los rituales y una creencia, generalmente en la otra vida.

El problema es la religión

La semana que viene se publicará un libro en el Reino Unido que dará mucho que hablar. Su título en español supongo que será El gran diseño y su autor más notable es Stephen W. Hawking, que lo firma con Leonard Mlodinov.

Lo más importante del libro es que trata de poner al alcance de las personas no especialistas los últimos intentos de la física teórica en cuanto a fundir en un mismo cuerpo matemático la relatividad general o teoría del universo en su conjunto con la mecánica cuántica o teoría del microcosmos atómico. El problema es que el objetivo de tal esfuerzo divulgativo se encamina a demostrar la no existencia de Dios.

Siempre me anima que un científico de la talla de Hawking muestre públicamente su agnosticismo, pero que en esta ocasión lo haga apoyándose en las teorías M y una de sus hipotéticas consecuencias, la existencia de infinidad de universos, me parece pobre cuando no contradictorio. Concluyen Hawking y Mlodinov que, igual que Darwin y Wallace explicaron el aparentemente milagroso diseño de las formas vivas sin intervención de un ser supremo, el concepto de multiverso puede explicar nuestra existencia sin necesidad de un creador benevolente que hiciera el mundo para nuestro beneficio.

El problema reside en que mientras que la evolución de las especies por selección natural está demostrada incluso a escala molecular, los modelos en 11 dimensiones que desarrollan todos los conceptos de supercuerdas, las teorías M, no tienen por ahora la más mínima posibilidad de contrastarse experimentalmente. O sea, que entran casi en la categoría de filosofía, a la que Hawking le niega cualquier papel hoy día.

Así, si suponemos que Borges tenía razón al catalogar la filosofía de subgénero de la literatura fantástica, las teorías M pueden caer en el mismo saco. Creo que lo más honesto desde el punto de vista científico es mantener la postura de Laplace, que cuando le enseñó su modelo matemático del sistema solar a Napoleón y este arguyó que no veía a Dios por ninguna parte, le respondió: "Sire, no he tenido que hacer uso de tal hipótesis". También creo importante no distraer a la gente en cuanto a que el problema no es Dios, sino las religiones.

MIGUEL ÁNGEL CRIADO Madrid 03/09/2010 08:00 Actualizado: 03/09/2010 09:14


Publicado enInternacional
Miércoles, 25 Agosto 2010 07:03

Cabalgando con la esquizofrenia

–Cuénteme qué es lo que hace.

–Yo trabajo tratando de entender cuáles son los mecanismos que funcionan mal en el cerebro con relación a la esquizofrenia. El abordaje que tengo para eso no es clínico, sino que es de ciencia básica, y trabajo con modelos animales.

–Usted es...

–Biólogo, de formación. Pero me vine a hacer mi tesis de licenciatura y mi tesis doctoral a la Facultad de Medicina. Porque siempre me interesó pasar de la parte más biológica hacia una parte más orientada a patologías humanas. Y básicamente lo que me interesa desde que hice mi posdoctorado afuera es saber qué es lo que funciona mal en aquellos pacientes psiquiátricos con esquizofrenia.

–Empecemos por definir qué es la esquizofrenia...

–Es una enfermedad psiquiátrica que tiene toda una serie de signos y síntomas que la definen. Los síntomas se dividen en positivos, negativos y cognitivos. La visión clásica que uno tiene de los esquizofrénicos es la de la persona que tiene alucinaciones, delirios, que lo persiguen los marcianos y le quieren insertar un chip en el cerebro, por ejemplo...

–¿Y no hay desdoblamiento de la personalidad?

–No, eso no. Aunque esquizofrenia significa “cerebro partido”. Esos son los síntomas más floridos.

–¿Y qué más?

–Todos los que tienen que ver con apatías, falta de afecto, falta de motivación, dejar de buscar situaciones placenteras. Después están los problemas cognitivos, q. Lo que yo intento entender es qué mecanismos funcionan mal en el cerebro de tal modo que pueden llevar a tener esos síntomas y esos signos.

–¿Y qué cosas funcionan mal?

–Bueno, eso estamos averiguando. Es necesario distinguir entre las enfermedades psiquiátricas y las neurológicas. En las neurológicas, muchas veces no sabemos la causa. sí sabemos qué es lo que funciona malCon la esquizofrenia estamos peor: no sólo no sabemos qué causa la esquizofrenia (se supone que hay muchos factores: genéticos, ambientales, el estrés), pero tampoco sabemos qué funciona mal. Estamos un paso más atrás. Hay distintas hipótesis sobre qué funciona mal.

–¿Y cuál es la conjetura que usted toma como más probable?

–Hay una parte del cerebro, el sistema córtico-límbico, que controla muchas de las funciones cognitivas y afectivas de las personas, en la cual funcionan dos tipos de neuronas: unas que son excitatorias y lo que hacen es transmitir información entre zonas del cerebro, e interneuronas, que son neuronas que sólo interactúan de manera local. Por ejemplo: hay una zona del cerebro que maneja la memoria y otra zona que participa más del aprendizaje; ambas funciones se encuentran imbricadas, por lo cual la información fluctúa entre las dos. Las que manejan esta interacción son las excitatorias; las inhibitorias (interneuronas) actúan de manera local y ponen freno a la actividad de las otras. Si todas fueran excitatorias, al cabo de un tiempo todo el cerebro estaría “prendido”. Y lo que se encontró en tejidos de pacientes post-mortem es que en los esquizofrénicos hay alteraciones en estas neuronas. Es una de las pocas evidencias que hay. Estas interneuronas son pocas en realidad y están metidas en la malla neuronal. Forma parte del circuito de la corteza: recibe información como las excitatorias, pero no la transmite lejos. Hay muchos tipos de interneuronas y cada una tiene un rol distinto: algunas frenan la actividad, otras la modulan, otras tienen que ver con un cambio de plasticidad. Estas neuronas tienen un receptor muy particular que agarra glutamato.

–¿Qué es el glutamato?

–Es un aminoácido, y se podría decir que es el neurotransmisor excitatorio del cerebro. Es con el que las neuronas se transfieren información de manera más directa. El receptor pega el glutamato, pero la información que ese neurotransmisor le da a la célula es distinta, dependiendo de cuál sea el receptor al que se pegue. En el receptor que le estoy contando deja que entre calcio a la célula. Es un proceso maravilloso, y de hecho hay laboratorios que se dedican exclusivamente al estudio de este receptor, y producen papers y papers sobre este tema. Gracias a eso se puede construir conocimiento, porque después no-sotros contamos con esas investigaciones para poder seguir con la nuestra. Una de las hipótesis en relación con la esquizofrenia dice que lo que hay es un déficit del receptor NMDA en las interneuronas.

–¿Y cómo surge esta hipótesis?

–La teoría se podría decir que arranca a partir de lo que se observa que produce en humanos el uso de un anestésico veterinario, la ketamina. Si bien es para animales, en una época hubo que sacarlo del mercado porque los chicos lo tomaban en los boliches. Son anestésicos disociativos. A dosis altas, anestesian. Pero a dosis bajas, el efecto es una especie de alucinación, en la que uno ve su cuerpo desde afuera, tiene percepciones extrasensoriales, ve cosas que no se ven normalmente, y de-sencadena un cuadro que parece una esquizofrenia. Y de hecho cuando uno le da ketamina a un esquizofrénico, la enfermedad se intensifica.

–O sea que ahí hay algo...

–Claro. Entonces la hipótesis que le cuento arranca con eso. Porque esta ketamina lo que hace es bloquear los receptores NMDA. Cuando uno le da una inyección a un paciente, bloquea todos: por eso es anestésico, porque bloquea los receptores. Cuando uno da dosis bajas, se supone que actúa sobre los receptores de las interneuronas, nada más. Y estas interneuronas, entonces, pierden la capacidad de frenar a las excitatorias. La idea que hay detrás de esto es que las alucinaciones y los delirios se frenan en una etapa del cerebro, antes de que entren al estado consciente. Cuando estos mecanismos fallan, esos pensamientos pasarían al estado consciente y se verían cosas que en realidad no están.

–¿Se sabe lo que es el estado consciente?

–Por eso se pelean los filósofos. ¿Por qué me voy a meter yo? Lo que le decía, entonces, es que al fallar este freno, dependiendo de en qué parte esté fallando, va a haber problemas de memoria, problemas de aprendizaje, etcétera. Estaría, entonces, fallando el receptor NMDA en las interneuronas. Interneuronas hay en todo el cerebro, pero la idea es que las que están fallando son las del sistema córtico-límbico, que tienen funciones más cognitivas. Lo que yo hice para estudiar eso es sacarles a los animales de laboratorio el gen que codifica la información para el receptor NMDA de las interneuronas.

–De modo que quedaron interneuronas sin ese receptor.

–Exactamente. Y me fijé qué pasaba. Lo que hace uno con un ratón, que suponemos que no tiene esquizofrenia, es medir síntomas que sí pueden ser comparados con los de un ser humano. Por ejemplo, en el ratón se puede medir la memoria. Lo que se hace es un test conductual, con cuyos resultados e interpretación hay que tener muchísimo cuidado. Pero lo que se ve con estos ratones es que tenían conductas compatibles con lo que sería un cuadro de tipo esquizofrénico.

–¿Y qué es exactamente lo que quiere averiguar?

–Por qué se producen esas conductas. Porque podría ser que al sacarle el receptor se produzca un cambio en el desarrollo del sistema, de tal modo que las interneuronas dejaran de frenar a las otras y hubiera una sobreactividad; pero también podría pasar que hubiera un mecanismo de compensación que, como no hay inhibición, el sistema lo que hace es bajar la actividad de todo...

–¿Usted volvió de Estados Unidos, no?

–Sí.

–¿Por qué?

–Por un lado, es importante la parte afectiva; por otro lado, siento que está bien capacitarse afuera y volver para poder devolver lo que uno tomó de la universidad pública. Y hay otra cosa, que es medio paradójica: la falta de recursos, el hecho de no estar tan desarrollados como Estados Unidos, nos da más tiempo para pensar las cosas.

Por Leonardo Moledo

Informe: Nicolás Olszevicki.
leonardomoledo.blogspot.com
Publicado enInternacional
Londres, 9 de agosto. La raza humana tendrá que colonizar el espacio en los próximos 200 años si no quiere desaparecer, advirtió el lunes el astrofísico británico Stephen Hawking, en entrevista publicada por el sitio Internet Big think.

Pienso que el futuro a largo plazo de los humanos está en el espacio. Será difícil evitar una catástrofe en la Tierra en los próximos cien años, sin hablar de mil o millones de años, declaró el experto británico en el sitio de Internet, que se describe como foro mundial que relaciona a la gente con las ideas.

El especialista agregó que la raza humana no debería apostar sólo al planeta.

Al mencionar la famosa crisis de los misiles en Cuba, en 1963, dijo: “Veo grandes peligros para la raza humana. En muchas ocasiones en el pasado, su supervivencia fue difícil.

La frecuencia de tales amenazas aumentará probablemente en el futuro. Tendremos necesidad de prudencia y juicio para manejarlas exitosamente. Soy optimista, dijo Hawking.

Según él, “si queremos evitar una catástrofe en los próximos dos siglos, nuestra especie deberá desplegarse en el espacio para salvarse.

Si somos los únicos seres inteligentes en la galaxia, tendremos que garantizar nuestra supervivencia, dijo el científico, luego de considerar que el aumento de la población mundial y los recursos limitados de la Tierra amenazarán cada vez más a la especie humana.

Por eso estoy en favor de hacer vuelos habitados al espacio, indicó.

En abril había advertido que si los extraterrestres existieran, los hombres deberían evitar todo contacto con ellos porque las consecuencias serían devastadoras.

Stephen Hawking, de 68 años, mundialmente conocido por sus trabajos sobre el universo y la gravedad, es el autor de Breve historia del tiempo, uno de los mayores éxitos de la literatura científica.

Afectado desde los 22 años por una esclerosis lateral amiotrófica, enfermedad degenerativa que provoca parálisis, se desplaza en silla de ruedas y se comunica por medio de una computadora y un sintetizador vocal.

Afp
 
Publicado enInternacional
Miércoles, 14 Julio 2010 06:25

El Software Libre no es un capricho

Pese al Decreto 3390, que establece la migración de la administración pública venezolana a software libre, abundan instituciones gubernamentales que ondean la bandera de Microsoft, alegando que no pueden afectar su operatividad, aunque este argumento incluso comienza a desmontarse cuando grandes corporaciones norteamericanas como Google, han ordenado a sus empleados no usar el software del gigante de Redmon, y están demostrando que es posible competir en el voraz mercado de los teléfonos inteligentes, con su sistema operativo Android, basado en GNU-Linux, por lo que es falso afirmar que el software libre es peor. 

Entonces, si el software libre es mejor, ¿qué está ocurriendo en Venezuela? Gilberto Mora, jefe de la oficina de integración tecnológica del CNTI, analiza el por qué de esta lenta evolución hacia tecnologías libres. 

¿Por qué usar software libre? 

Usar software libre es un arma de liberación, ya que permite tener el control, en cambio con el software privativo, independiente de la casa o la marca, no se sabe qué sucede en lo interno de tu computadora. Incluso, en un paso más adelante, está el hardware libre, donde hasta el software que hace funcionar el hardware también es libre. Y no se trata de una utopía, porque ya los equipos de Lemote operan sobre esta filosofía. Ese es el punto de máximo de libertad. 

¿Y de qué me sirve saber qué hace el software con mi computadora? 

Primero porque te permite saber si lo que tu quieres que haga lo está haciendo cómo tu quieres que lo haga, ya que hay gente que bajo el compromiso de una comunidad ya desarrollaron el sistema operativo, dejando el código a la vista, de manera que cualquiera pueda verificarlo. No hay trampas ocultas. No hay esquemas en donde cualquier cosa adicional puede pasar. 

Todo está a la vista, o lo puedes revisar tu mismo. Todo es transparente. Mientras que bajo el software privativo, simplemente, confías que la compañía a la que se le compró la licencia, ha hecho las cosas como dice que las hizo. 

Además usando software libre los costos disminuyen, ya que no hay que pagar la licencia. Simplemente descargas un paquete, evalúas si funciona, y si no puedes buscar otra opción. También el software privativo suele exigir cada vez más recursos de hardware para funcionar, en cambio el software libre puedes usar lo que quieras y como quieras, sin necesidad de disminuir las prestaciones. 

Si es gratis, ¿de qué come el modelo libre? 

La mayoría de las aplicaciones son desarrolladas por programadores ad honorem, que no cobran el programa, sino por el servicio, porque bajo el modelo libre la sustentabilidad cambia. No requiere una inmensa corporación que ofrezca soporte, por ejemplo, en el caso de los Infocentros el soporte lo proporcionan cooperativas locales, lo que genera un buen servicio a un costo muy bajo, con respuestas más rápidas y con calidad, ya que el conocimiento no esta cerrado sino es un bien de la comunidad. Se estima que en el modelo privativo los tiempos de respuestas son cada 21 días, mientras que bajo software libre son de 2 horas y hasta menos, como ocurre con la lista de Canaima. 

Y si el software libre es mejor, ¿por qué pese al Decreto 3390 muchas instituciones todavía no han migrado? 

El ser humano es resistente al cambio. Sucede que muchos que han trabajado toda su vida con software privativo y se les dice ahora que deben usar tecnologías libres, se sienten incómodos, y aunque KDE (se parece a Windows) y Gnome (se parece a Mac), resulta que hay cosas nuevas que aprender. El mundo libre ofrece una alternativa de herramientas de productividad de calidad, a nivel de correo electrónico, bases de datos y el CNTI es un ejemplo de que es posible usar sólo software libre. Pero las personas le tienen miedo al cambio, por lo que hacemos muchas charlas para que los funcionarios públicos entiendan que no tendrán que hacer cambios drásticos que afectarán su modo de trabajar. Pero si el jefe de soporte técnico no entiende que sí se puede hacer, obviamente tampoco podrá convencer a los que trabajan con él de que el software libre es mejor. Ciertamente, hay muchos dolores de cabeza que con software libre se eliminan, como los virus, los spiware, etc. 

Tampoco se puede ignorar que si tienes años asistiendo a eventos de casas privativas que te dicen que su producto es muy bueno, y haces tu vida alrededor de ese “casi” gratis, pero cuando hubo que pagarlos se trataba de cifras exorbitantes, estas amarrado a ese producto al que te costó bien caro certificarte, haz hecho cursos, y te lo conoces, entonces surge la resistencia al cambio en una administración pública que tiene más de 20 años trabajando con software privativo y nosotros en seis años queremos que cambien su mentalidad. Realmente nos ha costado pero vamos a buen paso. La gente poco a poco está entendiendo que no se trata de una ley, sino que el software libre es mejor. 

¿Por qué crear Canaima, si ya existía Ubuntu, Debian y muchos más? 

Ubuntu tiene muchísimas prestaciones, por ejemplo, prácticamente todos los dispositivos que se conectan a GNU-Linux funcionan bajo Ubuntu, pero tiene también sus tiempos de maduración. Y nosotros nos preguntamos por qué usar Ubuntu que depende de una corporación, Canonical, entonces si Canonical decide cerrar, perderíamos toda la independencia que habíamos conquistado. Y si tenemos un personal capaz de hacer software en Venezuela, por qué no escribir nuestro propio camino. Por eso, decidimos desarrollar una versión que tuviese lo mejor de Ubuntu y lo mejor de Debian. No dependemos de que alguien nos dé, un sistema operativo. 

Si bien es cierto, que nuestra base es Debian, resulta que detrás de Debian no está una empresa, sino una comunidad, al igual que ocurre con Canaima, porque aunque desde el CNTI hemos impulsado el desarrollo de Canaima, no depende del CNTI, sino de una comunidad. Y en este momento es la vitrina de la región, porque somos percibidos como los pioneros. 

Prensa YVKE Mundial/ Ciudadccs
Publicado enInternacional
Lunes, 12 Julio 2010 06:16

Un hito del poderío de China

Expo Shanghai 2010 emerge multicolor en una ciudad futurista. Cada edificio construido especialmente para el evento plasma en arquitecturas novedosas el lema “Mejor ciudad, mejor vida”. La tecnología más moderna de urbanización ecológica se muestra ridícula ante gastos de construcción obscenamente millonarios e infinitos esfuerzos de todos los países por estar aquí, mostrando lo bueno que tienen para dar. Bajo custodia policial continua y en un predio de más de cinco kilómetros cuadrados que requirió remover miles de familias y fábricas, la Expo es visitada diariamente por 350 mil personas.

En mandarín, China se pronuncia Zhong Guo y significa “país del medio”. Acá, los planisferios tienen a China en el centro con Europa, Africa y América en los bordes. China tiene un quinto de la población mundial, es la tercera potencia económica y el cuarto país en tamaño. El crecimiento medio anual del PBI rondó el 10 por ciento en los últimos 30 años.

China es gigante por donde se la mire. Sin embargo, es importante señalar que hace 50 años decenas de millones de personas morían de hambre. Y es por eso que los chinos pelean cada centavo como el último, cada asiento de metro; es por eso que en China los autos, los peatones y las bicicletas nunca frenan. Cuando se cruzan, pasa primero el que enfrenta la lucha diaria con mayor convicción. Todavía no existe en este país el reaseguro psicológico de que habrá otra oportunidad. Incorporar esa clase de modales parece impensado en una sociedad que hace tan poco tiempo sufrió de una pobreza tan inmensa, como es todo en China.

Planeados con suma anterioridad, los Juegos Olímpicos de Beijing en 2008 y la Expo Shanghai 2010 son para los analistas chinos los fenómenos de demostración de poder, hitos de este crecimiento sostenido. Como un gran país con una larga y poderosa historia, el ascenso de China tiene que ser demostrado en muchos aspectos. La gente ve el comercio internacional de China, su PBI, sus deportes, su capacidad de lucha contra los desastres, su alta tecnología, su poder blando. Desde esta perspectiva, “la Expo Shanghai 2010 no es sólo un aspecto de un proceso consistente, también es un símbolo de cómo China puede tratar con éxito la crisis económica”, señala Yijia Jing, profesor asociado del departamento de Relaciones Internacionales y Asuntos Públicos de la prestigiosa Universidad de Fudan.

“Para cualquier país responsable es irracional ignorar el desarrollo de China”, remarca Yijia Jing. Durante la Expo desfilan empresarios, representantes culturales y actores políticos de todos los países. Hillary Clinton fue la primera representante estadounidense de 200 que espera recibir Estados Unidos en el marco de la Expo. Según el Washington Post, Clinton se encargó de reunir donaciones por 60 millones para financiar el pabellón, y en su visita señaló: “Se imaginan lo que hubiera sido no estar aquí. Es como la fiesta de presentación en sociedad de China. La Expo tiene una real significancia histórica”. Incluso Sarkozy, con su presencia en la inauguración, dio un paso firme luego de un período de frías relaciones con China.

Para este evento, el gobierno chino habría desembolsado cerca de 50 mil millones de dólares, en el que participan unos 200 países y 90 organizaciones, y se espera recibir 70 millones de personas, la mayor afluencia de público de la historia. Obviamente, China no puede permitirse menos. “Sólo nosotros podemos sostener semejante Expo. Hay cierto orgullo nacional en esto. Queremos que el mundo venga y nos admire por nuestro éxito”, declaró Fangxin Hai, director general de la Oficina de Servicios Financieros de Shanghai. En dos meses, la han visitado más de 23 millones de personas.

Sin embargo, ésta es una fiesta controlada. Estados Unidos, por ejemplo, no habla de su sistema político en su pabellón. Ningún país se refiere a estas temáticas, la palabra democracia no es mencionada, ni aludida. Corea del Norte e Irán tienen sus pabellones muy cerca e iluminan aspectos que no tienen nada que ver con armamentos nucleares y política exterior.

En un país en el que se asigna la misma palabra para los significados pregunta y problema, previo a la Expo se detuvieron miles de personas en raides delictivos que buscaban extremar el orden en Shanghai. Los ciudadanos ya no pueden pasear en pijama por el barrio y tienen que tratar de moderar sus modales, como escupir en la vía publica o que los niños vayan al baño en donde sus necesidades se lo pidan.

“China se enfrenta a un montón de tensión en el interior. Hay muchas cuestiones internas, como los problemas sociales y el desarrollo económico desequilibrado, la corrupción y la degradación ambiental. Mientras tanto, el ascenso de China la obliga a manejar nuevos desafíos. ¿Cómo conciliar su relación con las grandes potencias? ¿Cómo hacerse un miembro aceptable de la comunidad internacional? Es cada vez más importante justificar sus intereses de expansión y sus valores nacionales en el mundo”, apunta Yijia Jing.

En el pasado, en estos escenarios, los países buscaban darse a conocer entre sí. Hoy, todos se muestran aquí ante China y China se expone al mundo. Después de esta Expo, el orden político económico tendrá un certificado de cambio. Después de esta Expo, China también habrá dado un paso más en su lenta pero inevitable apertura al mundo.

Por María Martin
Desde Beijing
Publicado enInternacional
Gracias al nuevo mapa del universo los científicos tendrán más información para acercarse a lo que durante décadas ha sido una incógnita para la ciencia moderna: ¿Qué ocurrió al inicio del universo?, aseguró George Smoot, premio Nobel de Física 2006.

La información captada hace un par de días por el satélite Planck permitirá obtener más conocimientos acerca de las fases del universo y ayudará a comprenderlo mucho más.

“Gracias a los análisis que se harán tendremos un conocimiento mucho más preciso sobre el universo y su contenido. Con suerte veremos ondas gravitacionales (que se dieron) desde el inicio del espacio-tiempo, encontraremos evidencia de no linealidad en las fuerzas que daban forma al espacio-tiempo y aprenderemos mucho sobre el big bang”, señaló.

Durante una conferencia de prensa en la que se informó sobre algunos de los temas del 19 Congreso sobre gravitación y relatividad, que se celebró en la ciudad de México, el profesor de la Universidad de Berkeley, California, indicó que siempre que la ciencia responde una interrogante, genera dos nuevas preguntas.

Hace más de un siglo se decía que la física estaba completa, que ya se sabía todo acerca del universo, al que se consideraba mecánico. También había muchas discusiones sobre el destino y si todo ya estaba determinado o no. Después llegaron la física cuántica, la relatividad o la mecánica cuántica y descubrimos que regularmente hay algo más. Hoy uno no se preocupa por terminar (una investigación), sino por lo que empieza. Siempre van surgiendo nuevas teorías.

Semillas de las galaxias

Smoot obtuvo el Nobel en su disciplina junto con su colega John C. Mather, por sus aportaciones al estudio de la radiación de fondo de microondas mediante el satélite Cobe, con lo que demostraron que poco después del big bang se presentaron diversas irregularidades en el universo que fueron las semillas para la formación de las galaxias.

El nuevo mapa universal permitirá seguir indagando en los postulados de Albert Einstein, Isaac Newton y otros destacados científicos. Una de las principales premisas a estudiar será la teoría de la gravitación, aunque, dijo, tal vez se presenten algunas modificaciones, como las ideas referentes a la energía y materia oscuras.

Abhay Ashtekar, presidente de la Sociedad Internacional de Gravitación y Relatividad y del comité organizador del congreso, dijo que con los recientes hallazgos se realizarán nuevos estudios en astrofísica y gravitación que responderán a varias incógnitas.

“Con Planck podremos restringir más nuestros parámetros y descubriremos algo más sobre la forma del universo. Hemos escuchado sobre el progreso de la física de ondas gravitacionales, que es uno de los experimentos más precisos, donde podemos medir distancias menores a las del radio de un protón usando interferómetros, cuyas lentes miden alrededor de cuatro kilómetros de largo. La sensibilidad es tan alta que el hecho de que no hayamos visto ninguna onda gravitacional indica que no hay montañas en la nebulosa del Cangrejo, que es una estrella de neutrones cercana a nuestra galaxia.”

El científico subrayó que en la frontera de la relatividad general y de la física con la información transmitida por el satélite se podrá probar de manera muy cercana lo que sucedió con el big bang o incluso antes de esta explosión que dio origen al universo, así como en los campos gravitacionales en el interior de los agujeros negros.

Con los nuevos estudios la humanidad podrá tener certeza en los próximos 15 o 20 años sobre si existe o no materia oscura en el universo y la partícula subatómica bosón de Higgs, conocida como partícula Dios, que explicaría por qué la materia tiene masa.

Por Emir Olivares Alonso

 
Publicado enInternacional
París, 30 de junio. Hace dos mil 100 millones de años, es decir mil 500 millones de años antes de lo comprobado científicamente, habrían aparecido formas de vida complejas, organismos de varias células, conocidos como pluricelulares, según un estudio publicado este miércoles.
 
Este importante descubrimiento ocupa la portada de la revista británica Nature. Incluso, según los expertos, plantea más preguntas y no responde a muchas.
 
Las primeras formas de vida aparecidas en la Tierra hace unos tres mil 500 millones de años eran unicelulares. Se trataba de seres vivos constituidos con una sola célula, como las bacterias.
 
El origen de la compleja vida multicelular ya no se sitúa hace 600 millones de años, sino más bien hace dos mil 100 millones de años, el cursor se desplazó mil 500 millones de años, declaró a Abderrazak El Albani, de la Universidad de Poitiers (Francia), principal autor del estudio.
 
Con su equipo internacional descubrió en Gabón más de 250 fósiles de 7 milímetros a 12 centímetros de longitud que podrían revolucionar la historia de los seres vivos.
 
Ya había fósiles con los que se pudo constatar la explosión de formas de vida multicelulares hace 600 millones de años, pero una aparición anterior era un hipótesis controvertida, según el investigador.
 
Sin embargo, esto cambió con el reciente descubrimiento de un fósil, Grypania spiralis, de hace mil 600 millones de años, que planteó la existencia de vida más compleja.
 
Las primeras unicelulares y las bacterias actuales están constituidas de una célula sin núcleo, es decir, sin membrana que proteja el material genético: son procariotas.
 
Las formas de vida complejas, desde los insectos hasta los mamíferos, sin olvidar los unicelulares, como los paramecios, tienen células eurocariotas, con cromosomas dentro del núcleo.
 
Con los fósiles descubiertos en el sitio de Franceville, en Gabón, la existencia de eurocariotas habría surgido hace dos mil 100 millones de años y no mil 600 millones como se suponía con Grypania.
 
Origen biológico
 
Una forma particular de azufre y moléculas de esterano (un hidrocarburo) encontrados en los fósiles dan pruebas, respectivamente, del origen biológico y eurocariota, según los investigadores.
 
Con un tamaño muy grande para ser sólo residuos de simples sistemas unicelulares primitivos, el contorno de los fósiles evoca, según El Albani, las formas de organismos vivos en suspensión dentro del agua o cerca del fondo oceánico.
 
Interpretar realmente fósiles antiguos es un asunto particularmente difícil, estimaron Philip Donoghue, de la Universidad de Bristol (Gran Bretaña) y Jonathan Antcliffe en Nature, prometiendo futuras discusiones entre paleontólogos.
 
Estos fósiles de unos centímetros, que los autores interpretan como representanciones de organismos multicelulares, habrían aparecido cuando la atmósfera era una mezcla tóxica (...) con una cantidad de oxígeno que corresponde a unos centésimos de los niveles actuales, señalan los dos expertos.
 
Sin poner en duda la datación de estos especímenes, los expertos destacan que la definición de una vida pluricelular puede incluir todo, desde colonias de bacterias hasta tejones.
 
En las colonias de bacterias se constató una forma de comunicación interna y de gestión organizada del crecimiento del grupo, como es el caso de los estromatolitos, estructuras más antiguas que los fósiles encontrados en Gabón.
 
Los especímenes descubiertos no pueden provenir de simples bacterias, aseguró El Albani, quien invitó a preservar el sitio gabonés para que sea inscrito como patrimonio mundial de la humanidad.

Afp
 
Publicado enInternacional
Domingo, 27 Junio 2010 06:34

La ciberguerra pasa al ataque

El gran teórico de la guerra total, el barón Von Clausewitz, escribió que "el soldado duerme, come, anda, se entrena y descansa, todo ello para combatir en el momento y el lugar precisos que le ordenen". Desde hace unos meses, en Francia, al igual que en Estados Unidos, China, Israel, Gran Bretaña y Rusia, el soldado se inicializa, carga su memoria, prepara una bomba lógica y penetra los ordenadores zombis rivales, todo ello para combatir en lo que llaman la "lucha informática ofensiva" que ya está en marcha, abiertamente, en los estados mayores.

El ejército francés acaba de traspasar la línea roja que separa la defensa del ataque militar en el terreno de la guerra virtual, considerado por muchos como la madre de los campos de batalla. Seis laboratorios en todo el país y al menos una unidad del ejército del aire han recibido autorización para investigar sobre "armas digitales", capaces de llevar a cabo una "lucha informática ofensiva" en caso de ataque coordinado enemigo contra las webs gubernamentales, las redes internas de la administración o los sistemas informáticos vitales para el país.

Es lo que se desprende de los anuncios efectuados la semana pasada por la industria militar gala en el principal salón mundial del armamento de tierra, el Eurosatory 2010 de París. Y también coincide con el discurso del secretario general del Elíseo, Claude Guéant, en el congreso del Consejo Superior de la Formación y la Investigación Estratégicas (CSFRS), nuevo centro de doctrina estratégica creado por Nicolas Sarkozy.

El aparato militar francés ha puesto ya en marcha la preparación de códigos maliciosos, software espía y virus caballo de troya que se instalan en el PC del usuario sin que este lo sepa . Todo ello para dotarse de la "capacidad de neutralización en el interior mismo de los centros de operaciones adversas", "saber combatir al adversario en la fuente misma de la agresión, mediante modos de acción ofensivos" y "garantizar la capacidad de perseguir y reprimir a los agresores", objetivos todos ellos fijados por la doctrina estratégica del nuevo Libro Blanco de la Defensa francés, elaborado en 2008.

Los seis laboratorios privados con control estatal, llamados CESTI, han recibido la autorización para desarrollar "armas digitales", bajo una argucia jurídica. Como intentar penetrar o destrozar un sistema informático ajeno es delito tipificado en el código penal francés, no se les podía dar un permiso general. Por eso, el Secretariado General de la Defensa Nacional (SGDN) se lo dio bajo un eufemismo: los CESTI, en el marco de su trabajo sobre sistemas de defensa frente a ataques informáticos, disponen del derecho a desarrollar "tests de penetración". Y, obviamente, para efectuar esas pruebas, necesitan desarrollar y conservar "armas digitales" que penetran. Ofensivas, pues.

Contratos a especialistas

Por otra parte, al menos una célula especializada de la base aérea BA 110 de Créil, al norte de París, trabaja en el desarrollo de armas digitales de combate, según fuentes del sector. En otro terreno, la DGSE, principal servicio de inteligencia exterior francés, ha recibido presupuesto para contratar a 100 ingenieros informáticos por año, para operaciones secretas de penetración en servidores ajenos. Especialmente solicitados son los especialistas en downgrading (capaces de transformar de manera invisible un protocolo seguro en otro que lo sea un poco menos), en retroconcepción (desmontar, como un motor en un garaje, el sistema de algoritmos del enemigo para comprenderlo), exploración de vulnerabilidades, sistemas de penetración furtivos y códigos ofuscados (sistemas de explotación cuyas líneas de código están pensadas para que resulten incomprensibles). Las candidaturas de estos expertos, por cierto, son aceptadas sólo por correo postal, y no por email.

Y poco más se puede saber oficialmente de lo que está haciendo en concreto un mundo que avanza bajo el sello top secret, pese a que sí hay algo que aparece ya a la luz: los presupuestos. El gigante francés Thales, por ejemplo, adelanta oficiosamente que negocia con el Gobierno francés y con la OTAN para el despliegue de sus búnkers informáticos Cybels y Nexium en el campo militar. "Para el Estado francés, el coste sería de varios cientos de millones de euros", explicó a Público el coronel de marina Stanislas de Maupeou, responsable de ciberdefensa en Thales y ex responsable del SGDN.

Comprender en qué están trabajando exactamente los ejércitos de Estados Unidos, China, Gran Bretaña, Francia, Rusia e Israel requiere lo que Claude Guéant, secretario general del Elíseo, calificó de "agilidad en la posición intelectual" y "capacidad para comprender y arrojar luz sobre las señales imperceptibles que envían nuestros enemigos invisibles y multiformes".

Diferentes escenarios

Tres escenarios principales, sacados de los actos de ciberguerra de los últimos años, están labrando la mentes de los estados mayores. El primero y más temido consiste en un ataque contra los llamados SCADA, es decir, los sistemas informatizados que gestionan infraestructuras críticas como plantas nucleares, red ferroviaria o aeropuertos: para los militares, es plausible pensar que puedan provocar "en los próximos quince años", según el Libro Blanco de Defensa francés destrozos similares o superiores a un bombardeo físico.

El segundo escenario es un ataque contra la parte visible de Internet, esto es, las webs y las intranets de administraciones clave, como presidencia, policía, impuestos y hospitales. El hundimiento de esas páginas provocaría caos y desprestigio de un Estado ante sus ciudadanos y ante las potencias extranjeras.

El tercer escenario prevé simplemente la integración de cualquiera de esos ataques informáticos en el marco de una secuencia clásica de guerra convencional.

Las soluciones de ciberbúnker, del tipo Cybels y Nexium, han tenido hasta ahora una aplicación civil para grandes empresas. Esos sistemas analizan, en tiempo real, los flujos entrantes y salientes de un sistema, para detectar automáticamente hasta 75 millones de "eventos". A partir de esos sucesos, escanean otros cientos de millones de procesos para estudiar si hay correlación con un eventual intento de ataque, con lo que localizan 85 "alertas posibles" al día, estudiadas más en profundidad. De ellas, entre cuatro y 10 deberán pasar cada día un examen humano efectuado por los 400 ingenieros que, por ejemplo, ocupan los ciberbúnkers de Thales.

Para la industria privada de altos vuelos, esa capacidad en tiempo real es la garantía frente a los crackers (delincuentes informáticos): se acaba la era de los llaneros solitarios. Para los ejércitos, esos centros de lucha de la guerra digital son la retaguardia sólida para contener en tiempo real los ataques desde servidores blindados, comprender la generación de ordenadores zombis que se pueden controlar desde un único ordenador y obedecen sus órdenes, identificar al atacante y lanzar contramedidas.

"El ciberespacio ya es un campo de batalla; es más, es el principal campo de batalla, porque hoy el funcionamiento de un Gobierno o un ejército en el campo de batalla real ya depende enteramente de las redes", explica Stanislas de Maupeou.

El 9 de junio pasado, Bernard Barbier, director técnico de la DGSE, es decir, jefe de sistemas de la agencia de acción-intervención, fue muy claro en la conferencia anual SSTIC de Rennes. "Francia lleva 10 años de retraso respecto a China", explicó, según relatan diversas fuentes presentes en el foro. Y confirmó que París va a quemar etapas. Eso sí: como la mayoría de las operaciones ofensivas previstas están prohibidas, serán efectuadas de manera furtiva y, cuando sea posible, desde fuera del territorio francés.

Por ANDRÉS PÉREZ CORRESPONSAL 27/06/2010 09:00 Actualizado: 27/06/2010 12:24
Publicado enInternacional
Washington, 23 de junio. El décimo aniversario de la decodificación del genoma humano está marcado por importantes avances en la comprensión de los mecanismos fundamentales de la vida, aunque sus aplicaciones médicas hasta el momento han sido modestas, según investigadores.

Este hallazgo y la identificación de numerosas variaciones genéticas también permitieron a los genetistas arrojar nueva luz sobre los orígenes y la evolución de la humanidad tras su emigración de África, hace 50 mil años, para conquistar el mundo.

Al anunciar que se había finalizado la primera decodificación del genoma humano el 26 de junio de 2000, tras 11 años de esfuerzos y 3 mil millones de dólares de inversión, el entonces presidente Bill Clinton dijo que con este nuevo saber la humanidad está a un paso de adquirir un inmenso poder de cura.

Este avance va a revolucionar el diagnóstico, la prevención y el tratamiento de la mayoría, si no todas las enfermedades, predijo.

Diez años después, es cierto que el Proyecto del Genoma Humano todavía no ha tenido efecto directo en los cuidados médicos de la mayoría de los individuos, reconoció recientemente Francis Collins, director de los Institutos Nacionales de la Salud (INS) y responsable del Consorcio Internacional de Secuenciación del Genoma Humano.

Un proyecto privado paralelo, Celera Genomics, lanzado en 1998 y dirigido por Craig Venter, logró decodificar el genoma humano al mismo tiempo que los investigadores del sector público.

Las aplicaciones en medicina clínica hasta ahora son modestas, aunque se han hecho algunos descubrimientos importantes, especialmente en lo que atañe al cáncer, prosiguió Francis Collins en un editorial publicado a fines de marzo en la revista británica Nature.

Collins citó el desarrollo de nuevos tratamientos anticancerígenos orientados a algunas funciones vitales de los tumores, pruebas genéticas capaces de determinar si las mujeres afectadas por cáncer de mama necesitan quimioterapia, y otras que permiten prever la respuesta de pacientes a más de una decena de medicamentos según su perfil genético. En cambio, un experimento para predecir el riesgo de enfermedades cardiacas no fue concluyente.

Recientemente la Administración de Alimentos y Fármacos de Estados Unidos (FDA, por sus siglas en inglés) autorizó el Prolia, una aplicación genómica de la firma biotecnológica Amgen para tratar la osteoporosis.

Hoy, cerca de 10 por ciento de las marcas de medicamentos –objeto de una solicitud de autorización de comercialización en la FDA– contienen informaciones fármaco-genómicas, fuerte aumento comparado con los años 90, destacó Margarett Hamburg en un editorial publicado a mediados de junio en el New England Journal of Medicine.

Pero esto no marca el límite del potencial de la medicina personalizada, agregó. A medida que avanza el campo de investigación, esperamos tener experimentos más eficaces basados en una mayor comprensión de los mecanismos genéticos de la enfermedad, explicó Hamburg.

Afp
Publicado enInternacional
Martes, 22 Junio 2010 17:35

Freno a la geoingeniería

Blanquear nubes, fertilizar el océano, tapar el sol, inyectar nanopartículas de azufre en la estratósfera, abrillantar los mares, "sembrar" miles de árboles artificiales, plantar millones de árboles para quemar como carbón y enterrarlos como "biochar", invadir las tierras con mega-plantaciones de transgénicos super brillantes para reflejar los rayos solares...
 
Suena como lista de delirios, pero son algunas de las propuestas "serias" de los que propugnan la geoingeniería como solución a la crisis climática.
 
La geoingeniería se refiere a la manipulación intencional de grandes trozos del planeta para, supuestamente, contrarrestar el cambio climático. Hasta hace poco era considerada ciencia ficción. Ahora, poderosos intereses económicos y políticos, presionan por llevarla a la práctica. En el último año, varias instituciones científicas de renombre –como la Sociedad Real del Reino Unido– se han prestado a publicar informes sobre geoingeniería, con escasa o nula participación de científicos críticos, concluyendo que "se debe financiar con recursos públicos la investigación y experimentación de la geoingeniería".
 
Los científicos que promueven la geoingeniería, alegan que como los políticos no se ponen de acuerdo para enfrentar el cambio climático, hay que tener preparado un "plan B". Reconocen que implica enorme riesgos, pero según ellos, no hay otra salida.
 
Después del fracaso de la cumbre del clima en Copenhague, paradójicamente provocado por los mismos gobiernos y empresas que causaron el cambio climático, científicos provenientes de esos mismos países convergen en decir que la democracia no es útil para enfrentar las crisis. Proclaman que ellos tendrán que salvar al planeta y a la humanidad, aunque sea a la fuerza y contra nuestra voluntad.
 
James Lovelock, famoso científico preocupado por el ambiente, declaró que "habrá que poner la democracia en pausa" ( The Guardian, 29/3/10). Para él, la única alternativa es manipular el clima con geoingeniería. Lo mismo expresa el científico canadiense David Keith, que en enero 2010 publicó en la revista Nature que urge "manejar la radiación solar", inyectando nanopartículas azufradas en la estratósfera, para que desvíen los rayos del sol. Esto imitaría la nube que se forma en una erupción volcánica, y quizá bajaría la temperatura global (teóricamente lo que sucedió con la erupción del volcán Pinatubo en 1991). Tendría muchos y gravísimos impactos y efectos colaterales no deseados, sobre todo en regiones al sur del mundo, muy lejos de los países de Keith y Lovelock, pero como aclara Keith "el manejo de la radiación solar tiene tres características esenciales: es rápida, barata e imperfecta".
 
Pese a eso, Keith aboga por experimentar con geoingeniería en campo a la brevedad, sin que haya intromisión de Naciones Unidas u otro tipo de supervisión multilateral, que solamente demorará lo que algunos científicos y unos cuantos hombres ricos y empresas pueden hacer sin que los molesten las instancias democráticas internacionales.
 
A principios de mayo 2010 salió a luz el proyecto de otros científicos, financiados con dinero de Bill Gates, para experimentar el "blanqueo de nubes", inyectando agua del mar desde barcos no tripulados en una superficie de 10,000 kilómetros cuadrados de océano. (http://www.etcgroup.org/es/node/5138). Argumentan que es "barato" y solamente un experimento. Pero en rigor, la etapa "experimental" no existe en geoingeniería. Para tener algún efecto sobre clima debe ser a mega-escala. Los que proponen blanquear las nubes para aumentar el reflejo de la luz del sol, reconocen que habría que cubrir cerca de la mitad del Océano Pacífico con barcos que lancen agua de mar a las nubes, para quizá tener algún efecto sobre el clima.
 
No son sólo científicos los que proponen la geoingeniería. Ellos proveen el discurso y las "capacidades" a los más interesados: grandes capitales y transnacionales, sobre todo empresas que hasta ahora negaban el cambio climático porque son los principales culpables (como petroleras, de carbón, energía). Ahora ven en la geoingeniería no como plan B, sino como plan A. Para ellos y gobiernos como Estados Unidos y Reino Unido, la geoingeniería es la solución "perfecta" al cambio climático: no hay que cambiar nada, se puede seguir contaminando y emitiendo gases de efecto invernadero, porque podrían enfriar el planeta permanentemente, lo cual además les reportará lucros adicionales. El discurso de que "todos" somos igualmente responsables de las crisis climáticas y ambientales y que la democracia no sirve, les viene de perillas para tener aún más impunidad. Ahora hasta parece que nos están salvando.
 
Frente a estas tropelías, se creó en el marco de la reciente Cumbre de los Pueblos frente al Cambio Climático en Cochabamba, la campaña "No manipulen la tierra", que ya cuenta con la adhesión de más de 100 organizaciones y grandes redes internacionales de ambientalistas, campesinos, indígenas y otras. La demanda central es prohibir la geoingeniería y cambiar las causas reales de la crisis climática. (http://www.nomanipulenlamadretierra.org/)
 
Un primer logro a nivel internacional, es que un cuerpo de asesoramiento científico técnico de Naciones Unidas, acordó el 14 de mayo 2010, en Nairobi, Kenya, recomendar al Convenio de Diversidad Biológica establecer una moratoria sobre la geoingeniería, por los impactos que puede tener sobre la biodiversidad y las formas de vida relacionadas a ella. Un primer paso de una lucha que será dura, pero que cada vez cuenta con una oposición mayor desde todos los rincones del planeta.
 
Por Silvia Ribeiro, investigadora del Grupo ETC.
Publicado enInternacional