El estudio más relevante de 2010 no es la secuenciación del genoma del neandertal ni la supuesta célula sintética de Craig Venter. Según la revista Science, editada por la mayor sociedad científica del mundo, el puesto de honor es para la primera máquina cuántica, cuyo corazón es una pequeña tira de aluminio visible a simple vista y que tiene de largo lo que un pelo tiene de ancho.

El ingenio, presentado en marzo de este año en Nature, es como un trampolín para lanzarse a otro mundo. Es el reino de la física cuántica, que gobierna el movimiento de los átomos, los electrones y las moléculas y donde las unidades de medida son la micra y el nanómetro (una milésisma y una millonésima de milímetro, respectivamente). A esta escala sólo existen probabilidades de que algo suceda, así que, hasta que un hombre lo observa, un gato en peligro de muerte puede estar vivo y muerto al mismo tiempo, como propuso en 1935 Erwin Schrödinger, uno de los ases de la mecánica cuántica.

Extender estas reglas al mundo visible haría realidad fantasías de la ciencia ficción como las capas de invisibilidad o la teletransportación, aunque nadie sabe aún si es posible.

El invento destacado este año por Science y sus editores, la Asociación Estadounidense para el Avance de la Ciencia (AAAS), demuestra un primer paso, el primer objeto visible y fabricado por el ser humano que se comporta según las leyes de la física cuántica. "Hemos construido algo que puede estar en dos sitios a la vez y en dos estados al mismo tiempo", explica a Público Andrew Cleland, investigador de la Universidad de California en Santa Bárbara (EEUU) y uno de los creadores del ingenio.

De alguna forma, el trabajo pulveriza un gran muro. "Hemos mostrado que la mecánica cuántica es la descripción correcta de cómo funciona la materia a todas las escalas, aunque las predicciones de la teoría cuántica sean tan opuestas a nuestra experiencia del mundo real", aventura Cleland.

Science ha premiado al equipo por "la ruptura conceptual que presenta este experimento" y "sus muchas aplicaciones".

Entre ellas está una nueva generación de computadores millones de veces más potentes que los actuales y que funcionarían con qubits, bits del mundo cuántico que pueden reproducir un 0, un 1 o ambos a la vez.

La laminilla de aluminio de Cleland hace las veces de qubit. Una vez enfriada a casi el cero absoluto (-273ºC) para evitar que el calor cause en ella vibraciones, logra reproducir el estado fundamental de menor energía en el mundo cuántico, es decir, lo más parecido que hay a estar quieto para un átomo o una molécula. Desde este punto, los posibles estados "son casi infinitos", como explica Emilio Elizalde, físico del Instituto de Ciencias del Espacio (CSIC), pero la energía se gana o se pierde siempre en paquetes de magnitud determinada llamados "cuantos". Cleland inyectó y luego extrajo un cuanto a su trampolín y demostró que este podía estar quieto y en movimiento a la vez. Para ello tuvo que hacer millones de mediciones y extraer probabilidades de que estuviese en uno u otro estado o en ambos para así conjurar el efecto anunciado por Schrödinger y su gato.

"El experimento tiene una dificultad técnica muy grande, pero no es tan rompedor", opina Elizalde. "Abre la puerta hacia el ordenador cuántico pero no ha roto ninguna barrera ya que el láser [descubierto en 1953] ya era una consecuencia macroscópica de la física cuántica", señala.
Finalistas

Science también cita otros nueve estudios de 2010 que han quedado como finalistas para el primer premio. Los dos primeros son las células sintéticas de Craig Venter, cuyo genoma, ensamblado en un laboratorio, contenía citas de James Joyce, y la secuenciación del genoma del neandertal, que demuestra que el Homo sapiens se cruzó varias veces con esta especie y que aún conserva restos de ADN neandertal.

Otros trabajos destacados son los recientes éxitos de dos terapias experimentales para prevenir el sida y los estudios genéticos a gran escala como el proyecto de los 1.000 Genomas, que son ahora posibles gracias al imparable avance de la tecnología para secuenciar ADN. "Es una selección basada en futuras aplicaciones", comenta Carles Lalueza-Fox, coautor del estudio sobre el genoma neandertal. "Es imposible determinar hoy su impacto. En 1890 nunca hubieran elegido a Vincent Van Gogh como pintor del año", opina.

Los diez descubrimientos de la década según ‘Science'


El lado oscuro del genoma
Hasta que se publicó por primera vez el genoma humano, las cosas parecían claras: el ADN era el encargado de indicar al cuerpo cómo construir las proteínas y las instrucciones estaban escritas en los genes. Entre estos, había secuencias del genoma que no codificaban nada, a las que se bautizó como "ADN basura". La ciencia se encargó en esta década de dar la vuelta a este concepto y el ADN basura resultó no serlo y tener, sin embargo, un papel destacado en muchos procesos biológicos, incluyendo enfermedades como el cáncer. Al final, lo cierto es que parte de este tipo de ADN sí codifica proteínas y se puede utilizar, de hecho, para cerrar genes defectuosos.

La receta del universo
Los científicos ya tienen en su recetario los ingredientes para cocinar un universo. Según los últimos cálculos, hace falta una pizca de materia, como estrellas y planetas, que supone el 4,5% del universo; una buena cantidad de la misteriosa materia oscura, cuya gravedad sostiene las galaxias, y que suma el 22,7%; y grandes cantidades de energía oscura, hasta el 72,8%, y que sirve para acelerar la expansión del universo. Estos ingredientes se conocían en el siglo XX, y las pruebas de la existencia de la energía oscura datan de 1998, pero en los últimos años se ha podido concretar una teoría rigurosa de la formación del universo y un relato ajustado de su origen.

El tiempo viaja en ADN
Las herramientas para explorar el genoma humano han permitido que se desarrollara un nuevo campo de investigación de la vida prehistórica, el del ADN fósil. Y todo gracias a estas pequeñas máquinas del tiempo, las biomoléculas que sobrevivieron durante miles de años, que permiten conocer el genoma del neandertal, un trabajo completado este mismo año. Con la paleogenética se ha llegado a saber que buena parte de los neandertales eran pelirrojos de piel clara, pero también importantes detalles sobre relaciones familiares de especies ya extinguidas, como la cercanía de los dinosaurios a los pájaros actuales, mucho mayor que a los reptiles.

Hielo marciano
El 31 de julio de 2008, la NASA confirmaba la existencia de restos de hielo en las muestras del suelo marciano obtenidas por la sonda Phoenix. Se trata de una de las muchas evidencias de agua en el planeta rojo recabadas durante la última década, gracias a las misiones que se han realizado para explorarlo, como la sonda

Pathfinder o la Odyssey. Aunque en mucha menor proporción que en la Tierra, existen grandes cantidades de agua helada en glaciares y casquetes polares, aunque también existe agua en estado gaseoso en la atmósfera en proporciones ínfimas. La capa de hielo perpetuo del norte del planeta comprende unos 1.000 kilómetros de diámetro.

Células que se reescriben
Las células adultas capaces de reprogramarse no sólo es uno de los hallazgos de esta década sino que, seguramente, de este hecho se deriven grandes avances en un futuro cercano. El hito que logró el investigador japonés Shinya Yamanaka en 2006 desafiaba una creencia inamovible de la biología: que en el camino de desarrollo de un embrión, una vez que una célula se diferencia no puede volver atrás para convertirse en otro tipo de célula. Sin embargo, Yamanaka demostró que al añadir copias extra de cuatro genes a células adultas de ratón, estas pasaban a ser pluripotenciales. El hito se ha reproducido varias veces en células humanas.

Los amigos microbios
Esta década se recordará como el momento en que los microbios dejaron de ser enemigos de la humanidad para reconocerse como parte fundamental del organismo. Desde que el Nobel Joshua Lederberg abogó en el año 2000 en Science por el fin de la filosofía "nosotros somos el bien; ellos el mal", ha habido muchos avances en torno al microbioma, la ciencia que estudia cómo conviven en el cuerpo bacterias, virus y microbios. Desde entonces, se ha descubierto que los microbios afectan a la energía que absorbe el cuerpo y que algunas bacterias protegen frente a enfermedades, entre otros hallazgos.

Nuevos mundos
En este momento, se cuenta con un catálogo de 510 exoplanetas confirmados -planetas que orbitan en torno a estrellas distintas al Sol- en 422 sistemas planetarios distintos. Aunque el primer exoplaneta se halló en 1992, ha sido durante esta década cuando su registro se ha disparado, hasta el punto que se han creado aplicaciones de iPhone que informan de nuevos descubrimientos. La gran cantidad de ejemplos permite realizar un retrato más ajustado de las características que definen a estos mundos ajenos al Sistema Solar, en su mayoría gigantes de gas, aunque también abundan pequeñas Tierras.

Inflamación enemiga
Hasta hace relativamente poco tiempo, con la inflamación pasaba como con la fiebre: se pensaba que era una reacción del organismo para defenderse de agresiones. Algo, por lo tanto, positivo. Pero las cosas empezaron a cambiar cuando, a finales de la década de 1980, investigadores de la Universidad de Washington observaron macrófagos (células del sistema inmune, típicas de la inflamación) en tejido aterosclerótico. Desde entonces, todo fueron descubrimientos negativos, habiéndose demostrado en esta década la relación de la inflamación con el alzhéimer, el cáncer, la diabetes y la obesidad.

Materiales invisibles
La posibilidad de manipular la materia a niveles nanométricos (un millón de veces menor que un milímetro) podría generar lentes mucho más potentes que las que usan los microscopios actuales o generar capas de invisibilidad. Si esto llega a ser posible, será gracias a los metamateriales, hechos de bastones o anillos diminutos cuya disposición puede conducir o reflejar la luz de formas inusitadas. Estos materiales podrían usarse para crear superlentes capaces de concentrar diez veces más luz que una lente convencional o de reflejarla de forma que hagan invisible el objeto que cubren.

Camino del desastre
Durante esta década, la idea del calentamiento del planeta -de carácter antropogénico, por la emisión a la atmósfera de gases de efecto invernadero- se ha consolidado entre la comunidad científica (hasta un 97%, según datos oficiales), un consenso que llegó en 2007, cuando el panel de científicos de la ONU aseguró que era "inequívoco". Pero, resalta Science, a pesar de evidencias como el derretimiento de los glaciares o la acidificación de los mares, es una verdad científica que se ha encontrado de frente con la política, que no está asumiendo su papel para contrarrestarlo.
Publicado enInternacional
Científicos especializados en investigación con células madre hallaron la forma de convertir piel humana en sangre, algo prometedor para el tratamiento del cáncer y otras enfermedades, según un estudio canadiense publicado el domingo por la revista Nature. 

Los expertos extrajeron células de un trozo de 4 por 3 cm de piel humana adulta y la transformaron en células sanguíneas con igual información genética, sin recurrir a células madre embrionarias como ya se había aplicado tiempo atrás.  

El descubrimiento fue hecho por un  grupo de científicos de la Universidad McMaster de Canadá dirigidos por el doctor Mick Bhatia, y entre los que se encuentra la investigadora española Ruth M. Risueño.  

“Esencialmente hemos revelado el método que nos permite tomar células de la piel de adultos y transformarlas en progenitores de sangre, células sanguíneas, sin que tengan que pasar una etapa intermedia que son las células madre pluripotentes inducidas (IPS)”, explicó el doctor Bathia a la agencia EFE.

El científico añadió que   utilizaron  dos clases de células de la piel. El equipo investigó células de recién nacidos así como las de sujetos mayores. “Y al menos para esos casos, el resultado fue prácticamente lo mismo”, señaló el  director del Instituto de Investigación de Células Madre y Cáncer de la Universidad McMaster.  “Creemos que en el futuro podremos generar sangre de forma mucho más eficiente”, acotó. 

La perspectiva de  crear sangre para un paciente con su propia piel permite pensar que algún día quienes necesitan transfusiones ya no dependerán de un banco de sangre. También podría permitir a los enfermos soportar tratamientos más extensos de quimioterapia, sin las interrupciones que actualmente son necesarias para que el cuerpo pueda regenerarse, precisaron los científicos.  

La investigadora española Ruth Risueño, la tercera firmante del artículo, explicó   que el proceso fue descubierto cuando estaban generando las IPS con los factores ya descritos clásicos, y observaron que había unas células en los cultivos que recordaban en la morfología a las células sanguíneas.
La investigadora  añadió: “La primera población sanguínea que nos aparece sería una de tipo progenitor y somos capaces de diferenciarla en (las células sanguíneas) eritrocitos, mieloides, monocitos y granulocitos”. 

Tanto Bhatia como Risueño advirtieron que el trabajo   es la investigación básica y que antes de ver resultados prácticos aplicados a pacientes se tendrán que cumplir muchas otras etapas, especialmente en los aspectos de seguridad, pero las posibilidades que se abren pueden ser radicales.

“Vemos muchos caminos. Estamos pensando desde luego en pacientes con leucemia. En esos casos, el sistema sanguíneo sufre un cambio genético por el que se convierte en cancerígeno. Por eso, esos pacientes no pueden donar sangre a sí mismos”, manifestó  Bhatia.

La doctora Risueño, por su parte, cree que las primeras aplicaciones prácticas irían a la medicina transfusional. “Una de las limitaciones que hay en las transfusiones sanguíneas es la falta de sangre, de glóbulos rojos, ya sea por cantidad o compatibilidad”.

El investigador canadiense informó  que su equipo médico está trabajando ahora en intentar transformar las células de la piel en células cerebrales.

“Pero creo que también expandirá las ideas de la gente de que las células de la piel pueden ser transformadas directamente en otros tipos de células, y específicamente nuestro laboratorio y otros estamos muy interesados en células del cerebro, neuronas”, agregó.

EFE/AFP
Toronto, Canadá
Publicado enInternacional
Sábado, 06 Noviembre 2010 07:31

¿Geoingeniería? ¡No, gracias!

El 29 de octubre 2010, Naciones Unidas, aplicando el principio de precaución, adoptó una moratoria global a la geoingeniería, reconociendo que son tecnologías de alto riesgo que tendrían impactos en la biodiversidad y mucho más. Es un freno a las iniciativas privadas y públicas que pretendían apropiarse del control del termostato global, con el negocio de manipular el clima para enfriar el planeta —del calentamiento global que provocan los mismos países y empresas que promueven la geoingeniería.

La geoingeniería incluye una serie de tecnologías a mega-escala, como inyectar partículas de sulfato en la estratosfera para tapar parte de la luz del sol —imitando una erupción volcánica, con consecuencias similares y peores a las que tienen las erupciones volcánicas naturales—, blanquear nubes, echar toneladas de partículas de hierro o urea para fertilizar los oceános y absorber carbono, plantar masivamente cultivos y árboles transgénicos reflejantes, o para quemar como carbón vegetal o biochar, supuestamente para aumentar la fertilidad del suelo y su capacidad de absorción de carbono.

Cada tecnología de geoingeniería tiene fuertes impactos, diferentes según la tecnología propuesta. Todas comparten ciertos peligros: para tener efectos sobre el clima, deberían desplegarse a escala masiva y por tanto afectarían un sistema global, interconectado y poco conocido como es el clima, con consecuencias imprevisibles sobre muchas regiones del planeta, que no sabrían qué fue lo que las afectó. Al modificar el clima -o por las tecnologías usadas- habría también fuertes impactos sobre la biodiversidad, particularmente sobre ecosistemas ya frágiles y vulnerables, de los que dependen directamente millones de personas en comunidades indígenas y campesinas.

La geoingeniería es además un arma de guerra potencial, de lo cual hay precedentes comprobados: documentos ahora desclasificados muestran que Estados Unidos usó manipulación climática como arma durante la guerra de Vietnam.

Significativamente, los que antes negaban que existiera cambio climático (gobiernos e institutos seudo-científicos pagados por las petroleras), ahora aceptan que existe, pero promueven la geoingeniería. Es una excusa perfecta para los países que se niegan a reducir sus emisiones. Podrían seguir emitiendo gases que provocan calentamiento global, al tiempo que aplican geoingeniería para enfriar el planeta y cobrar por ello: tanto en créditos de carbono por absorber gases, como por el despliegue y uso de las tecnologías. Negocio redondo.

La moratoria adoptada en la décima conferencia de las partes del Convenio de Diversidad Biológica, reunido en Japón, sale al cruce de estos planes, llamando a no desarrollar ningún proyecto o experimento de geoingeniería de fuente pública o privada, como mínimo hasta que se evalúen los riesgos para el ambiente, la biodiversidad y los impactos económicos y culturales asociados, además de otras condiciones.

Es un mensaje fuerte para los poderosos grupos económicos y unos cuantos gobiernos que estaban preparándose para experimentar con manipulación climática o quizá ya haciéndolo sin explicitarlo. Es también un mensaje a los pueblos y gobiernos del planeta de la necesidad de encarar y estar alertas en este nuevo tema, por los altos riesgos que conlleva y el hecho de hay poderosos intereses empujándolo.

El Grupo ETC comenzó a denunciar la geoingeniería hace algunos años, pero fue en la Cumbre Mundial de los Pueblos sobre Cambio Climático y Derechos de la Madre Tierra, convocada por el gobierno boliviano en abril 2010 en Cochabamba, donde se lanzó una campaña mundial contra estas tecnologías, con la participación de cientos de organizaciones y redes ambientales, campesinas, indígenas, de mujeres y otras. (www.nomanipulenlamadretierra.org)

La demanda de una prohibición global a la geoingeniería se recogió en el Acuerdo de los Pueblos surgido de este encuentro mundial que reunió 35,000 participantes de 142 países. Posteriormente el Estado Plurinacional de Bolivia lo introdujo como demanda en las negociaciones de cambio climático.

La moratoria a la geoingeniería, al haberse adoptado como una decisión de consenso de 193 gobiernos, con la presencia de 110 ministros, fue una fuerte pulseada de intereses contrapuestos, y por tanto resultó limitada en algunos aspectos. Por ejemplo, basada en un aspecto técnico discutible, excluye provisoriamente de la definición de geoingeniería a la llamada captura y almacenamiento de dióxido de carbono proveniente de extracción de combustibles fósiles (CCS por sus siglas en inglés), cuando ésta se realiza antes de emitir los gases a la atmósfera. Aunque la definición está sujeta a revisión futura en el CBD, Bolivia hizo que constara en actas su reserva contra esta exclusión, dejando en claro que no implica ninguna forma de aceptación de esta tecnología y los impactos que conlleva.

Esto fue parte además, de la denuncia por parte de Bolivia y los países del ALBA, del intento de privatizar y mercantilizar la naturaleza en esquemas de pagos de servicios ambientales y otros mecanismos de financiación innovadores para cobrar créditos de carbono por la biodiversidad.

La moratoria contra la geoingeniería es una victoria, pero no significa que esta lucha concluye. Varios temas directamente relacionados saldrán en las próximas negociaciones sobre el clima en Cancún. Estados Unidos lanzó el mismo día de la moratoria un informe oficial sobre formas de regulación y aplicación de la geoingeniería. Para mantener y hacer válida la moratoria se necesitará seguir alertas desde la sociedad y denunciar cualquier intento de violarla, al tiempo que prepararnos para fortalecerla y seguir denunciando las falsas soluciones contra la crisis climática.

Silvia Ribeiro*
*Investigadora del Grupo ETC

Más información sobre geoingeniería y texto de la moratoria en www.etcgroup.org
Publicado enInternacional
Londres/Berlín/Heidelberg, 28 de octubre. Cada persona tiene en promedio entre 50 y 100 variantes genéticas de enfermedades hereditarias, informaron expertos con base en el análisis de datos de la fase piloto del Proyecto de los 1000 Genomas.

Que uno posea un gen mutado no significa automáticamente que desarrolle una enfermedad, subrayó Ralf Sudbrak del Instituto Max Planck de Genética Molecular en Berlín, Alemania, que participa en el proyecto que comenzó en 2008. En general, la aparición de una enfermedad ocurre por una combinación de predisposición genética e influencia ambiental.

Los resultados preliminares de la investigación, que prevé la elaboración del mapa más amplio de las variantes del genoma humano, fue publicado en la revista británica Nature. La finalidad del Proyecto de los 1000 Genomas es determinar las innumerables diferencias genéticas del ser humano.

Los conocimientos obtenidos y las nuevas técnicas deben ser usadas para investigar el papel de las mutaciones en la aparición de enfermedades, como por ejemplo el cáncer.

La biblioteca de ADN obtenida será puesta a disposición de la opinión pública y se espera que contenga alrededor de 95 por ciento de las variantes genéticas de todas las personas.

Los investigadores tienen previsto para finales de 2012 descifrar el genoma de 2 mil 500 personas de cinco grupos poblacionales. El genoma de un humano está formado por unos 3 mil millones de pares de bases. Al comienzo del proyecto se anunció la participación de al menos mil personas.

La fase piloto comprende datos de más de 800 personas, cuyo genoma fue analizado con diferente grado de detalle. Cada persona posee hasta unas 250 o 300 mutaciones que pueden causar una falla en la expresión del gen afectado.

Hace 10 años, los investigadores estadunidenses Craig Venter y Francis Collins presentaron una versión preliminar del genoma humano. Desde entonces se identificaron mutaciones genéticas, que predisponen la aparición de obesidad, diabetes o enfermedades del sistema circulatorio.

Sin embargo, en gran parte, estas variantes no pueden explicar defectos genéticos que fueron identificados en las familias afectadas, indicó el experto Rasmus Nielsen, de la Universidad de Berkeley, en California, en un comentario publicado en Nature, Una causa de ello podría ser que la aparición de enfermedades se deba a mutaciones raras, que todavía no fueron identificadas.

Justamente la detección de estas variantes raras es uno de los objetivos del Proyecto de los 1000 Genomas.

Enfermedad y mutación

Hay enfermedades que tienen como causa una mutación en un único gen, como por ejemplo la enfermedad de Huntington. Sin embargo, muchas enfermedades se desarrollan a partir de una interacción de muchas mutaciones genéticas, dijo Hans Lehrach, del Instituto Max Planck de Genética Molecular, en Berlín.

Además, muchas enfermedades hereditarias aparecen sólo cuando las dos copias de un gen están modificadas, agregó Sudbrak.

El ser humano tiene 23 pares de cromosomas. De la gran mayoría de los genes hay dos copias. Si una copia esta dañada, la sana puede tener un efecto corrector.

Los investigadores se acercaron a su objetivo por tres caminos diferentes: descifraron gran parte del genoma de dos matrimonios y sus respectivas hijas. Una familia es originaria de Nigeria, mientras la otra es de Utah y tiene antepasados europeos. Los expertos determinaron que los hijos tenían alrededor de 60 mutaciones genéticas que no fueron heredadas de sus padres.

Por otra parte, los especialistas secuenciaron parte de los genomas de 179 personas de Nigeria, Estados Unidos, China y Japón, además de analizar exones –fragmentos de ADN que contienen la información para fabricar la proteína codificada en el gen– de 697 personas de siete grupos poblacionales.

Dpa
Publicado enInternacional
Viernes, 08 Octubre 2010 06:31

Sicología, sicoanálisis y crueldad

En una época que se afana por prestigiar la investigación experimental, la tecnología de punta y la comunicación a través de los mass media, de los datos verificables y cuantificables, de las verdades absolutas (?) ¿Cómo transmutar en análisis experimentales unas imágenes que no llegan a la conciencia y que la mágica sutileza del sicoanálisis, no reclama de nosotros otra realidad que ha de vivirse transportando a otro campo que se nos va de las manos? ¿Cómo transmutarlo si es el sicoanálisis con su instinto de muerte un reactivo al revés, una inopinada visión retrospectiva de lo que es y no es? Si el mundo se nos revela con ínfulas de urbanidad electrónica suprema, pero desmentido por las disonancia de una agitación estruendosa –guerras, hambre, terrorismo, crueldad, tortura, corrupción, violencia y desintegración familiar, desigualdad social, violación de los más elementales derechos humanos–, que lo invade todo, que se diría ser, una etapa masiva de cientificidad, que haga un hombre en trance de transformación y traslado, una partícula perfectamente hábil y anodina para el cumplimiento de unos fines que rebasan a la razón, pero lo adaptan a vivir en sociedad, y cuya finalidad nadie penetra.

El instinto de muerte freudiano es anterior a este desmando crítico, perpetuamente tornadizo apresado en garras de eternidad. Tratar de detener lo que se nos escapa, se nos va de las manos, en un laboratorio es cosa vana. ¿Es la materia la que queda o la que se va, la que se transforma, la que se traspone? ¿Y, las formas se pierden o, más bien, se repiten, se eternizan como anunciaba Sigmund Freud en Más allá del principio del placer? ¿Qué da movimiento al instinto de muerte, a la crueldad, a la violencia y a la tortura?

Freud amplía la noción de sique y al lado opuesto de la razón encuentra el inconsciente, y en oposición al instinto de vida encuentra el de muerte; estableciendo de este modo la posibilidad de concebir, como parte constitutiva de lo humano, esa fuerza contraria a la razón, determinante para explicar lo que hasta entonces había quedado inaccesible a la ciencia.

Esta pulsión es parte constitutiva tanto de la víctima como del victimario, pero que es lo que conduce al victimario enceguecido a infligirle a la víctima el sufrimiento, la tortura y a privarle de la vida, mientras que la víctima puede mantener en sus cauces esta parte pulsional sin atentar contra los derechos de los demás. ¿Qué circunstancias son las que condicionan que en algunos individuos la pulsión de vida (ligadora) predomine sobre la pulsión de muerte (desligadora)?

Los seres humanos no somos ni totalmente lobos ni totalmente corderos. En la clínica sicoanalítica vemos frecuentemente aquello que ya Freud había señalado en cuanto a la pulsión de destrucción. Nos encontramos con individuos que ocupan el lugar de víctima, pero que asimismo ejercen de victimarios con otras personas. En otros casos la pulsión de muerte los conduce a la propia autodestrucción no sin la fantasía inconsciente (por ejemplo, los suicidas) de que al matarse matan al otro que llevan consigo en el interior.

Lo que pretendo destacar con esta reflexión es que no basta con legislaciones ni con marcos jurídicos, ni con debates sobre la legalización de la pena de muerte para intentar abordar un problema tan complejo como la violencia y la delincuencia. Sería conveniente profundizar en la complejidad de la naturaleza humana y en esa fuerza oscura y silenciosa que es la pulsión de muerte.

Freud no es aceptado por la academia positivista propietaria de la ciencia, porque ésta es hija de la razón, y la razón no acepta al inconsciente, al no ser medible, ni predecible ni verificable.

Es el siglo XX, ¿y lo será el XXI? el de la ciencia de los hechos, el método experimental, el de intervenir en su conjunto, incluyendo al hombre dándole las formas más caprichosas. La estructura del universo se va descifrando por la actitud omnipotente del hombre que no considera límites físicos, ni sociales, ni morales a sus actos, pues cree que el mismo ser es quien los inventó.

Sin embargo, tanto cientificismo que deja de lado a la sicología de las profundidades de Freud no ha podido, sino por el contrario, frenar la descomposición social y la violencia y capacidad de la destructividad humana. No es ignorando al inconsciente y a la parte negra que nos habita y constituye como lograremos, si es que es posible dar todavía esperanza al futuro de la humanidad.

De nada ha servido la ciencia medible, precisa y aséptica que ha dado paso a la creación de tecnología de punta para crear armamento sofisticado para matar y aniquilar. Hartos estamos de escuchar discursos cargados de estulticia donde se habla y actúa desde la prepotencia imperialista de bombas Inteligentes, guerras (léase masacres) preventivas. Ya no cabe el engaño.

A pesar de la manipulación y el uso alevoso y perverso de los mass media, las imágenes de tortura no hacen sino constatar que hemos perdido el rumbo. Quizá aún haya tiempo de enmendar tantos errores. Pero para ello habrá que estudiar con más profundidad la naturaleza humana.

Por José Cueli
Publicado enInternacional
Miércoles, 08 Septiembre 2010 06:56

EEUU se prepara para golpear el mundo en Internet

Después del 1 de octubre miles de piratas informáticos, que trabajan como espías militares de Estados Unidos, se involucrarán en pleno a sus actividades de guerra cibernética.

Las declaraciones para adoptar medidas de defensa cibernética se pueden escuchar con más frecuencia en los EE.UU.. Analistas de ese país afirman que la información volcada a las redes de comunicación, de lo cual depende su infraestructura nacional, son vulnerables a los delincuentes cibernéticos.

El tema de la defensa del ciberespacio es de máxima prioridad no sólo para los EE.UU. “Las estadísticas revelan que los cibercriminales han subido la apuesta y se están volviendo más sofisticados y creativos en la distribución de formas más agresivas de software maliciosos (malware)”, según el sitio gubernamental Defence IQ.

“Nuestras estadísticas muestran que los troyanos y rogueware (’falsos’ programas antivirus) ascendieron a casi el 85 por ciento del total de la actividad del malware en el 2009. Este fue también el año del Conficker (un gusano cibernético de alto poder de destrucción), aunque esto oculta el hecho de que los gusanos clasificados son sólo el 3,42 por ciento de los malware creados el año pasado “, afirma la revista.

“El gusano Conficker ha causado graves problemas, tanto en ambientes domésticos y corporativos, con más de 7 millones de ordenadores infectados en todo el mundo, y se sigue propagando rápidamente” (1).

Sin embargo, parece que los EEUU están demasiado preocupados por el problema de la defensa cibernética en comparación con otros países. El 26 de abril la CIA dio a conocer sus planes para nuevas iniciativas en la lucha contra los ataques basados en la web. El documento describe los planes para los próximos cinco años y el director de la CIA, León Pannetta, dijo que es “vital para la CIA estar un paso delante del juego cuando se trata de retos como la seguridad en el ciberespacio” (2).

En mayo de 2009 la Casa Blanca aprobó el Protocolo para las Políticas en el Ciberespacio (3), presentado al Presidente de los EEUU. por los miembros de una comisión especial. El documento resume el estado de la red de EEUU y la seguridad de la información nacional. Es el documento que propuso nombrar a un alto oficial para la ciberseguridad encargado de coordinar las políticas de ciberseguridad de EE.UU. y sus actividades.

El informe describe un nuevo marco global para facilitar la respuesta coordinada por parte del gobierno, el sector privado y los aliados en caso de un incidente cibernético significativo. El nuevo sistema de coordinación permitiría a federales, estatales, locales y tribales trabajar anticipadamente con la industria para mejorar los planes y recursos disponibles para detectar, prevenir y responder a incidentes significativos en seguridad cibernética. La iniciativa también supone proporcionar a estas instancias datos de inteligencia y opciones de carácter técnico y funcional, además de garantizarles la formación de nuevos especialistas en la defensa cibernética.

Y un último paso pero no menos importante: a mediados de 2010, la base aérea de Lackland, en Texas, comenzó la construcción del primer centro especializado de inteligencia virtual, donde ya trabajan unos 400 especialistas. El 68 Escuadrón de Guerra de Redes (The 68th Network Warfare Squadron) y el 710 Escuadrón de Inteligencia de Vuelos (710th Information Operations Flight), de la Fuerza Aérea, fueron trasladados a San Antonio. Este lugar se eligió porque está cerca de instalaciones militares que contemplan operaciones de ciberguerra, como la Agencia para la Inteligencia, la Vigilancia y el Reconocimiento de la Fuerza Aérea y el Centro Criptología de Texas, de la Agencia de Seguridad Nacional, que comandan operaciones de información y criptología para el apoyo de la Fuerza Aérea de los Estados Unidos. Funcionarán integrados a los intereses del Comando Espacial, el Comando de la Fuerza Aérea y la Reserva de la Fuerza Aérea de los Estados Unidos.

Numerosas publicaciones de EEUU. muestran que la reforma de las fuerzas cibernéticas para la defensa nacional, así como la introducción de la doctrina y la estrategia de la guerra cibernética están a punto de completarse. En cuanto a la estrategia para la ciberguerra de EE.UU podemos suponer que está en consonancia con el concepto general de la ofensiva militar global de EE.UU.

William Lynn III en su artículo “La Ciberestrategia del Pentágono”, publicado en la revista Foreign Affairs (septiembre/octubre de 2010), expone cinco principios básicos de la estrategia de guerra del futuro:

- El ciberespacio debe ser reconocido como un terroritorio de dominio igual a la guerra por tierra, mar y aire;

- Cualquier postura defensiva debe ir más allá “de la buena preparación o higiene” e incluir operaciones sofisticadas y precisas que permitan una respuesta rápida;

- La Defensa Ciberespacial debe ir más allá del mundo de las redes militares del Departamento de Defensa, para llegar hasta las redes comerciales, que también se subordinan al concepto de Seguridad Nacional;

- La estrategia de Defensa Ciberespacial debe llevarse a cabo con los aliados internacionales para una efectiva política “de advertencia compartida” ante las amenazas, y

- El Departamento de Defensa debe contribuir al mantenimiento y aprovechar el dominio tecnológico de los Estados Unidos para mejorar el proceso de adquisiciones y mantenerse al día con la velocidad y la agilidad de la industria de la tecnología de la información (4).

Al comentar este artículo los analistas señalan que “las capacidades que se buscan permitirán a los ciber-guerreros de EEUU engañar, negar, interrumpir, degradar y destruir la información y los ordenadores en todo el mundo” (5).

El general Keith Alexander, jefe del nuevo super Cibercomando del Pentágono (ARFORCYBER), afirmó: “Tenemos que tener capacidad ofensiva, lo que significa que, en tiempo real, seremos capaces de aniquilar a cualquiera que trate de atacarnos”. Keith Alexander comparó los ataques cibernéticos con las armas de destrucción masiva, y de acuerdo con sus recientes declaraciones los EEUU tienen previsto la aplicación ofensiva de este nuevo concepto de guerra.

Mientras Washington acusa a otros países de ayudar o patrocinar el terrorismo cibernético (las estadísticas oficiales estadounidenses acusan a China de la mayoría de los ataques informáticos contra los sistemas de EEUU), las fuerzas especiales de Estados Unidos se emplean a fondo en la formación del nuevo personal para las guerras cibernéticas.

El comando -formado por 1.000 hackers de élite y espías militares subordinados a un general de cuatro estrellas- es el eje de la nueva estrategia del Pentágono y se espera que sea plenamente operativa el 1 de octubre, según The Washington Post (6).

El Departamento de Defensa tiene “15.000 redes y 7 millones de dispositivos informáticos en uso en decenas de países, con 90.000 personas trabajando para mantener esas redes, cuyas operaciones depende en gran medida de las empresas comerciales” (7). Atraer a los aliados y a las empresas privadas que trabajan en el ámbito de las tecnologías de la información y de la seguridad es la propuesta de los Estados Unidos para establecer el nuevo orden en el espacio cibernético global.

Teniendo en cuenta todo esto, ¿qué podemos esperar? Es muy probable que podamos esperar el espionaje a través de puertas traseras, gracias a los software de compañías bien conocidas como Microsoft, además del bloqueo informativo, que limite dramáticamente el acceso a fuentes alternativas de información. De modo que a partir del 1 de octubre, todos los logros de la era de la información podrían ser cuestionados.

(1) http://www.defenceiq.com/article.cfm?externalID=2718

(2) http://www.defenceiq.com/article.cfm?externalID=2460

(3) http://www.whitehouse.gov/assets/documents/Cyberspace_Policy_Review_final.pdf

(4), William J. Lynn III W. “La defensa de un nuevo dominio: Ciberestrategia del Pentágono.” / / Foreign Affairs. Septiembre / octubre de 2010. http://www.foreignaffairs.com/articles/66552/william-j-lynn-iii/defending-a-new-domain (29/08/2010)

(5) S. Webster: “El Pentágono podrá aplicar la política de guerra preventiva en Internet”. 29 de agosto 2010. http://www.rawstory.com/rs/2010/0829/pentagon-weighs-applying-preemptive-warfare-tactics-internet/ (30/08/2010).

(6) E. Nakashima: “El Pentágono considera ataques preventivos en el marco de la estrategia de ciber-defensa”. The Washington Post. 28 de agosto 2010. http://www.washingtonpost.com/wp-dyn/content/article/2010/08/28/AR2010082803849_pf.html

(7) Daniel Lynn L. “Bosquejos de las amenazas informáticas y las medidas defensivas.” Servicio de Prensa del Ejército de los EEUU. http://www.defense.gov/news/newsarticle.aspx?id=60600

Por Leonid Savin*
Global Research

*Leonid SAVIN es analista político y experto de la Fundación de Cultura Estratégica y colaborador de Revista International Affairs, de la agencia rusa Ria Novosti.

Traducido del original en inglés por Cubadebate

http://www.cubadebate.cu/noticias/2010/09/07/eeuu-se-prepara-para-golpear-el-mundo-en-internet/

Fuente: http://www.globalresearch.ca/index.php?context=va&aid=20933
Publicado enInternacional
Londres, 2 de septiembre. Los desarrollos en la física moderna excluyen a Dios de las teorías sobre el origen del universo, afirma el astrofísico británico Stephen Hawking en un nuevo libro del que el diario The Times publica este jueves algunos extractos.

Según argumenta el eminente científico en The Grand Design (El gran diseño), coescrito con el físico estadunidense Leonard Mlodinow y que llegará a las librerías el 9 de septiembre, el big bang fue una consecuencia inevitable de las leyes de la física.

Debido a que existe una ley como la de la gravedad, el universo puede crearse a partir de nada. La creación espontánea es la razón por la que hay algo en lugar de nada, de por qué existe el universo y de por qué existimos nosotros, escribe Hawking.

No es necesario invocar a Dios para encender la mecha y poner en marcha el universo, agrega. Dios no creó el universo y el big bang fue la consecuencia inevitable de las leyes de la física, según señala el eminente físico teórico británico.

Esta posición representa, según The Times, una evolución respecto de lo que el científico británico de 68 años había escrito anteriormente sobre el tema.

En su Historia del tiempo (1988), uno de los grandes best sellers de la literatura científica, Hawking sugería que no existía incompatibilidad entre la noción de Dios, en tanto que creador, y una comprensión científica del universo.

The Grand Design también desmonta la teoría de Isaac Asimov de que el universo debió ser creado por Dios debido a que no pudo surgir del caos. Desde 1974, el científico ha trabajado para ligar las dos piedras angulares de la física moderna: la teoría general de la relatividad, de Albert Einstein, relacionada con la gravedad y los fenómenos a gran escala, y la teoría cuántica, que cubre las partículas subatómicas.

Hawking elabora su teoría a partir del descubrimiento en 1992 de un planeta que gira alrededor de una estrella que no es el Sol.

“Eso hace que la coincidencia de nuestras condiciones planetarias –el único Sol, la afortunada combinación de distancia Tierra-Sol y masa solar–, sea menos excepcional y menos convincente como prueba de que la tierra fue cuidadosamente diseñada para satisfacer a los seres humanos.”

Hawking, quien padece una grave enfermedad degenerativa que lo obliga a moverse en silla de ruedas y a comunicarse a través de una computadora, abandonó el año pasado la prestigiosa Cátedra Lucasiana de Matemáticas de la Universidad de Cambridge que ocupaba desde 1979. En Una breve historia del tiempo escribió: Si descubriéramos una teoría completa, sería el triunfo final de la razón humana, porque así conoceríamos la mente de Dios.

En su libro más reciente, señaló que el descubrimiento, en 1992, de un planeta que orbitaba otra estrella distinta al Sol ayudaba a replantear el punto de vista del padre de la física, Isaac Newton, respecto de que el universo no podría haber surgido del caos, sino que fue creado por Dios.

“Eso convierte a las coincidencias de nuestras condiciones planetarias –una estrella única, la afortunada combinación de la distancia Tierra-Sol y la masa solar–, en una evidencia mucho menos destacable y mucho menos convincente de que la Tierra fue diseñada cuidadosamente sólo para agradarnos a los seres humanos”, escribe.

Hawking comenzó a sufrir la enfermedad cuando tenía poco más de 20 años, pero logró convertirse en una de las autoridades científicas mundiales, y también ha tenido participaciones estelares en Star Trek y en las series animadas Futurama y The Simpsons.

El año pasado anunció que iba a dejar el puesto de profesor lucasiano de matemáticas de la Universidad de Cambridge, puesto que ostentó Newton y que él había tenido desde 1979.

The Grand Design saldrá a la venta la semana próxima.

Agencias

Cuando el cerebro humano necesitó inventarse a Dios

Los últimos avances en neurociencia atribuyen a una combinación de sustancia químicas y necesidades fisiológicas la aparición de religión y la idea de Dios.

El ser humano, a pesar de del proceso cultural, es presa fácil del miedo y la incertidumbre que le atenazaban hace miles de años. Los pequeños problemas de la vida diaria y las grandes preguntas provocan estrés neuronal, induciendo hasta cien cambios diferentes en el cerebro. Para balancear la carga, surgió la religión.

Como recogen el antropólogo Lionel Tiger y el neurólogo Michael McGuire en el libro God's brain (El cerebro de Dios), publicado en Estados Unidos la pasada primavera, la religión tiene un efecto balsámico sobre el cerebro.

Mediante la recopilación de decenas de investigaciones científicas apoyadas en las modernas técnicas de neuroimagen (resonancia magnética, tomografía o magnetoencefalografía, los autores cogen fuerza para explicar la función de la religión. Según explican, la experiencia religiosa libera neurotransmisores como la serotonina la dopamina y hormonas como la oxitocina, que dan paz al cerebro, restaurando su equilibrio.

En una serie de experimentos realizados con monos por McGuire, los científicos pudieron establecer una relación directa entre el estatus social de cada individuo dentro del clan y el nivel de serotonina, un neurotransmisor que funciona a modo de recompensa para un cerebro estresado.

'Fitness' cerebral

En humanos, los más recientes trabajos de neurociencia y religión muestran cómo la fe en Dios reduce los síntomas de la depresión y favorece el autocontrol, mientras que la meditación mejora algunas capacidades mentales.

Los autores reconocen que hay otras formas de conseguir reducir el estrés neuronal, como hacer deporte o una cena agradable. Pero las otras actividades sociales no tienen los tres elementos que dan utilidad a la religión: socialización positiva en comunidad, los rituales y una creencia, generalmente en la otra vida.

El problema es la religión

La semana que viene se publicará un libro en el Reino Unido que dará mucho que hablar. Su título en español supongo que será El gran diseño y su autor más notable es Stephen W. Hawking, que lo firma con Leonard Mlodinov.

Lo más importante del libro es que trata de poner al alcance de las personas no especialistas los últimos intentos de la física teórica en cuanto a fundir en un mismo cuerpo matemático la relatividad general o teoría del universo en su conjunto con la mecánica cuántica o teoría del microcosmos atómico. El problema es que el objetivo de tal esfuerzo divulgativo se encamina a demostrar la no existencia de Dios.

Siempre me anima que un científico de la talla de Hawking muestre públicamente su agnosticismo, pero que en esta ocasión lo haga apoyándose en las teorías M y una de sus hipotéticas consecuencias, la existencia de infinidad de universos, me parece pobre cuando no contradictorio. Concluyen Hawking y Mlodinov que, igual que Darwin y Wallace explicaron el aparentemente milagroso diseño de las formas vivas sin intervención de un ser supremo, el concepto de multiverso puede explicar nuestra existencia sin necesidad de un creador benevolente que hiciera el mundo para nuestro beneficio.

El problema reside en que mientras que la evolución de las especies por selección natural está demostrada incluso a escala molecular, los modelos en 11 dimensiones que desarrollan todos los conceptos de supercuerdas, las teorías M, no tienen por ahora la más mínima posibilidad de contrastarse experimentalmente. O sea, que entran casi en la categoría de filosofía, a la que Hawking le niega cualquier papel hoy día.

Así, si suponemos que Borges tenía razón al catalogar la filosofía de subgénero de la literatura fantástica, las teorías M pueden caer en el mismo saco. Creo que lo más honesto desde el punto de vista científico es mantener la postura de Laplace, que cuando le enseñó su modelo matemático del sistema solar a Napoleón y este arguyó que no veía a Dios por ninguna parte, le respondió: "Sire, no he tenido que hacer uso de tal hipótesis". También creo importante no distraer a la gente en cuanto a que el problema no es Dios, sino las religiones.

MIGUEL ÁNGEL CRIADO Madrid 03/09/2010 08:00 Actualizado: 03/09/2010 09:14


Publicado enInternacional
Miércoles, 25 Agosto 2010 07:03

Cabalgando con la esquizofrenia

–Cuénteme qué es lo que hace.

–Yo trabajo tratando de entender cuáles son los mecanismos que funcionan mal en el cerebro con relación a la esquizofrenia. El abordaje que tengo para eso no es clínico, sino que es de ciencia básica, y trabajo con modelos animales.

–Usted es...

–Biólogo, de formación. Pero me vine a hacer mi tesis de licenciatura y mi tesis doctoral a la Facultad de Medicina. Porque siempre me interesó pasar de la parte más biológica hacia una parte más orientada a patologías humanas. Y básicamente lo que me interesa desde que hice mi posdoctorado afuera es saber qué es lo que funciona mal en aquellos pacientes psiquiátricos con esquizofrenia.

–Empecemos por definir qué es la esquizofrenia...

–Es una enfermedad psiquiátrica que tiene toda una serie de signos y síntomas que la definen. Los síntomas se dividen en positivos, negativos y cognitivos. La visión clásica que uno tiene de los esquizofrénicos es la de la persona que tiene alucinaciones, delirios, que lo persiguen los marcianos y le quieren insertar un chip en el cerebro, por ejemplo...

–¿Y no hay desdoblamiento de la personalidad?

–No, eso no. Aunque esquizofrenia significa “cerebro partido”. Esos son los síntomas más floridos.

–¿Y qué más?

–Todos los que tienen que ver con apatías, falta de afecto, falta de motivación, dejar de buscar situaciones placenteras. Después están los problemas cognitivos, q. Lo que yo intento entender es qué mecanismos funcionan mal en el cerebro de tal modo que pueden llevar a tener esos síntomas y esos signos.

–¿Y qué cosas funcionan mal?

–Bueno, eso estamos averiguando. Es necesario distinguir entre las enfermedades psiquiátricas y las neurológicas. En las neurológicas, muchas veces no sabemos la causa. sí sabemos qué es lo que funciona malCon la esquizofrenia estamos peor: no sólo no sabemos qué causa la esquizofrenia (se supone que hay muchos factores: genéticos, ambientales, el estrés), pero tampoco sabemos qué funciona mal. Estamos un paso más atrás. Hay distintas hipótesis sobre qué funciona mal.

–¿Y cuál es la conjetura que usted toma como más probable?

–Hay una parte del cerebro, el sistema córtico-límbico, que controla muchas de las funciones cognitivas y afectivas de las personas, en la cual funcionan dos tipos de neuronas: unas que son excitatorias y lo que hacen es transmitir información entre zonas del cerebro, e interneuronas, que son neuronas que sólo interactúan de manera local. Por ejemplo: hay una zona del cerebro que maneja la memoria y otra zona que participa más del aprendizaje; ambas funciones se encuentran imbricadas, por lo cual la información fluctúa entre las dos. Las que manejan esta interacción son las excitatorias; las inhibitorias (interneuronas) actúan de manera local y ponen freno a la actividad de las otras. Si todas fueran excitatorias, al cabo de un tiempo todo el cerebro estaría “prendido”. Y lo que se encontró en tejidos de pacientes post-mortem es que en los esquizofrénicos hay alteraciones en estas neuronas. Es una de las pocas evidencias que hay. Estas interneuronas son pocas en realidad y están metidas en la malla neuronal. Forma parte del circuito de la corteza: recibe información como las excitatorias, pero no la transmite lejos. Hay muchos tipos de interneuronas y cada una tiene un rol distinto: algunas frenan la actividad, otras la modulan, otras tienen que ver con un cambio de plasticidad. Estas neuronas tienen un receptor muy particular que agarra glutamato.

–¿Qué es el glutamato?

–Es un aminoácido, y se podría decir que es el neurotransmisor excitatorio del cerebro. Es con el que las neuronas se transfieren información de manera más directa. El receptor pega el glutamato, pero la información que ese neurotransmisor le da a la célula es distinta, dependiendo de cuál sea el receptor al que se pegue. En el receptor que le estoy contando deja que entre calcio a la célula. Es un proceso maravilloso, y de hecho hay laboratorios que se dedican exclusivamente al estudio de este receptor, y producen papers y papers sobre este tema. Gracias a eso se puede construir conocimiento, porque después no-sotros contamos con esas investigaciones para poder seguir con la nuestra. Una de las hipótesis en relación con la esquizofrenia dice que lo que hay es un déficit del receptor NMDA en las interneuronas.

–¿Y cómo surge esta hipótesis?

–La teoría se podría decir que arranca a partir de lo que se observa que produce en humanos el uso de un anestésico veterinario, la ketamina. Si bien es para animales, en una época hubo que sacarlo del mercado porque los chicos lo tomaban en los boliches. Son anestésicos disociativos. A dosis altas, anestesian. Pero a dosis bajas, el efecto es una especie de alucinación, en la que uno ve su cuerpo desde afuera, tiene percepciones extrasensoriales, ve cosas que no se ven normalmente, y de-sencadena un cuadro que parece una esquizofrenia. Y de hecho cuando uno le da ketamina a un esquizofrénico, la enfermedad se intensifica.

–O sea que ahí hay algo...

–Claro. Entonces la hipótesis que le cuento arranca con eso. Porque esta ketamina lo que hace es bloquear los receptores NMDA. Cuando uno le da una inyección a un paciente, bloquea todos: por eso es anestésico, porque bloquea los receptores. Cuando uno da dosis bajas, se supone que actúa sobre los receptores de las interneuronas, nada más. Y estas interneuronas, entonces, pierden la capacidad de frenar a las excitatorias. La idea que hay detrás de esto es que las alucinaciones y los delirios se frenan en una etapa del cerebro, antes de que entren al estado consciente. Cuando estos mecanismos fallan, esos pensamientos pasarían al estado consciente y se verían cosas que en realidad no están.

–¿Se sabe lo que es el estado consciente?

–Por eso se pelean los filósofos. ¿Por qué me voy a meter yo? Lo que le decía, entonces, es que al fallar este freno, dependiendo de en qué parte esté fallando, va a haber problemas de memoria, problemas de aprendizaje, etcétera. Estaría, entonces, fallando el receptor NMDA en las interneuronas. Interneuronas hay en todo el cerebro, pero la idea es que las que están fallando son las del sistema córtico-límbico, que tienen funciones más cognitivas. Lo que yo hice para estudiar eso es sacarles a los animales de laboratorio el gen que codifica la información para el receptor NMDA de las interneuronas.

–De modo que quedaron interneuronas sin ese receptor.

–Exactamente. Y me fijé qué pasaba. Lo que hace uno con un ratón, que suponemos que no tiene esquizofrenia, es medir síntomas que sí pueden ser comparados con los de un ser humano. Por ejemplo, en el ratón se puede medir la memoria. Lo que se hace es un test conductual, con cuyos resultados e interpretación hay que tener muchísimo cuidado. Pero lo que se ve con estos ratones es que tenían conductas compatibles con lo que sería un cuadro de tipo esquizofrénico.

–¿Y qué es exactamente lo que quiere averiguar?

–Por qué se producen esas conductas. Porque podría ser que al sacarle el receptor se produzca un cambio en el desarrollo del sistema, de tal modo que las interneuronas dejaran de frenar a las otras y hubiera una sobreactividad; pero también podría pasar que hubiera un mecanismo de compensación que, como no hay inhibición, el sistema lo que hace es bajar la actividad de todo...

–¿Usted volvió de Estados Unidos, no?

–Sí.

–¿Por qué?

–Por un lado, es importante la parte afectiva; por otro lado, siento que está bien capacitarse afuera y volver para poder devolver lo que uno tomó de la universidad pública. Y hay otra cosa, que es medio paradójica: la falta de recursos, el hecho de no estar tan desarrollados como Estados Unidos, nos da más tiempo para pensar las cosas.

Por Leonardo Moledo

Informe: Nicolás Olszevicki.
leonardomoledo.blogspot.com
Publicado enInternacional
Londres, 9 de agosto. La raza humana tendrá que colonizar el espacio en los próximos 200 años si no quiere desaparecer, advirtió el lunes el astrofísico británico Stephen Hawking, en entrevista publicada por el sitio Internet Big think.

Pienso que el futuro a largo plazo de los humanos está en el espacio. Será difícil evitar una catástrofe en la Tierra en los próximos cien años, sin hablar de mil o millones de años, declaró el experto británico en el sitio de Internet, que se describe como foro mundial que relaciona a la gente con las ideas.

El especialista agregó que la raza humana no debería apostar sólo al planeta.

Al mencionar la famosa crisis de los misiles en Cuba, en 1963, dijo: “Veo grandes peligros para la raza humana. En muchas ocasiones en el pasado, su supervivencia fue difícil.

La frecuencia de tales amenazas aumentará probablemente en el futuro. Tendremos necesidad de prudencia y juicio para manejarlas exitosamente. Soy optimista, dijo Hawking.

Según él, “si queremos evitar una catástrofe en los próximos dos siglos, nuestra especie deberá desplegarse en el espacio para salvarse.

Si somos los únicos seres inteligentes en la galaxia, tendremos que garantizar nuestra supervivencia, dijo el científico, luego de considerar que el aumento de la población mundial y los recursos limitados de la Tierra amenazarán cada vez más a la especie humana.

Por eso estoy en favor de hacer vuelos habitados al espacio, indicó.

En abril había advertido que si los extraterrestres existieran, los hombres deberían evitar todo contacto con ellos porque las consecuencias serían devastadoras.

Stephen Hawking, de 68 años, mundialmente conocido por sus trabajos sobre el universo y la gravedad, es el autor de Breve historia del tiempo, uno de los mayores éxitos de la literatura científica.

Afectado desde los 22 años por una esclerosis lateral amiotrófica, enfermedad degenerativa que provoca parálisis, se desplaza en silla de ruedas y se comunica por medio de una computadora y un sintetizador vocal.

Afp
 
Publicado enInternacional
Miércoles, 14 Julio 2010 06:25

El Software Libre no es un capricho

Pese al Decreto 3390, que establece la migración de la administración pública venezolana a software libre, abundan instituciones gubernamentales que ondean la bandera de Microsoft, alegando que no pueden afectar su operatividad, aunque este argumento incluso comienza a desmontarse cuando grandes corporaciones norteamericanas como Google, han ordenado a sus empleados no usar el software del gigante de Redmon, y están demostrando que es posible competir en el voraz mercado de los teléfonos inteligentes, con su sistema operativo Android, basado en GNU-Linux, por lo que es falso afirmar que el software libre es peor. 

Entonces, si el software libre es mejor, ¿qué está ocurriendo en Venezuela? Gilberto Mora, jefe de la oficina de integración tecnológica del CNTI, analiza el por qué de esta lenta evolución hacia tecnologías libres. 

¿Por qué usar software libre? 

Usar software libre es un arma de liberación, ya que permite tener el control, en cambio con el software privativo, independiente de la casa o la marca, no se sabe qué sucede en lo interno de tu computadora. Incluso, en un paso más adelante, está el hardware libre, donde hasta el software que hace funcionar el hardware también es libre. Y no se trata de una utopía, porque ya los equipos de Lemote operan sobre esta filosofía. Ese es el punto de máximo de libertad. 

¿Y de qué me sirve saber qué hace el software con mi computadora? 

Primero porque te permite saber si lo que tu quieres que haga lo está haciendo cómo tu quieres que lo haga, ya que hay gente que bajo el compromiso de una comunidad ya desarrollaron el sistema operativo, dejando el código a la vista, de manera que cualquiera pueda verificarlo. No hay trampas ocultas. No hay esquemas en donde cualquier cosa adicional puede pasar. 

Todo está a la vista, o lo puedes revisar tu mismo. Todo es transparente. Mientras que bajo el software privativo, simplemente, confías que la compañía a la que se le compró la licencia, ha hecho las cosas como dice que las hizo. 

Además usando software libre los costos disminuyen, ya que no hay que pagar la licencia. Simplemente descargas un paquete, evalúas si funciona, y si no puedes buscar otra opción. También el software privativo suele exigir cada vez más recursos de hardware para funcionar, en cambio el software libre puedes usar lo que quieras y como quieras, sin necesidad de disminuir las prestaciones. 

Si es gratis, ¿de qué come el modelo libre? 

La mayoría de las aplicaciones son desarrolladas por programadores ad honorem, que no cobran el programa, sino por el servicio, porque bajo el modelo libre la sustentabilidad cambia. No requiere una inmensa corporación que ofrezca soporte, por ejemplo, en el caso de los Infocentros el soporte lo proporcionan cooperativas locales, lo que genera un buen servicio a un costo muy bajo, con respuestas más rápidas y con calidad, ya que el conocimiento no esta cerrado sino es un bien de la comunidad. Se estima que en el modelo privativo los tiempos de respuestas son cada 21 días, mientras que bajo software libre son de 2 horas y hasta menos, como ocurre con la lista de Canaima. 

Y si el software libre es mejor, ¿por qué pese al Decreto 3390 muchas instituciones todavía no han migrado? 

El ser humano es resistente al cambio. Sucede que muchos que han trabajado toda su vida con software privativo y se les dice ahora que deben usar tecnologías libres, se sienten incómodos, y aunque KDE (se parece a Windows) y Gnome (se parece a Mac), resulta que hay cosas nuevas que aprender. El mundo libre ofrece una alternativa de herramientas de productividad de calidad, a nivel de correo electrónico, bases de datos y el CNTI es un ejemplo de que es posible usar sólo software libre. Pero las personas le tienen miedo al cambio, por lo que hacemos muchas charlas para que los funcionarios públicos entiendan que no tendrán que hacer cambios drásticos que afectarán su modo de trabajar. Pero si el jefe de soporte técnico no entiende que sí se puede hacer, obviamente tampoco podrá convencer a los que trabajan con él de que el software libre es mejor. Ciertamente, hay muchos dolores de cabeza que con software libre se eliminan, como los virus, los spiware, etc. 

Tampoco se puede ignorar que si tienes años asistiendo a eventos de casas privativas que te dicen que su producto es muy bueno, y haces tu vida alrededor de ese “casi” gratis, pero cuando hubo que pagarlos se trataba de cifras exorbitantes, estas amarrado a ese producto al que te costó bien caro certificarte, haz hecho cursos, y te lo conoces, entonces surge la resistencia al cambio en una administración pública que tiene más de 20 años trabajando con software privativo y nosotros en seis años queremos que cambien su mentalidad. Realmente nos ha costado pero vamos a buen paso. La gente poco a poco está entendiendo que no se trata de una ley, sino que el software libre es mejor. 

¿Por qué crear Canaima, si ya existía Ubuntu, Debian y muchos más? 

Ubuntu tiene muchísimas prestaciones, por ejemplo, prácticamente todos los dispositivos que se conectan a GNU-Linux funcionan bajo Ubuntu, pero tiene también sus tiempos de maduración. Y nosotros nos preguntamos por qué usar Ubuntu que depende de una corporación, Canonical, entonces si Canonical decide cerrar, perderíamos toda la independencia que habíamos conquistado. Y si tenemos un personal capaz de hacer software en Venezuela, por qué no escribir nuestro propio camino. Por eso, decidimos desarrollar una versión que tuviese lo mejor de Ubuntu y lo mejor de Debian. No dependemos de que alguien nos dé, un sistema operativo. 

Si bien es cierto, que nuestra base es Debian, resulta que detrás de Debian no está una empresa, sino una comunidad, al igual que ocurre con Canaima, porque aunque desde el CNTI hemos impulsado el desarrollo de Canaima, no depende del CNTI, sino de una comunidad. Y en este momento es la vitrina de la región, porque somos percibidos como los pioneros. 

Prensa YVKE Mundial/ Ciudadccs
Publicado enInternacional