Miércoles, 11 Marzo 2009 06:03

“La biología es carbono, agua y grasa”

–Me dijeron que usted es bióloga.
 
–Le dijeron bien. Yo estudié originalmente en la Universidad de Jerusalén, después hice una maestría y en el año ’84 empecé a hacer el doctorado en la Universidad de Buenos Aires. Soy profesora de la Facultad de Ciencias Exactas e investigadora independiente del Conicet.
 
–¿Y qué es lo que hace?
 
–Bueno, el objetivo general de lo que estudio es entender de qué manera un animal, que vive en un entorno complejo del cual se informa a través de sus sistemas sensoriales, vehiculiza la información que capta hacia las neuronas que gobiernan su conducta. Especialmente, nosotros estudiamos las conductas motoras, que están a cargo de las neuronas motoras (responsables de activar los músculos que mueven nuestro organismo). Ahora bien: cuando uno habla de vehiculizar información sensorial a neuronas motoras, está hablando de una gran y compleja red de conexiones y de señales que no van unas detrás de las otras sino que siguen muchas vías paralelas. Analizar eso en cualquier animal (ver de qué manera percibir el ambiente y generar una conducta motora) es un desafío interesante. Hay dos maneras para entender cómo se capta la información y cómo se procesa.
 
–A ver...
 
–Una es centrarse en una sola porción del cerebro de un animal complejo (un ratón, por ejemplo) y estudiar acabadamente una de las estaciones de relevo de esa información; la otra es elegir animales relativamente más simples (invertebrados) en los que la distancia entre la neurona sensorial y la neurona motora (es decir, entre la captación del estímulo y la ejecución del movimiento) tiene menos pasos, por lo cual es más posible rastrear la señal. Nuestra estrategia es justamente esta última: elegimos un organismo con una organización corporal muy sencilla, con lo cual su correlato neuronal es relativamente simple. Es una sanguijuela, que ha sido históricamente utilizada en la medicina y que se utiliza aún hoy, en casos de reinserción de órganos o de partes del cuerpo, para promover el flujo sanguíneo. Pero además ha sido utilizada como organismo modelo para estudiar el sistema nervioso.
 
–A Stalin, cuando tuvo su ataque, en 1952, le pusieron sanguijuelas.
 
–Claro. Bueno, pero nosotros lo utilizamos como modelo de sistema nervioso, por su relativa simpleza. Lo que nos interesa, en particular, es entender cómo hacen estas múltiples vías paralelas para funcionar de manera organizada. Dado que nosotros somos un solo cuerpo, una sola identidad...
 
–Lo cual es raro...
 
–Claro, porque estamos sometidos a una multiplicidad gigante de acciones. Nuestro sistema nervioso tiene neuronas motoras múltiples que inervan la musculatura... Entonces, lo que nos interesa es entender cómo se genera esa unicidad. Los focos de atención están puestos en las vías interneuronales: queremos entender qué es lo que pasa entre las interneuronas y las neuronas motoras. Ahora, puntualmente, estamos trabajando con un tipo de neurona que está conectada con todas las neuronas motoras y que genera una suerte de bisagra de información. Cuando un organismo produce un movimiento, es el efecto de la coordinación de una multiplicidad de neuronas motoras: si quiero caminar para adelante, las neuronas se tienen que activar de tal manera de que la propulsión sea en ese sentido. Por ejemplo, cuando la sanguijuela nada, el sistema nervioso tiene que regular una serie de contracciones y de relajaciones para que el bicho se propulse hacia adelante.
 
–¿Y cómo se genera esa unicidad?
 
–Por un lado, tenemos una jerarquía: el sistema motor está jerarquizado. Hay neuronas que de alguna manera ponen en actividad a las que están río abajo y comandan una acción que ya es una especie de patrón genéticamente establecido (es decir que los genes se encargaron, a lo largo del desarrollo del animal, de que las neuronas sigan un determinado patrón de actividad cuando una de las neuronas altas se activa). Pero esto, que era una versión simplificada de cómo funcionan los sistemas motores, hoy día se entiende de otra manera. Se piensa que no es tan lineal, sino que obedece a una población de comandos. Es como si yo le dijera que, en lugar de ser un gobierno con una sola cabeza, tiene muchos factores de determinación...
 
–Que tienen que ponerse de acuerdo...
 
–Que pueden ponerse de acuerdo. Para ello necesitan elementos del sistema nervioso que actúen como elementos de consenso. Una de las neuronas con la que hemos trabajado en los últimos cinco años es la que pone en consenso a las neuronas responsables del movimiento.
 
–¿Y cómo lo hace?
 
–Bueno, la especialidad en la que yo trabajo es la electrofisiología. El sistema nervioso tiene la particularidad de tener un doble lenguaje: las neuronas se comunican eléctrica y químicamente. Nosotros podemos extraer el sistema nervioso de estos animales con muy poco esfuerzo, tienen un sistema nervioso muy abordable para la experimentación y, utilizando electrodos muy pequeños, podemos escuchar el lenguaje eléctrico de las neuronas y manipular el lenguaje químico. De esa manera podemos detectar las señales en tiempo real. Mi trabajo es lo más parecido al trabajo de un espía: me meto dentro de un sistema y escucho a través de un osciloscopio cómo dialogan las células y cómo se puede modificar ese mensaje alterando el entorno. Vemos cómo la activación de una neurona influye en la activación de otras y estudiamos fundamentalmente patrones motores: en la sanguijuela, la natación es el movimiento por antonomasia, un movimiento muy articulado y muy bello de verse.
 
–En esta articulación hay una cosa que es medio enigmática, que es el hecho de que varias vías tengan una sola respuesta. Creo que ahí está cifrado uno de los problemas claves de la biología, que es el de la autoconciencia. Uno sabe que es uno, pero una sanguijuela, ¿sabe que es una sanguijuela?
 
–Es una pregunta que, por un lado, no me gusta contestar, porque se abusa de la interpretación que los neurobiólogos podemos hacer en función de entender la conciencia. De todos modos, yo siempre tuve una fórmula por la cual creo que todos los animales tienen conciencia de sí mismos: si le hacen daño, el animal se defiende y se escapa. Eso podría ser concebido como un acto reflejo: hay una cadena de neuronas que reacciona de manera automática si el animal es herido de alguna manera. Pero yo creo que hay allí un rudimento de conciencia. La defensa ante el peligro y el dolor creo que es una manera de decir: “Soy yo, diferenciado dentro del mundo, y no quiero que me dañen”.
 
–“Soy yo, esta sanguijuela y no aquélla.”
 
–O “soy yo, esta sanguijuela, y no una identidad con aquello que me está pinchando o me está quemando; soy algo diferente que no quiere ser sometido”.
 
–Si uno piensa en la conciencia a la luz de la teoría de la evolución, la conciencia tiene que haber evolucionado gradualmente. Entonces tuvo que haber habido pre-conciencia, sub-conciencia.
 
–Hay un biólogo muy reconocido en el campo de las ciencias que escribió hace poco un libro que se llama El yo en el vortex (I in the vortex), en el que propone algo que me pareció luminoso: él dice que la conciencia tiene que aparecer con los animales, porque la conciencia es predecir, y predecir es requerimiento para todo movimiento. Las plantas están, de alguna manera, sometidas, porque sus raíces las anclan a un lugar y ellas sólo pueden reaccionar limitadamente. Un animal que se mueve en el espacio tiene que predecir que sus movimientos no lo van a poner en peligro, y que sus movimientos van a ayudar a conseguir el fin por el cual esos movimientos se están produciendo. Este biólogo que le digo ve en la misma actividad motriz el rudimento de aquello que tiene que ser la conciencia. De todos modos, yo no estudio la conciencia.
 
–Pero se lo preguntaba como científica, como bióloga. Me interesa no solamente la materia particular de investigación sino las reflexiones de los investigadores sobre aquello que hacen. Más aún cuando uno piensa que el científico es una persona que reflexiona y postula teorías sobre el mundo sin saber si esas teorías efectivamente se corresponden con el mundo. En el caso de la física esto es más evidente que en el de la biología. En general, los físicos responden que lo que hacen son modelos, y que no es necesario explicar la naturaleza de las cosas. Creo que en la biología es diferente, porque el modelo no es matemático sino empírico. Las neuronas usted las ve, mientras que el físico tiene que postular la energía de manera abstracta.
 
–Bueno, son campos de conocimiento diferente, con abordajes diferentes. nosotros tenemos la suerte o la desgracia de trabajar con materias tangibles; los físicos, a veces no. Nosotros trabajamos con cosas que vemos, que tocamos, y nuestra imaginación está limitada por la realidad, por la materia.
 
–Un biólogo no puede refugiarse diciendo: “Esto es un modelo”.
 
–Conozco muy pocos que lo hacen. El biólogo, en general, quiere saber cómo la naturaleza verdaderamente actúa.
 
–Un físico podría decir que esa palabra, “verdaderamente”, es una palabra que a la ciencia no le interesa.
 
–Los biólogos somos más pedestres...
 
–No sé si más pedestres, me parece que desde el punto de vista de la filosofía de la ciencia es más audaz.
 
–Bueno, de acuerdo. Lo que quería agregar es que la gran ambición de las neurociencias es explicar el estado de conciencia. Muy pocas personas la estudian de manera directa, se la va analizando de manera oblicua, pero yo creo que hay piezas del rompecabezas que todavía no se conocen. Para entender esa interfase entre un tejido que es carbono, agua y grasa y una estructura inasible físicamente como es la conciencia. Si uno desintegra un libro, va a encontrar la celulosa, el carbono, la tinta, pero no va a encontrar el libro. Si alguien estudia la literatura así, nunca va a entender la literatura. De todos modos, los biólogos estamos todavía más cerca de la desintegración del libro que de entenderlo como base física de la literatura.

Por Leonardo Moledo
 
Publicado enInternacional
Las galaxias son estructuras formadas usualmente por millones de estrellas de diversos tipos, polvo, gas y un gran halo de una materia que no emite luz y se conoce usualmente como materia oscura. El primer conocimiento de la existencia de las galaxias vino de la mano de Edwin Hubble en 1923, cuando se dio cuenta que unas manchas que poblaban el cielo no eran otra cosa que estructuras enormes completamente independientes de nosotros. De hecho, nosotros vivimos en una de esas galaxias, la Vía Láctea, esa franja blanquecina que podemos observar a simple vista encima de nuestras cabezas en una noche clara de verano.

Años más tarde, ya en la segunda mitad del siglo XX, con el incremento de la calidad de los telescopios, se descubrieron las mayores estructuras del universo: los cúmulos de galaxias. Estos objetos son, como si se trataran de ciudades de galaxias, agrupaciones gigantescas de cientos a miles de galaxias como la nuestra, millones de estrellas, gas y una gran proporción de materia oscura, todo ello ligado por medio de la gravedad. El tamaño de estos objetos oscila entre 3 y 30 millones de años-luz y con masas de entre varios cientos a millones de billones de veces la masa del Sol.

Los primeros del universo

Estos objetos son interesantísimos ya que se piensa que fueron los primeros que se formaron en el universo y, por lo tanto, el conocimiento de su origen, formación y evolución inferido a partir de la estructura y aspecto que observamos en la actualidad, es de enorme interés puesto que está directamente relacionado con el nacimiento y la evolución del universo.

Diversos estudios se han dedicado al desarrollado de teorías básicas sobre el origen y formación de estos cúmulos. Básicamente, la pregunta subyacente es: ¿cuál es el mecanismo que influye en la creación y evolución de estos objetos, lo innato o lo adquirido? El problema es algo parecido al que podemos plantear respecto al crecimiento y formación de una persona: ¿qué determina la manera de actuar y ser de una persona?, ¿el lugar dónde nació y quienes fueron sus padres, es decir, la herencia? o por el contrario, ¿las personas y lugares con los que interaccionó después, es decir, su entorno?

El primer modelo, el llamado modelo monolítico, establece la formación de los cúmulos y las galaxias que contienen bajo las mismas condiciones iniciales en las que se originó el universo. Así, partiendo de unas nubes de gas primigenio, esta teoría predice el colapso de dichas nubes bajo su propio peso. Posteriormente, al enfriarse, comenzaría el nacimiento de las primeras estrellas en su interior, y a partir de mecanismos de retroalimentación del gas, se formarían las primeras galaxias del universo.

El modelo jerárquico

Opuesto al modelo monolítico se encuentra el modelo jerárquico, a favor de la creación y evolución de las galaxias y los cúmulos galácticos a partir de la interacción con el entorno. En esta teoría, las partículas de gas que se encontrarían en halos de materia oscura proveniente de los primeros instantes del universo, irían colapsando y enfriándose lentamente al interaccionar entre ellas, creándose las primeras galaxias y posteriormente, los primeros cúmulos de galaxias.

En esta era en que nos encontramos, cada día tenemos telescopios más potentes, capaces de llegar a observar objetos más lejanos y por lo tanto, más cerca del inicio del universo. Además, disponemos de ordenadores capaces de realizar simulaciones impensables hace unos años, con los que podemos recrear y simular leyes físicas y probarlas sobre objetos astronómicos cómo si fuera un laboratorio estelar. Todo esto ha permitido entender y contrastar ambas teorías. En particular, el descubrimiento de cúmulos de galaxias muy lejanos con el telescopio espacial Hubble y las simulaciones de materia oscura fría han llevado a la elaboración del modelo más aceptado en al actualidad sobre el origen y formación de los cúmulos. Este modelo consiste en una combinación de las dos teorías anteriores. De esta forma, partiendo de las primeras nubes de gas y materia provenientes del principio del universo, procesos de fusión con otras estructuras propios del modelo jerárquico se irían combinando con procesos de colapso y retroalimentación para producir las estructuras que hoy vemos en la actualidad.

Aunque esta última teoría parece ser la más aceptada en la actualidad, todavía quedan muchas cuestiones que desentrañar y resolver. Cada poco tiempo, el descubrimiento de una nueva característica de un objeto hace plantearnos la validez de las teorías formuladas sobre el, provocando así el avance de la ciencia.

Por, Begoña Ascaso,  Universidad de California Davis
Publicado enInternacional
¿Cuándo comenzó la reproducción sexual? Un pez fósil hallado en Australia con una antigüedad de 365 millones de años es el vertebrado más antiguo conocido que se reproducía sexualmente, según un estudio realizado por el Museo de Historia Natural de Londres y el Museo Victoria de Australia, que concluye que la reproducción sexual comenzó antes de lo que se pensaba. El pez, que tiene un embrión de cinco centímetros, "es la evidencia más antigua de reproducción interna", afirma a la BBC Zerina Johanson, una de las científicas que trabajan en la investigación.

¿Cuándo comenzó la reproducción sexual? Un pez fósil hallado en Australia con una antigüedad de 365 millones de años es el vertebrado más antiguo conocido que se reproducía sexualmente, según un estudio realizado por el Museo de Historia Natural de Londres y el Museo Victoria de Australia, que concluye que la reproducción sexual comenzó antes de lo que se pensaba. El pez, que tiene un embrión de cinco centímetros, "es la evidencia más antigua de reproducción interna", afirma a la BBC Zerina Johanson, una de las científicas que trabajan en la investigación.
Publicado enInternacional
Un satélite de comunicaciones estadounidense privado ha chocado en el espacio con otro ruso ya inoperativo, ha informado este jueves un portavoz militar estadounidense. "Creemos que se trata de la primera vez que dos satélites chocan en órbita", ha indicado el teniente coronel de la Fuerza Aérea Les Kodlick, del Comando Estratégico de EE UU.

Según este portavoz, en la colisión se han visto implicados un satélite de comunicaciones de la empresa Iridium Satellite LLC y otro ruso Cosmos que ya no estaba en funcionamiento. El choque se ha producido en una órbita terrestre baja, a unos 780 kilómetros de altitud, empleada normalmente por los satélites de telecomunicaciones y aquellos que monitorizan fenómenos meteorológicos.

El diario The Washington Post asegura en su edición en la Red (en inglés) , citando a fuentes de la NASA, que el choque ha provocado una nube de escombros que podrían aproximarse a la Estación Espacial Internacional (ISS), situada a una órbita de unos 400 kilómetros de altitud. "En última instancia, esos escombros irán bajando su órbita y si es necesario la estación está capacitada para llevar a cabo una maniobra", indicó el portavoz John Yembrick a este periódico estadounidense.

El experto de la NASA Nicholas Johnson, del Centro Espacial Johnson en Houston, ha señalado a la agencia Reuters que se desconoce el número exacto de restos derivados de la colisión. Según Kodlick, el centro de operaciones espaciales del Comando Estratégico tiene entre sus funciones seguirle la pista en el espacio a unos 18.000 objetosre, entre ellos, escombros de unos 10 centímetros como mínimo, satélites operativos y fuera de servicio.

REUTERS / ELPAÍS.com - Washington - 12/02/2009
Publicado enInternacional
Miércoles, 28 Enero 2009 06:16

Galaxias que dan vueltas por ahí

–Antes que nada, quiero decirle que no tengo una foto suya, así que tendré que ilustrar el diálogo de otra manera.

–Ponga una galaxia.

–Buena idea. Ahora cuénteme sobre su tema de investigación.

–Mi área central son los sistemas de galaxias: grupos, cúmulos; y dentro de ésos hay varios subtipos. Cuando uno piensa en una galaxia, lo hace en general imaginando una galaxia aislada y eso es erróneo: la mayoría de las galaxias viven en grupos; de hecho la nuestra vive en un pequeño grupo, el grupo local, que aún no terminamos de conocer, ya que siempre aparecen nuevas galaxias.

–¿Cuántas son hasta ahora en el grupo local?

–Algunas pocas decenas, no sé el número exacto. Pero lo más interesante es que si nosotros pusiéramos el grupo local a la distancia en que hoy se hace la mayoría de los relevamientos de galaxias, sólo veríamos dos o tres galaxias y, por eso, no lo podríamos calificar como grupo dentro de nuestro concepto actual. Simplemente parecerían galaxias aisladas. Todas las demás galaxias del grupo son muy débiles, y sólo las podemos ver porque estamos adentro.

–Sacando la nuestra y Andrómeda.

–Sacando la nuestra, la Vía Láctea, y Andrómeda, que es todavía un poco más grande. Ahora, esas galaxias débiles son prácticamente imposibles de detectar en los sistemas más lejanos (y ni siquiera tan lejanos, puesto que están dentro del universo al que tenemos acceso). Eso quiere decir que, hoy en día, la mayoría de las conclusiones que sacamos en base a sistemas de galaxias se basa en las galaxias brillantes y soslayan a las galaxias enanas: cuando uno habla de grupos o de cúmulos de galaxias se refiere a aglomerados de galaxias brillantes. Las débiles son todavía una gran incógnita, por una dificultad observacional.

–¿Y los cúmulos qué son?

–Son los sistemas más espectaculares de acumulación: son cientos de galaxias brillantes, en los casos más ricos, como por ejemplo en el Cúmulo de Virgo (que, al estar bastante cerca, puede estudiarse muy en detalle) y tienen una característica muy particular, que es que la cantidad de materia oscura termina siendo un pozo de potencial suficientemente profundo (o denso) como para que el gas que normalmente está alrededor de las galaxias se caliente a temperaturas muy altas como para que emita en rayos X.

–Y ahí, en rayos X, las pescan.

–Claro. La imagen de un cúmulo, si uno la ve en rayos X (algo que se hace con telescopios en órbita, porque la atmósfera no deja ver los rayos X) es la de un gran halo de emisión (en X), superior al tamaño de galaxias enteras, que no es otra cosa que el gas que está caliente. Los cúmulos son, en ese sentido, muy espectaculares. Probablemente lo más espectacular de los últimos años es que hay tanta masa que producen distorsión de las luces de galaxias que están detrás...

–Porque deforman el espacio...

–Claro; por supuesto que nos movemos en el marco teórico de la relatividad general y uno ve espectaculares arcos, deformaciones de la imagen de las galaxias que están detrás. Los cúmulos son los sistemas que han logrado la mayor madurez y espectacularidad en el universo. Después uno tiene dentro de eso a los grupos de galaxias. Acá, en Córdoba, estamos trabajando en dos tipos particulares de grupos. Unos son los “compactos”, que son sistemas de pocas galaxias muy próximas.

–¿Qué tan próximas?

–Depende de sus tamaños. Pero lo interesante es que plantean una serie de interrogantes como, por ejemplo, por qué no se fusionan y todo eso. En realidad, uno de los trabajos que se están realizando acá tiene que ver con determinar si son verdaderos sistemas o si, en realidad, no son más que efectos de proyección. Hemos logrado determinar cuántos de ellos son reales, y encontramos que un buen número lo es.

–¿Y entonces?

–Pero falta revelar cuál será el futuro de esos sistemas, cómo evolucionarán, puesto que nos puede servir como modelo para predecir la evolución de otros sistemas de galaxias. Recientemente, en los últimos años, se han puesto de moda otros sistemas, que son los “grupos fósiles”.

–Un término sugestivo.

–Sí. Hace pensar que se trata del final de algunos grupos de galaxias. Básicamente, un fósil es una galaxia muy brillante, roja, vieja, elíptica, que revela la ausencia de otras galaxias, pero evidencia que hay un halo de materia oscura como el de los cúmulos, que se ve a través de imagen en X.

–¿Y qué es?

–La idea original es que se trata de un ex sistema de galaxias en el cual la galaxia central se comió a las demás. Pero estudios que hemos realizado recientemente con simulaciones numéricas refutan un poco esa conclusión: es más probable que se trate de un tipo de sistemas un poco particulares, pero no es necesariamente el resultado de un proceso evolutivo hacia el cual se dirigirían inexorablemente todos los sistemas de galaxias.

–¿Esos son, entonces, los temas en los que trabaja?

–Sí. En realidad, nuestro interés particular son las propiedades de las galaxias en los sistemas. Es decir: si uno mira galaxias “de campo” que no están en los sistemas de muchas galaxias y las galaxias de los cúmulos ricos, nota una diferencia muy grande. En el campo abundan las galaxias espirales, mientras que en los cúmulos abundan las elípticas. La primera gran pregunta es por qué. ¿Es un proceso evolutivo o las galaxias saben cuál será su lugar en el universo y adquieren esa forma?

–¿Y usted qué piensa?

–Hoy en día, uno está más inclinado a los procesos evolutivos. Las galaxias, cuando empiezan a vivir en entornos de alta densidad, evolucionan distinto a las que viven en entornos de baja densidad y terminan transformándose de una galaxia espiral a una galaxia elíptica. De todos modos, aún quedan muchos interrogantes acerca de cuáles son los procesos físicos que alteran las propiedades de esa galaxia y cuándo eso ocurre. Hasta ahora, al menos mi idea (que está cambiando en los últimos tiempos) es que la etapa final de los cúmulos podía jugar un rol muy importante, porque es un lugar realmente muy hostil.

–¿Por qué?

–Porque hay velocidades muy grandes, encuentros próximos entre galaxias. Una galaxia que tiene gas se mueve en un gas caliente que también la puede afectar. Es como el centro de la ciudad en un día complicado: una persona que va manejando el auto siente que el lugar es hostil, a diferencia de lo que podría ser manejar en un lugar solitario. Pero la impresión que tengo es que, a pesar de ser un lugar un poco hostil, buena parte de las propiedades que la galaxia tiene las ha ido adquiriendo antes, no necesariamente en esa fase final del cúmulo.

–¿Desde el inicio?

–Algo así. Es como si las empezaran a adquirir casi desde los inicios, desde que se empieza a formar a través del proceso de fusiones jerárquicas. Lo que hoy vemos como galaxias viene de la unión de muchas galaxias más chiquitas, o protogalaxias. El crecimiento de las galaxias ha ido ocurriendo en distintos entornos, y es ahí donde va adquiriendo aparentemente buena parte de sus propiedades. Llega a un entorno hostil, pero llega preparada para sobrevivir a eso, y no se modifica tanto como en general se pensaba hasta hace poco. El tema sigue abierto: yo, al menos, he cambiado en los últimos tiempos.

Por Leonardo Moledo

Publicado enInternacional

Gracias a la neurobiología actual, los psicoanalistas podemos avanzar en el entendimiento de cómo la complejidad se encarna en unidades formadas por átomos, moléculas, desplazamientos eléctricos de bajo voltaje, células, circuitos neurales. Se presagian posibilidades de manipular incidencias genéticas con objetivos terapéuticos. Se han abierto nuevas condiciones de posibilidad para las curas. La incidencia de genes, sus mutaciones, y todo en relación con los “marcadores somáticos”, nos muestran bases cerebrales y corporales que soportan la realización subjetiva del “homo eroticus-sapiens-faber”. Este cruce puede potenciar investigaciones y generar colaboraciones en prácticas de frontera, que multipliquen la eficacia de las herramientas de cada uno de los campos de investigación y sus efectos sobre la práctica.

Las investigaciones neurobiológicas destituyeron el paradigma localizacionista que ubicaba para cada función un área específica del cerebro. Genéticamente, nada está definido para cumplir una determinada función. Heredamos disposiciones para cubrir funciones según las necesidades que tengamos en el medio ambiente. La plasticidad es la capacidad de maleabilidad, de cambio que tienen las neuronas, sus conexiones, para adaptarse a las exigencias de un contexto condicionante. Sobre eso operan y en eso se apoyan para operar: lo real, lo simbólico, lo imaginario. Centralmente: funciones madre, y del nombre del padre. Son las que hacen que lo pulsional se vaya intrincando y afectando determinadas áreas corporales.

Se demostró que el hipocampo y el bulbo olfatorio son las dos únicas áreas que tienen neoneurogénesis continua. Los receptores olfativos son terminales nerviosas y tienen que estar siempre renovándose para que no se saturen de información. El hipocampo es la estructura encargada de la memoria a corto plazo y si no se regenerasen allí neuronas, tenderíamos a fijarnos en memorias muy estables y sin posibilidad de borrarlas para incorporar nuevos registros nemónicos. Freud conjeturó ese tipo de funcionalidades y sus consiguientes consecuencias: las imaginó como “facilitaciones de contacto” y “barreras de resistencia”. Son fenómenos que se pueden observar actualmente con microfotografías electrónicas. Los psicoanalistas podemos proponer una investigación devenida de nuestra práctica. Investigar la memoria de largo plazo, en función de la experiencia de que algunos caracteres anales tienen una memoria prodigiosa para reconocer antiguos olores. También de que el asco a determinados olores es una adquisición en la historia de cada uno. Lo que suele manifestarse en diferencias sobre qué le da asco a cada persona. El asco es una manifestación refleja descriptivamente inconsciente, pero que muchas veces es efecto de antiguos fantasmas estructuralmente inconscientes.

El sistema nervioso, tejido de conexiones entre neuronas, funciona arborizándose y buscando contactar diversas de sus partes al servicio de determinada función. Lo cual logra a través de una multiplicidad de conexiones. A eso se le llama “sinaptogénesis”, génesis de las conexiones entre neuronas, que se llaman sinapsis. A lo largo de toda la vida, hay génesis, evolución e involución de conexiones. Este descubrimiento clave sustrajo la discusión de capacidad o incapacidad de reproducción de las neuronas. La dotación millonaria inicial hace innecesaria una producción mayor.

En cambio: la génesis, involución y hasta destrucción de espinas, ¿será el apoyo en la materialidad del cerebro para desplegar las capacidades inventivas de la materialidad del significante? Mientras las letras y los significantes son el alma que la Cultura nos da, la neurosinaptogénesis es la materia sobre la que trabaja el alma para sostener al hablante en sus movimientos de invención, de metáfora que lo van subjetivando. Si el no uso de la memoria puede traernos pruning de espículas (ver más abajo), creo que el invento acarrea sinaptogénesis. El resultado final, de la asociación entre nuestra batería significante y el terreno sobre el que se depositó y laboró, habrá sido la invención, la metáfora generadora de referencias. El concepto de Lacan sobre la letra como, ese soporte material que el discurso toma del lenguaje y que hace litoral entre lo real y lo simbólico, desborda a las letras de los abecedarios, hacia palabras y hasta frases, gesticulaciones, actos, prosodias, etc. Son previas a significantes. Son lo único primario en tanto litoral, en los bordes de los agujeros en el saber que invocan al goce en la invención, lo que suele comportar cierta angustia, por mordedura de lo real sobre lo simbólico.

Un tercer concepto de plasticidad: nacemos con unos cien mil millones de neuronas. De esas neuronas a lo largo de la vida una tasa pequeña, dependiendo de las noxas o de las afrentas de la vida, se irán perdiendo. Pero hay un proceso sobre el final de la gestación y hasta los 2 años, en el que se produce una marcada muerte celular. Se mueren muchas más neuronas que las que sería dable esperar, si vemos la tasa de pérdida progresiva de la vida posterior. A dicho proceso se lo llama apoptosis. Es una muerte cerebral, genéticamente programada. En el autismo hay una superpoblación de neuronas, con lo que se puede sospechar que la apoptosis no se efectivizó plenamente. ¿La “poda” habrá servido para reducir las conexiones “internas” y facilitar la recepción del medio ambiente? El neurocognitivismo explica desde este punto de vista la amnesia infantil. Lo piensa como pérdida de conexiones redundantes. Me parece importante distinguir la amnesia de los tiempos de represión primaria, por no disposición de un mínimo manejo de lengua y lenguaje en el momento del acontecimiento, de la represión secundaria. Ha habido, en aquéllos, ausencia radical de gramática, sintaxis, y una enorme pobreza semántica. Escenas y consecuencias de esos tiempos resultan imposibles de hilar en relatos.

Secuestro y crimen

El hijo de una pareja secuestrada y asesinada por la dictadura, adoptado luego por una familia extraña y registrado con el apellido de la misma, no guardaba recuerdos con estructura de relatos de aquellos acontecimientos. Pero lo acosaban angustiosamente sueños traumáticos en los que escuchaba explosiones fuertes, y otras breves y regulares. Recuperado por su abuela, oyó la narración del cerco militar a su casa de origen, el cañoneo de que fue objeto y el tableteo de metralletas y fusiles en el combate en que sus padres fueron muertos. Había conservado la imagen auditiva de las explosiones, aunada a la cenestésica de la angustia, probablemente trasmitida por el cuerpo y rostro de la madre y el padre. Pero no podía contar con solamente esas representaciones de cosa.

Otro caso, que supervisé siendo responsable del departamento de atención a los afectados por la represión del Servicio de Paz y Justicia, fue el de una criatura que en esa época, tenía 7 u 8 años, practicaba un extraño ritual con respecto al cual no podía elaborar relatos, ni dar razones. Se levantaba en la noche, salía al patio, hacía extraños ruidos y movimientos; luego se alojaba introvertida y asustada en las faldas de la mamá. Siendo bebé, había entrado una “patota” de la marina que secuestró a su padre para no devolverlo nunca más. Habían ocurrido gritos, llantos, intenso dramatismo. La madre y todos los hijos, incluida la beba, fueran tirados sobre la cama matrimonial y envueltos en una gran manta en absoluta confusión. En la terapia familiar, cuando la señora repetía dicho relato, la niña se paraba y se alojaba en sus faldas. Con buen criterio y sin forzamientos, la coterapeuta, en una de esas ocasiones, la tomó suavemente y la devolvió a su lugar en la reunión, diciéndole que era ése. A partir de entonces, cedió el extraño ritual. Un significante que la representara en articulación a un lugar por fuera de la mamá, emitido en el tiempo de concluir oportuno, relanzó la cadena significante de la criatura. Me parece bastante probable suponer que ese acto produjo poda de espículas y neogénesis de otras, y consiguiente reordenamientos de las redes. El significante justo, vía el gesto y la palabra que lo trasmitieron, recolocó a la niña, despegándola de la simbiosis que el acto trágico había grabado en ella y del cual en el extraño ritual, sólo encontraba un exutorio reducido.

Son recuerdos y olvidos diferentes de la represión infantil postedípica. Hipotetizo: los sueños traumáticos, con imágenes auditivas y cenestésicas anidadas de alguna forma en una red de espículas, sostenían, con su recurrencia, una memoria de largo plazo asentada en dicha red a la vez que realimentaban a ese tejido interespículas.

Tiempo de poda

Otro hallazgo de los neurobiólogos es el de poda o pruning, en las conexiones llamadas “dendritas”. Ocurre, a partir del nacimiento y en distintos momentos del desarrollo. Hay un pruning temprano, y otro que ocurre en la pubertad y adolescencia. En ese período las hormonas reconfiguran todo el sistema nervioso, hacen que el mismo comience a funcionar de una manera diferente. Recordemos que es cuando los genitales se desarrollan a la forma y nivel adulto. Reorganización en la que representaciones muy consolidadas se reconfiguran a partir de experiencias propias de la sexualidad y de la sociabilidad. Me parece importante subrayar, no sólo la coincidencia con el descubrimiento freudiano, sino también el valor que toman las transformaciones anátomohistofisiológicas de esta edad como sustento exigente desde la biología y lo real; lo radicalmente no sabido por esos púberes y adolescentes sobre ese cuerpo que los sorprende, y que los exige en el terreno simbólico imaginario.

Por, Por Sergio Rodríguez *

* Psicoanalista. Este artículo integra aportes de Gabriel Brarda, Fernando Alvarez, Laura Lueiro, Silvia Sisto, Carlos Názara, Eva Cristóbal, Alejandro del Carril, Miguel Calvano y Cristina Oyarzábal, en el seminario “Cruces entre psicoanálisis y neurobiología”, que el autor dirigió durante 2008.
 

Publicado enInternacional
Chicago, 13 de enero. La terapia de remplazo hormonal provocaría el achicamiento del cerebro en las mujeres de 65 años o más, lo que explica por qué esos medicamentos incrementan los problemas de memoria y pensamiento en estas pacientes, informaron el lunes investigadores estadunidenses.
Los expertos creían que la terapia de remplazo hormonal (TRH), que se sabe aumenta el riesgo de accidentes cerebrovasculares (ACV), podría estar causando lesiones cerebrales sin detectar o “ACV silentes”, que explicarían el mayor riesgo de problemas de memoria.
Pero no fue así, según Laura Coker, del Centro Médico Bautista de la Universidad de Wake Forest, en Carolina del Norte, quien trabajó en uno de dos estudios relacionados, publicados en la revista Neurology.

Por muchos años, los médicos creyeron que la TRH podía proteger a las mujeres de las dolencias crónicas, especialmente la enfermedad cardiaca.

Pero el uso de estas terapias se desplomó en 2002, luego de que un estudio reveló que las TRH podían aumentar el riesgo de cáncer de mama y ovario, ACV y otras enfermedades graves.
Dos estudios cerebrales realizados en la investigación de 2002, que observaron los efectos de la TRH sobre el funcionamiento del cerebro de las mujeres de más de 65 años, mostraron que el estrógeno, con o sin progestina, aumentaba el riesgo de demencia. Coker y sus colegas querían saber por qué.

Los investigadores dieron seguimiento a mil 400 mujeres de 71 a 89 años que habían tomado terapia hormonal por un promedio de cuatro a seis años, usando controles con IRM para ver qué causaba el problema de memoria.

“Observamos muy poca diferencia en el volumen de las lesiones cerebrales en las mujeres que habían tomado estrógeno, comparadas con las que consumían placebo”, dijo Coker en entrevista telefónica.

“No es lo que esperábamos encontrar”, añadió la autora.

Respuesta

La respuesta llegó en un estudio dirigido por Susan Resnick, del Instituto Nacional del Envejecimiento, que halló que las mujeres que recibían terapia hormonal tenían volúmenes cerebrales levemente menores en dos zonas críticas: el lóbulo frontal y el hipocampo.
Ambas regiones cerebrales están involucradas en la memoria y el pensamiento.

“Nuestros hallazgos sugieren que la terapia hormonal en las mujeres posmenopáusicas tiene un efecto negativo sobre estructuras cerebrales importantes que apuntan al funcionamiento normal de la memoria”, declaró Resnick en un comunicado.

El resultado fue más pronunciado en las mujeres que ya tenían algunas señales de deterioro mental antes de comenzar con la TRH.

Coker manifestó que el próximo paso es realizar un estudio de seguimiento con IRM para ver si los cambios en el volumen cerebral son duraderos.

Actualmente, la mayoría de médicos aconsejan que las mujeres que acuden a la TRH para manejar los síntomas de la menopausia usen la menor dosis y durante el menor tiempo posible.
Publicado enInternacional
Dentro de la célula se producen fenómenos que paralizarían de asombro aun a un espectador del funcionamiento de las estrellas, y el jinete-búho hipotético sigue con asombro el camino de los electrones a través de las cadenas proteicas.
 

–Según tengo anotado acá, usted es vicedirector del Inquimae, Instituto de Química, física de los materiales, Medio Ambiente y Energía del Conicet y se dedica a la espectroscopía raman de proteínas y procesos de transferencia de carga. Yo no tengo idea de lo que es eso. Cuénteme.


–Bueno, nuestro interés es analizar cómo funcionan determinadas proteínas que en el organismo tienen funciones de transferencia de electrones. Un ejemplo de eso es la respiración celular, que implica una cadena de reacciones de transferencia electrónica en la cual la última molécula que interviene es el oxígeno.

–Y esa transferencia se produce.

–A través de una cadena muy compleja, en la cual participa una serie de proteínas ancladas a una membrana biológica. Lo que nosotros hacemos es estudiar cada una de esas proteínas y tratar de determinar cómo va cambiando la estructura de esa proteína a medida que va funcionando, cómo va transfiriendo sus electrones, qué cambios tienen que ocurrir para que una proteína reconozca a la otra y ocurra la reacción.

–Bueno, y esa transferencia de electrones ¿qué objeto tiene?

–El truco que utiliza la naturaleza es el siguiente: esa cadena se utiliza para proveer a la célula de la energía necesaria para llevar adelante otros procesos. Es una transducción de energía. Estas moléculas aprovechan la energía que trae en exceso una especie química que dona electrones y van transfiriéndosela. Generalmente hay una especie transportadora entre una y otra.

–¿Y dónde ocurre eso?

–En la pared celular interna de la mitocondria, que es una organela interior de las células. El hecho de que exista una transferencia secuencial de electrones significa que ese electrón se viene cayendo en una cadena de energía, y esa energía en exceso se utiliza en otros procesos, por ejemplo, para enviar protones de un lado a otro de la membrana. Y eso ocurre en contra de lo que sería el gradiente de energía.

–¿Para qué sirve esto?

–Una vez que se transfirieron los protones, queda una diferencia: un exceso de carga positiva que genera una diferencia de potencial. Eso es utilizado por la última de las proteínas de la cadena para crear una molécula que funciona como combustible para el organismo. Es decir que transforma una energía (la electrónica) en otra (química). Son pasos muy complejos.

–Una carrera de obstáculos.

–Sí, y uno de los obstáculos es, por ejemplo, la distancia entre las proteínas: a los electrones no les gusta mucho viajar, entonces hay que optimizar lo que se llama “camino de transferencia de electrones”. Eso requiere toda una modulación de la estructura de la proteína misma. Por otra parte, la cosa es muy compleja. Imagínese la siguiente situación: una proteína le tiene que pasar el electrón que recibió de la anterior a la siguiente, pero tiene que saber que una vez que se lo dio se tiene que ir.

–¿Y cómo lo sabe?

–Nuestra teoría es que una buena parte de la modulación depende del campo eléctrico, que es variable. Gran parte de nuestra investigación se orienta a estudiar la influencia del campo eléctrico en la estructura y el comportamiento de estas proteínas. Lo hacemos con una técnica que se llama espectroscopía raman intensificada por superficie.

–Ahora tiene que explicarme qué es eso...

–Es una técnica vibracional. Todas las moléculas vibran, y cuantos más átomos tenga una molécula, más complejas serán esas vibraciones. Para observarlas, es posible inducir esas vibraciones haciendo que la molécula absorba un fotón (una partícula de luz) infrarrojo y medir cuánta luz se absorbió de determinada longitud de onda y sacar un espectro vibracional. Eso es lo que se llama espectroscopía infrarroja.

–¿Y la raman?

–La raman provee el mismo tipo de información pero en base a un fenómeno físico diferente, que es la reacción inelástica de los fotones con las moléculas, un choque que no es completamente elástico sino que se produce con transferencia de energía. Del fotón a la molécula o de la molécula al fotón. Mi fuente de fotones va a ser un láser, que es monocromático. La luz que salga va a tener la componente de mi láser (si el láser es verde, será verde) pero va a haber una mínima fracción que no será verde, porque si esos fotones perdieron energía o ganaron energía estarán corridos al rojo o al azul. Es energía que la molécula ganó o perdió.

–Los fotones se mezclaron en todas las charlas que tuve hoy y me generaron siempre la misma pregunta... ¿Existen los fotones?

–Bueno, es una teoría... Uno puede describir a la luz en base a la teoría corpuscular...

–¿Pero qué piensa usted?

–Yo pienso que no se puede describir de una forma ni de la otra sino que uno utiliza uno u otro modelo de acuerdo con el problema que quiera solucionar.

–Pero en la realidad, en el mundo, ¿existen esas bolitas sin masa?

–No, existe un modelo que nos permite avanzar en el camino del conocimiento. Pero son problemas que exceden nuestra capacidad de comprensión.

–¿Y los electrones? ¿Existen como existe una mesa?

–También tienen esa dualidad onda-partícula.

–Pero pensando macro...

–Creo que sí existen.

–Bueno. Usted, con este sistema espectroscópico, estudia el comportamiento de una molécula...

–Claro. Ese sistema me permite, por ejemplo, inmovilizar una proteína sobre un electrodo metálico que está nanoestructurado, y a esa superficie, a su vez, le hago una modificación química que me permite crear un sistema biomimético (es decir, que se aproxima a un sistema biológico). Sobre esa superficie puedo inmovilizar mi proteína, con el electrodo controlo el campo eléctrico y con el sistema espectroscópico puedo mirar a tiempo real qué es lo que pasa con los electrones...

–Quisiera volver al tema de los electrones que se van transfiriendo, porque me parece que los procesos que ocurren al interior de las células son verdaderamente apabullantes. Yo tengo proteínas embebidas en la membrana interna de una mitocondria, viene algo de afuera que le transfiere un electrón a la primera. ¿Cómo lo hace?

–El grueso de la transferencia electrónica en sistemas biológicos es de larga distancia... se forman como autopistas para estos electrones que viajan por ellas de molécula en molécula y en general van perdiendo energía, que se disipó como calor o se utilizó para hacer algún trabajo, que puede ser, como le había dicho antes, la traslocación de protones, y después, debe volver al estado original, para estar lista para realizar un nuevo proceso. Ese electrón en exceso, entonces, se lo pasa a la siguiente. Que a su vez traslocará protones y se la pasará a la otra. Así hasta llegar a la última, la enzima terminal, que será la que finalmente reducirá el oxígeno. El oxígeno que nosotros respiramos se reduce a agua en la última instancia de esa cadena. Ese oxígeno se une a un centro metálico de la última proteína y los electrones irán viajando hasta llegar al centro metálico, entran de a uno, toman protones y se transforma en agua.

–O sea que la función del oxígeno que respiramos es transformarse en agua y proveer de agua a la célula.

–No. En realidad la reducción del oxígeno al agua no es un objetivo en sí mismo sino un efecto colateral de esta transducción energética electroprotónica.

–Pero sin el oxígeno no podríamos hacerlo.

–Nosotros no. Pero otros organismos sí, los que utilizan otro agente químico como último aceptor. No todos los organismos respiran oxígeno.

–Todo esto es bastante impresionante. ¿En cuánto tiempo ocurre todo ese proceso?

–Milisegundos.

–Y eso está ocurriendo en todas las células del cuerpo, miles de veces por segundo...

–Además, por supuesto, todas las proteínas se van degradando y deben ser repuestas. Nuestro interés, entonces, es ver cómo funciona esto desde el punto de vista fisicoquímico para hacer que esas proteínas hagan lo que nosotros queremos que hagan y no lo que la naturaleza les impone.

–¿Por ejemplo?

–Construir sensores basados en las mismas proteínas. Si nosotros somos capaces de determinar cómo interactúa una proteína con una superficie y de descubrir qué condiciones deben darse para que la transferencia sea óptima, entonces podemos construir un dispositivo donde esa proteína se ocupe de medir peróxido de hidrógeno en algunas soluciones.

–Le diré que esto es muy interesante, pero frente al espectáculo que me acaba de describir...

–Bueno, ahí apenas si tenemos mérito. Eso lo hizo todo la naturaleza.

 Por Leonardo Moledo
Publicado enInternacional



Chicago. Científicos de Estados Unidos encontraron la forma de levitar objetos muy pequeños utilizando extrañas fuerzas de mecánica cuántica y dijeron este miércoles que podrían utilizarla para ayudar a construir pequeñas máquinas de nanotecnología.

Afirmaron que habían detectado y medido una fuerza que entra en acción a nivel molecular utilizando ciertas combinaciones de moléculas que se repelen unas a otras.

La repulsión puede ser utilizada para mantener a las moléculas en el aire, en esencia hacerlas levitar, creando virtualmente partes libres de fricción para pequeños artefactos, explicaron los investigadores.

Federico Capasso, físico aplicado de la universidad de Harvard en Massachusetts, cuyos estudios aparecen en la revista Nature, dijo que cree que la detección de esta fuerza abre la posibilidad para una nueva generación de artefactos diminutos.

El equipo, que incluye a investigadores del Instituto Nacional de Salud, aún no ha levitado un objeto, pero Capasso dijo que ahora saben cómo hacerlo. "Este es un experimento que estamos seguros que funcionará", señaló. El grupo ya comenzó los trámites para conseguir una patente.

"Al reducir la fricción que dificulta el movimiento y contribuye al desgaste y erosión, la nueva técnica otorga bases teóricas para mejorar la maquinaria a nivel microscópico e incluso molecular", explicó el médico Duan Alexander del Instituto Nacional de Salud Infantil y Desarrollo Humano, NIH.

"La emergente tecnología de nanomecánica tiene el potencial de mejorar la medicina y otros campos", expuso Alexander en un comunicado.

El descubrimiento involucra mecánica cuántica, cuyos principios determinan la naturaleza de las partículas más pequeñas.

Al alterar y combinar las moléculas, se podrían inventar diminutas máquinas para utilizarlas en cirugías, fabricación de alimentos, combustibles y en mejorar la velocidad de los computadores.

El descubrimiento surgió del trabajo previo de Capasso como vicepresidente de investigación física de los laboratorios Bell, brazo del fabricante de equipos de telecomunicación Lucent Technologies, ahora Alcatel-Lucent.

"Comencé a pensar cómo puedo usar estas exóticas fuerzas de la mecánica cuántica en la tecnología", dijo en una entrevista telefónica.

Bell había estado trabajando en nuevos aparatos conocidos como Micro Sistemas Electromecánicos (MEMS, por sus siglas en inglés), la tecnología que se usa en los sensores de las bolsas de aire para medir la desaceleración de los vehículos.

"Comenzamos a jugar con la nanomecánica o micromecánica", subrayó Capasso.

El sabía que a medida que los aparatos se vuelven cada vez más pequeños, se convierten en víctimas de lo que se conoce como el efecto Casimir, una fuerza de atracción que aparece cuando dos superficies metálicas muy pequeñas se aproximan a distancias muy cortas.

En objetos muy pequeños, esta fuerza puede provocar que las partes móviles se adhieran, un efecto conocido como fricción estática.

Un equipo ruso había predicho que esta fuerza podría ser revertida utilizando la combinación correcta de materiales.

Para el experimento de Capasso, el equipo sumergió una esfera bañada en oro en un líquido y midió la fuerza mientras la esfera era atraída hacia una placa metálica y luego era repelida desde una placa hecha de sílice.

Capasso dijo que la levitación es lo próximo. "Sólo tenemos que hacerlo", afirmó.

Publicado enInternacional
Viernes, 02 Enero 2009 16:02

Faltan normas éticas para robots

Los robots no están por llegar: ya están aquí, pero, en vez de dominar a la humanidad con su lógica y su fuerza superiores, amenazan con crear una subclase de personas aisladas del contacto humano.
 
Es necesario supervisar y controlar mediante normas éticas el creciente número de robots en casa, para restringir su uso en escenarios delicados, como el cuidado de bebés, la atención a ancianos y la guerra, advierte un destacado científico.
Se estima que las ventas de robots para servicio profesional y personal en todo el planeta han llegado a 5.5 millones de unidades este año, y se prevé que alcancen más del doble –11.5 millones– hacia 2011. Algunos ayudan a profesionistas ocupados a entretener a los niños; otros alimentan y bañan a ancianos y discapacitados. Sin embargo, hay poco o ningún control sobre su uso.
 
El profesor Noel Sharkey, experto en inteligencia artificial de la Universidad de Sheffield, Inglaterra, advierte que los robots actúan en situaciones potencialmente delicadas que podrían conducir al aislamiento y la falta de contacto humano, debido a la tendencia a dejarlos solos con las personas a su cargo durante periodos prolongados.
 
“Necesitamos trazar normas para poner límite al contacto con robots –afirma. Algunos robots diseñados para cuidar niños son ahora tan seguros que los padres pueden dejar a sus hijos con ellos durante horas, o incluso días.”
 
Más de una docena de compañías con sede en Japón y Sudcorea fabrican robots de “compañía” y cuidado de niños. Por ejemplo, NEC ha probado en infantes su bonito robot personal PaPeRo, que vive en la casa con la familia, reconoce los rostros, puede imitar la conducta humana y ser programado para contar chistes mientras explora la casa. Muchos robots están diseñados como juguetes, pero pueden asumir papeles de cuidado de los menores vigilando sus movimientos y comunicándose con un adulto ubicado en otra habitación, o incluso en otro edificio, mediante una conexión inalámbrica de computadora o teléfono móvil.
 
“La investigación sobre robots de servicio ha mostrado que los niños se relacionan estrechamente con ellos y les cobran apego; en la mayoría de los casos prefieren un robot a un osito de peluche –comentó el profesor Sharkey. La exposición por periodos breves puede brindar una experiencia amena y entretenida, que despierta interés y curiosidad. Sin embargo, por la seguridad física que proporcionan los robots cuidadores, se puede dejar a los niños sin contacto humano durante muchas horas al día o tal vez durante varios días, y no se conoce el posible impacto sicológico de los diversos grados de aislamiento social sobre el desarrollo.”
 
Para cuidar de los ancianos se desarrollan robots menos juguetones. Secom fabrica una computadora llamada My spoon (Mi cuchara), que ayuda a discapacitados a tomar alimentos de una mesa. Sanyo ha construido una bañera robot eléctrica que lava y talla automáticamente a una persona que padece discapacidad motriz.
“En el otro extremo del espectro de edades, el incremento de los ancianos en muchos países ha disparado el desarrollo de robots para cuidarlos”, apunta Sharkey. “Estos robots ayudan a los ancianos a ser independientes en sus casas, pero su presencia conlleva el riesgo de dejarlos bajo el cuidado exclusivo de las máquinas, sin contacto humano suficiente. Los ancianos necesitan este contacto, que sólo pueden ofrecerles los cuidadores humanos y las personas que realizan tareas cotidianas para ellos.”
 
En la revista Science, Sharkey hace un llamado a adoptar normas éticas para cubrir todos los aspectos de la tecnología robótica, no sólo en el hogar y en el lugar de trabajo, sino también en el campo de batalla, donde se despliegan robots letales como los aviones no tripulados Predator, armados de misiles, que se usaron en Irak y Afganistán. El proyecto estadunidense Sistemas Futuros de Combate apunta a utilizar robots como “multiplicadores de fuerza”, con los cuales un solo soldado podría lanzar ataques terrestres y aéreos en gran escala con un ejército de androides. “Los robots de cuidado y de guerra representan sólo dos de muchas áreas problemáticas desde el punto de vista ético que pronto surgirán por el rápido incremento y la creciente diversidad de las aplicaciones robóticas”, advierte el profesor Sharkey. “Científicos e ingenieros que trabajan en robótica deben tener en cuenta los peligros potenciales de su trabajo, y se requiere un debate público internacional para adoptar políticas y normas destinadas a la aplicación ética y segura.”
 
El llamado a controlar los robots se remonta a la década de 1940, cuando el escritor de ciencia ficción Isaac Asimov trazó sus famosas tres leyes de la robótica. La primera ordenaba que los robots no debían dañar a las personas; la segunda, que debían obedecer el mando humano, siempre y cuando no quebrantaran la primera ley, y la tercera, que debían evitar dañarse a sí mismos en tanto ello no entrara en conflicto con las otras dos leyes.
 
Asimov escribió una colección de cuentos llamada Yo, Robot, que abordaba el tema de las máquinas y la moral. Quería contrarrestar la larga historia de recuentos ficticios sobre autómatas peligrosos –desde el Golem judío hasta el Frankenstein de Mary Shelley– y creó sus tres leyes como recurso literario para explotar las cuestiones éticas que surgen de la interacción humana con seres inteligentes no humanos. Sin embargo, las predicciones de finales del siglo XX relativas al ascenso de máquinas investidas de una inteligencia artificial superior no se han cumplido, si bien los científicos de la robótica han dotado a sus protegidos mecánicos de rasgos casi inteligentes, como el reconocimiento del habla simple, la expresión emocional y el reconocimiento de rostros.
 
El profesor Sharkey cree que es necesario controlar incluso a los robots tontos. “No sugiero, como Asimov, poner reglas éticas a los robots, sino sólo tener lineamientos sobre la forma de utilizarlos. Los actuales ni siquiera alcanzan el adjetivo de tontos. Si creyera que son superiores en inteligencia, no tendría estas preocupaciones. Son máquinas bobas, no mucho más brillantes que la lavadora promedio, y ése es el problema.”

Steve Connor (The Independent)
Traducción: Jorge Anaya
Publicado enInternacional