Un satélite de comunicaciones estadounidense privado ha chocado en el espacio con otro ruso ya inoperativo, ha informado este jueves un portavoz militar estadounidense. "Creemos que se trata de la primera vez que dos satélites chocan en órbita", ha indicado el teniente coronel de la Fuerza Aérea Les Kodlick, del Comando Estratégico de EE UU.

Según este portavoz, en la colisión se han visto implicados un satélite de comunicaciones de la empresa Iridium Satellite LLC y otro ruso Cosmos que ya no estaba en funcionamiento. El choque se ha producido en una órbita terrestre baja, a unos 780 kilómetros de altitud, empleada normalmente por los satélites de telecomunicaciones y aquellos que monitorizan fenómenos meteorológicos.

El diario The Washington Post asegura en su edición en la Red (en inglés) , citando a fuentes de la NASA, que el choque ha provocado una nube de escombros que podrían aproximarse a la Estación Espacial Internacional (ISS), situada a una órbita de unos 400 kilómetros de altitud. "En última instancia, esos escombros irán bajando su órbita y si es necesario la estación está capacitada para llevar a cabo una maniobra", indicó el portavoz John Yembrick a este periódico estadounidense.

El experto de la NASA Nicholas Johnson, del Centro Espacial Johnson en Houston, ha señalado a la agencia Reuters que se desconoce el número exacto de restos derivados de la colisión. Según Kodlick, el centro de operaciones espaciales del Comando Estratégico tiene entre sus funciones seguirle la pista en el espacio a unos 18.000 objetosre, entre ellos, escombros de unos 10 centímetros como mínimo, satélites operativos y fuera de servicio.

REUTERS / ELPAÍS.com - Washington - 12/02/2009
Publicado enInternacional
Miércoles, 28 Enero 2009 06:16

Galaxias que dan vueltas por ahí

–Antes que nada, quiero decirle que no tengo una foto suya, así que tendré que ilustrar el diálogo de otra manera.

–Ponga una galaxia.

–Buena idea. Ahora cuénteme sobre su tema de investigación.

–Mi área central son los sistemas de galaxias: grupos, cúmulos; y dentro de ésos hay varios subtipos. Cuando uno piensa en una galaxia, lo hace en general imaginando una galaxia aislada y eso es erróneo: la mayoría de las galaxias viven en grupos; de hecho la nuestra vive en un pequeño grupo, el grupo local, que aún no terminamos de conocer, ya que siempre aparecen nuevas galaxias.

–¿Cuántas son hasta ahora en el grupo local?

–Algunas pocas decenas, no sé el número exacto. Pero lo más interesante es que si nosotros pusiéramos el grupo local a la distancia en que hoy se hace la mayoría de los relevamientos de galaxias, sólo veríamos dos o tres galaxias y, por eso, no lo podríamos calificar como grupo dentro de nuestro concepto actual. Simplemente parecerían galaxias aisladas. Todas las demás galaxias del grupo son muy débiles, y sólo las podemos ver porque estamos adentro.

–Sacando la nuestra y Andrómeda.

–Sacando la nuestra, la Vía Láctea, y Andrómeda, que es todavía un poco más grande. Ahora, esas galaxias débiles son prácticamente imposibles de detectar en los sistemas más lejanos (y ni siquiera tan lejanos, puesto que están dentro del universo al que tenemos acceso). Eso quiere decir que, hoy en día, la mayoría de las conclusiones que sacamos en base a sistemas de galaxias se basa en las galaxias brillantes y soslayan a las galaxias enanas: cuando uno habla de grupos o de cúmulos de galaxias se refiere a aglomerados de galaxias brillantes. Las débiles son todavía una gran incógnita, por una dificultad observacional.

–¿Y los cúmulos qué son?

–Son los sistemas más espectaculares de acumulación: son cientos de galaxias brillantes, en los casos más ricos, como por ejemplo en el Cúmulo de Virgo (que, al estar bastante cerca, puede estudiarse muy en detalle) y tienen una característica muy particular, que es que la cantidad de materia oscura termina siendo un pozo de potencial suficientemente profundo (o denso) como para que el gas que normalmente está alrededor de las galaxias se caliente a temperaturas muy altas como para que emita en rayos X.

–Y ahí, en rayos X, las pescan.

–Claro. La imagen de un cúmulo, si uno la ve en rayos X (algo que se hace con telescopios en órbita, porque la atmósfera no deja ver los rayos X) es la de un gran halo de emisión (en X), superior al tamaño de galaxias enteras, que no es otra cosa que el gas que está caliente. Los cúmulos son, en ese sentido, muy espectaculares. Probablemente lo más espectacular de los últimos años es que hay tanta masa que producen distorsión de las luces de galaxias que están detrás...

–Porque deforman el espacio...

–Claro; por supuesto que nos movemos en el marco teórico de la relatividad general y uno ve espectaculares arcos, deformaciones de la imagen de las galaxias que están detrás. Los cúmulos son los sistemas que han logrado la mayor madurez y espectacularidad en el universo. Después uno tiene dentro de eso a los grupos de galaxias. Acá, en Córdoba, estamos trabajando en dos tipos particulares de grupos. Unos son los “compactos”, que son sistemas de pocas galaxias muy próximas.

–¿Qué tan próximas?

–Depende de sus tamaños. Pero lo interesante es que plantean una serie de interrogantes como, por ejemplo, por qué no se fusionan y todo eso. En realidad, uno de los trabajos que se están realizando acá tiene que ver con determinar si son verdaderos sistemas o si, en realidad, no son más que efectos de proyección. Hemos logrado determinar cuántos de ellos son reales, y encontramos que un buen número lo es.

–¿Y entonces?

–Pero falta revelar cuál será el futuro de esos sistemas, cómo evolucionarán, puesto que nos puede servir como modelo para predecir la evolución de otros sistemas de galaxias. Recientemente, en los últimos años, se han puesto de moda otros sistemas, que son los “grupos fósiles”.

–Un término sugestivo.

–Sí. Hace pensar que se trata del final de algunos grupos de galaxias. Básicamente, un fósil es una galaxia muy brillante, roja, vieja, elíptica, que revela la ausencia de otras galaxias, pero evidencia que hay un halo de materia oscura como el de los cúmulos, que se ve a través de imagen en X.

–¿Y qué es?

–La idea original es que se trata de un ex sistema de galaxias en el cual la galaxia central se comió a las demás. Pero estudios que hemos realizado recientemente con simulaciones numéricas refutan un poco esa conclusión: es más probable que se trate de un tipo de sistemas un poco particulares, pero no es necesariamente el resultado de un proceso evolutivo hacia el cual se dirigirían inexorablemente todos los sistemas de galaxias.

–¿Esos son, entonces, los temas en los que trabaja?

–Sí. En realidad, nuestro interés particular son las propiedades de las galaxias en los sistemas. Es decir: si uno mira galaxias “de campo” que no están en los sistemas de muchas galaxias y las galaxias de los cúmulos ricos, nota una diferencia muy grande. En el campo abundan las galaxias espirales, mientras que en los cúmulos abundan las elípticas. La primera gran pregunta es por qué. ¿Es un proceso evolutivo o las galaxias saben cuál será su lugar en el universo y adquieren esa forma?

–¿Y usted qué piensa?

–Hoy en día, uno está más inclinado a los procesos evolutivos. Las galaxias, cuando empiezan a vivir en entornos de alta densidad, evolucionan distinto a las que viven en entornos de baja densidad y terminan transformándose de una galaxia espiral a una galaxia elíptica. De todos modos, aún quedan muchos interrogantes acerca de cuáles son los procesos físicos que alteran las propiedades de esa galaxia y cuándo eso ocurre. Hasta ahora, al menos mi idea (que está cambiando en los últimos tiempos) es que la etapa final de los cúmulos podía jugar un rol muy importante, porque es un lugar realmente muy hostil.

–¿Por qué?

–Porque hay velocidades muy grandes, encuentros próximos entre galaxias. Una galaxia que tiene gas se mueve en un gas caliente que también la puede afectar. Es como el centro de la ciudad en un día complicado: una persona que va manejando el auto siente que el lugar es hostil, a diferencia de lo que podría ser manejar en un lugar solitario. Pero la impresión que tengo es que, a pesar de ser un lugar un poco hostil, buena parte de las propiedades que la galaxia tiene las ha ido adquiriendo antes, no necesariamente en esa fase final del cúmulo.

–¿Desde el inicio?

–Algo así. Es como si las empezaran a adquirir casi desde los inicios, desde que se empieza a formar a través del proceso de fusiones jerárquicas. Lo que hoy vemos como galaxias viene de la unión de muchas galaxias más chiquitas, o protogalaxias. El crecimiento de las galaxias ha ido ocurriendo en distintos entornos, y es ahí donde va adquiriendo aparentemente buena parte de sus propiedades. Llega a un entorno hostil, pero llega preparada para sobrevivir a eso, y no se modifica tanto como en general se pensaba hasta hace poco. El tema sigue abierto: yo, al menos, he cambiado en los últimos tiempos.

Por Leonardo Moledo

Publicado enInternacional

Gracias a la neurobiología actual, los psicoanalistas podemos avanzar en el entendimiento de cómo la complejidad se encarna en unidades formadas por átomos, moléculas, desplazamientos eléctricos de bajo voltaje, células, circuitos neurales. Se presagian posibilidades de manipular incidencias genéticas con objetivos terapéuticos. Se han abierto nuevas condiciones de posibilidad para las curas. La incidencia de genes, sus mutaciones, y todo en relación con los “marcadores somáticos”, nos muestran bases cerebrales y corporales que soportan la realización subjetiva del “homo eroticus-sapiens-faber”. Este cruce puede potenciar investigaciones y generar colaboraciones en prácticas de frontera, que multipliquen la eficacia de las herramientas de cada uno de los campos de investigación y sus efectos sobre la práctica.

Las investigaciones neurobiológicas destituyeron el paradigma localizacionista que ubicaba para cada función un área específica del cerebro. Genéticamente, nada está definido para cumplir una determinada función. Heredamos disposiciones para cubrir funciones según las necesidades que tengamos en el medio ambiente. La plasticidad es la capacidad de maleabilidad, de cambio que tienen las neuronas, sus conexiones, para adaptarse a las exigencias de un contexto condicionante. Sobre eso operan y en eso se apoyan para operar: lo real, lo simbólico, lo imaginario. Centralmente: funciones madre, y del nombre del padre. Son las que hacen que lo pulsional se vaya intrincando y afectando determinadas áreas corporales.

Se demostró que el hipocampo y el bulbo olfatorio son las dos únicas áreas que tienen neoneurogénesis continua. Los receptores olfativos son terminales nerviosas y tienen que estar siempre renovándose para que no se saturen de información. El hipocampo es la estructura encargada de la memoria a corto plazo y si no se regenerasen allí neuronas, tenderíamos a fijarnos en memorias muy estables y sin posibilidad de borrarlas para incorporar nuevos registros nemónicos. Freud conjeturó ese tipo de funcionalidades y sus consiguientes consecuencias: las imaginó como “facilitaciones de contacto” y “barreras de resistencia”. Son fenómenos que se pueden observar actualmente con microfotografías electrónicas. Los psicoanalistas podemos proponer una investigación devenida de nuestra práctica. Investigar la memoria de largo plazo, en función de la experiencia de que algunos caracteres anales tienen una memoria prodigiosa para reconocer antiguos olores. También de que el asco a determinados olores es una adquisición en la historia de cada uno. Lo que suele manifestarse en diferencias sobre qué le da asco a cada persona. El asco es una manifestación refleja descriptivamente inconsciente, pero que muchas veces es efecto de antiguos fantasmas estructuralmente inconscientes.

El sistema nervioso, tejido de conexiones entre neuronas, funciona arborizándose y buscando contactar diversas de sus partes al servicio de determinada función. Lo cual logra a través de una multiplicidad de conexiones. A eso se le llama “sinaptogénesis”, génesis de las conexiones entre neuronas, que se llaman sinapsis. A lo largo de toda la vida, hay génesis, evolución e involución de conexiones. Este descubrimiento clave sustrajo la discusión de capacidad o incapacidad de reproducción de las neuronas. La dotación millonaria inicial hace innecesaria una producción mayor.

En cambio: la génesis, involución y hasta destrucción de espinas, ¿será el apoyo en la materialidad del cerebro para desplegar las capacidades inventivas de la materialidad del significante? Mientras las letras y los significantes son el alma que la Cultura nos da, la neurosinaptogénesis es la materia sobre la que trabaja el alma para sostener al hablante en sus movimientos de invención, de metáfora que lo van subjetivando. Si el no uso de la memoria puede traernos pruning de espículas (ver más abajo), creo que el invento acarrea sinaptogénesis. El resultado final, de la asociación entre nuestra batería significante y el terreno sobre el que se depositó y laboró, habrá sido la invención, la metáfora generadora de referencias. El concepto de Lacan sobre la letra como, ese soporte material que el discurso toma del lenguaje y que hace litoral entre lo real y lo simbólico, desborda a las letras de los abecedarios, hacia palabras y hasta frases, gesticulaciones, actos, prosodias, etc. Son previas a significantes. Son lo único primario en tanto litoral, en los bordes de los agujeros en el saber que invocan al goce en la invención, lo que suele comportar cierta angustia, por mordedura de lo real sobre lo simbólico.

Un tercer concepto de plasticidad: nacemos con unos cien mil millones de neuronas. De esas neuronas a lo largo de la vida una tasa pequeña, dependiendo de las noxas o de las afrentas de la vida, se irán perdiendo. Pero hay un proceso sobre el final de la gestación y hasta los 2 años, en el que se produce una marcada muerte celular. Se mueren muchas más neuronas que las que sería dable esperar, si vemos la tasa de pérdida progresiva de la vida posterior. A dicho proceso se lo llama apoptosis. Es una muerte cerebral, genéticamente programada. En el autismo hay una superpoblación de neuronas, con lo que se puede sospechar que la apoptosis no se efectivizó plenamente. ¿La “poda” habrá servido para reducir las conexiones “internas” y facilitar la recepción del medio ambiente? El neurocognitivismo explica desde este punto de vista la amnesia infantil. Lo piensa como pérdida de conexiones redundantes. Me parece importante distinguir la amnesia de los tiempos de represión primaria, por no disposición de un mínimo manejo de lengua y lenguaje en el momento del acontecimiento, de la represión secundaria. Ha habido, en aquéllos, ausencia radical de gramática, sintaxis, y una enorme pobreza semántica. Escenas y consecuencias de esos tiempos resultan imposibles de hilar en relatos.

Secuestro y crimen

El hijo de una pareja secuestrada y asesinada por la dictadura, adoptado luego por una familia extraña y registrado con el apellido de la misma, no guardaba recuerdos con estructura de relatos de aquellos acontecimientos. Pero lo acosaban angustiosamente sueños traumáticos en los que escuchaba explosiones fuertes, y otras breves y regulares. Recuperado por su abuela, oyó la narración del cerco militar a su casa de origen, el cañoneo de que fue objeto y el tableteo de metralletas y fusiles en el combate en que sus padres fueron muertos. Había conservado la imagen auditiva de las explosiones, aunada a la cenestésica de la angustia, probablemente trasmitida por el cuerpo y rostro de la madre y el padre. Pero no podía contar con solamente esas representaciones de cosa.

Otro caso, que supervisé siendo responsable del departamento de atención a los afectados por la represión del Servicio de Paz y Justicia, fue el de una criatura que en esa época, tenía 7 u 8 años, practicaba un extraño ritual con respecto al cual no podía elaborar relatos, ni dar razones. Se levantaba en la noche, salía al patio, hacía extraños ruidos y movimientos; luego se alojaba introvertida y asustada en las faldas de la mamá. Siendo bebé, había entrado una “patota” de la marina que secuestró a su padre para no devolverlo nunca más. Habían ocurrido gritos, llantos, intenso dramatismo. La madre y todos los hijos, incluida la beba, fueran tirados sobre la cama matrimonial y envueltos en una gran manta en absoluta confusión. En la terapia familiar, cuando la señora repetía dicho relato, la niña se paraba y se alojaba en sus faldas. Con buen criterio y sin forzamientos, la coterapeuta, en una de esas ocasiones, la tomó suavemente y la devolvió a su lugar en la reunión, diciéndole que era ése. A partir de entonces, cedió el extraño ritual. Un significante que la representara en articulación a un lugar por fuera de la mamá, emitido en el tiempo de concluir oportuno, relanzó la cadena significante de la criatura. Me parece bastante probable suponer que ese acto produjo poda de espículas y neogénesis de otras, y consiguiente reordenamientos de las redes. El significante justo, vía el gesto y la palabra que lo trasmitieron, recolocó a la niña, despegándola de la simbiosis que el acto trágico había grabado en ella y del cual en el extraño ritual, sólo encontraba un exutorio reducido.

Son recuerdos y olvidos diferentes de la represión infantil postedípica. Hipotetizo: los sueños traumáticos, con imágenes auditivas y cenestésicas anidadas de alguna forma en una red de espículas, sostenían, con su recurrencia, una memoria de largo plazo asentada en dicha red a la vez que realimentaban a ese tejido interespículas.

Tiempo de poda

Otro hallazgo de los neurobiólogos es el de poda o pruning, en las conexiones llamadas “dendritas”. Ocurre, a partir del nacimiento y en distintos momentos del desarrollo. Hay un pruning temprano, y otro que ocurre en la pubertad y adolescencia. En ese período las hormonas reconfiguran todo el sistema nervioso, hacen que el mismo comience a funcionar de una manera diferente. Recordemos que es cuando los genitales se desarrollan a la forma y nivel adulto. Reorganización en la que representaciones muy consolidadas se reconfiguran a partir de experiencias propias de la sexualidad y de la sociabilidad. Me parece importante subrayar, no sólo la coincidencia con el descubrimiento freudiano, sino también el valor que toman las transformaciones anátomohistofisiológicas de esta edad como sustento exigente desde la biología y lo real; lo radicalmente no sabido por esos púberes y adolescentes sobre ese cuerpo que los sorprende, y que los exige en el terreno simbólico imaginario.

Por, Por Sergio Rodríguez *

* Psicoanalista. Este artículo integra aportes de Gabriel Brarda, Fernando Alvarez, Laura Lueiro, Silvia Sisto, Carlos Názara, Eva Cristóbal, Alejandro del Carril, Miguel Calvano y Cristina Oyarzábal, en el seminario “Cruces entre psicoanálisis y neurobiología”, que el autor dirigió durante 2008.
 

Publicado enInternacional
Chicago, 13 de enero. La terapia de remplazo hormonal provocaría el achicamiento del cerebro en las mujeres de 65 años o más, lo que explica por qué esos medicamentos incrementan los problemas de memoria y pensamiento en estas pacientes, informaron el lunes investigadores estadunidenses.
Los expertos creían que la terapia de remplazo hormonal (TRH), que se sabe aumenta el riesgo de accidentes cerebrovasculares (ACV), podría estar causando lesiones cerebrales sin detectar o “ACV silentes”, que explicarían el mayor riesgo de problemas de memoria.
Pero no fue así, según Laura Coker, del Centro Médico Bautista de la Universidad de Wake Forest, en Carolina del Norte, quien trabajó en uno de dos estudios relacionados, publicados en la revista Neurology.

Por muchos años, los médicos creyeron que la TRH podía proteger a las mujeres de las dolencias crónicas, especialmente la enfermedad cardiaca.

Pero el uso de estas terapias se desplomó en 2002, luego de que un estudio reveló que las TRH podían aumentar el riesgo de cáncer de mama y ovario, ACV y otras enfermedades graves.
Dos estudios cerebrales realizados en la investigación de 2002, que observaron los efectos de la TRH sobre el funcionamiento del cerebro de las mujeres de más de 65 años, mostraron que el estrógeno, con o sin progestina, aumentaba el riesgo de demencia. Coker y sus colegas querían saber por qué.

Los investigadores dieron seguimiento a mil 400 mujeres de 71 a 89 años que habían tomado terapia hormonal por un promedio de cuatro a seis años, usando controles con IRM para ver qué causaba el problema de memoria.

“Observamos muy poca diferencia en el volumen de las lesiones cerebrales en las mujeres que habían tomado estrógeno, comparadas con las que consumían placebo”, dijo Coker en entrevista telefónica.

“No es lo que esperábamos encontrar”, añadió la autora.

Respuesta

La respuesta llegó en un estudio dirigido por Susan Resnick, del Instituto Nacional del Envejecimiento, que halló que las mujeres que recibían terapia hormonal tenían volúmenes cerebrales levemente menores en dos zonas críticas: el lóbulo frontal y el hipocampo.
Ambas regiones cerebrales están involucradas en la memoria y el pensamiento.

“Nuestros hallazgos sugieren que la terapia hormonal en las mujeres posmenopáusicas tiene un efecto negativo sobre estructuras cerebrales importantes que apuntan al funcionamiento normal de la memoria”, declaró Resnick en un comunicado.

El resultado fue más pronunciado en las mujeres que ya tenían algunas señales de deterioro mental antes de comenzar con la TRH.

Coker manifestó que el próximo paso es realizar un estudio de seguimiento con IRM para ver si los cambios en el volumen cerebral son duraderos.

Actualmente, la mayoría de médicos aconsejan que las mujeres que acuden a la TRH para manejar los síntomas de la menopausia usen la menor dosis y durante el menor tiempo posible.
Publicado enInternacional
Dentro de la célula se producen fenómenos que paralizarían de asombro aun a un espectador del funcionamiento de las estrellas, y el jinete-búho hipotético sigue con asombro el camino de los electrones a través de las cadenas proteicas.
 

–Según tengo anotado acá, usted es vicedirector del Inquimae, Instituto de Química, física de los materiales, Medio Ambiente y Energía del Conicet y se dedica a la espectroscopía raman de proteínas y procesos de transferencia de carga. Yo no tengo idea de lo que es eso. Cuénteme.


–Bueno, nuestro interés es analizar cómo funcionan determinadas proteínas que en el organismo tienen funciones de transferencia de electrones. Un ejemplo de eso es la respiración celular, que implica una cadena de reacciones de transferencia electrónica en la cual la última molécula que interviene es el oxígeno.

–Y esa transferencia se produce.

–A través de una cadena muy compleja, en la cual participa una serie de proteínas ancladas a una membrana biológica. Lo que nosotros hacemos es estudiar cada una de esas proteínas y tratar de determinar cómo va cambiando la estructura de esa proteína a medida que va funcionando, cómo va transfiriendo sus electrones, qué cambios tienen que ocurrir para que una proteína reconozca a la otra y ocurra la reacción.

–Bueno, y esa transferencia de electrones ¿qué objeto tiene?

–El truco que utiliza la naturaleza es el siguiente: esa cadena se utiliza para proveer a la célula de la energía necesaria para llevar adelante otros procesos. Es una transducción de energía. Estas moléculas aprovechan la energía que trae en exceso una especie química que dona electrones y van transfiriéndosela. Generalmente hay una especie transportadora entre una y otra.

–¿Y dónde ocurre eso?

–En la pared celular interna de la mitocondria, que es una organela interior de las células. El hecho de que exista una transferencia secuencial de electrones significa que ese electrón se viene cayendo en una cadena de energía, y esa energía en exceso se utiliza en otros procesos, por ejemplo, para enviar protones de un lado a otro de la membrana. Y eso ocurre en contra de lo que sería el gradiente de energía.

–¿Para qué sirve esto?

–Una vez que se transfirieron los protones, queda una diferencia: un exceso de carga positiva que genera una diferencia de potencial. Eso es utilizado por la última de las proteínas de la cadena para crear una molécula que funciona como combustible para el organismo. Es decir que transforma una energía (la electrónica) en otra (química). Son pasos muy complejos.

–Una carrera de obstáculos.

–Sí, y uno de los obstáculos es, por ejemplo, la distancia entre las proteínas: a los electrones no les gusta mucho viajar, entonces hay que optimizar lo que se llama “camino de transferencia de electrones”. Eso requiere toda una modulación de la estructura de la proteína misma. Por otra parte, la cosa es muy compleja. Imagínese la siguiente situación: una proteína le tiene que pasar el electrón que recibió de la anterior a la siguiente, pero tiene que saber que una vez que se lo dio se tiene que ir.

–¿Y cómo lo sabe?

–Nuestra teoría es que una buena parte de la modulación depende del campo eléctrico, que es variable. Gran parte de nuestra investigación se orienta a estudiar la influencia del campo eléctrico en la estructura y el comportamiento de estas proteínas. Lo hacemos con una técnica que se llama espectroscopía raman intensificada por superficie.

–Ahora tiene que explicarme qué es eso...

–Es una técnica vibracional. Todas las moléculas vibran, y cuantos más átomos tenga una molécula, más complejas serán esas vibraciones. Para observarlas, es posible inducir esas vibraciones haciendo que la molécula absorba un fotón (una partícula de luz) infrarrojo y medir cuánta luz se absorbió de determinada longitud de onda y sacar un espectro vibracional. Eso es lo que se llama espectroscopía infrarroja.

–¿Y la raman?

–La raman provee el mismo tipo de información pero en base a un fenómeno físico diferente, que es la reacción inelástica de los fotones con las moléculas, un choque que no es completamente elástico sino que se produce con transferencia de energía. Del fotón a la molécula o de la molécula al fotón. Mi fuente de fotones va a ser un láser, que es monocromático. La luz que salga va a tener la componente de mi láser (si el láser es verde, será verde) pero va a haber una mínima fracción que no será verde, porque si esos fotones perdieron energía o ganaron energía estarán corridos al rojo o al azul. Es energía que la molécula ganó o perdió.

–Los fotones se mezclaron en todas las charlas que tuve hoy y me generaron siempre la misma pregunta... ¿Existen los fotones?

–Bueno, es una teoría... Uno puede describir a la luz en base a la teoría corpuscular...

–¿Pero qué piensa usted?

–Yo pienso que no se puede describir de una forma ni de la otra sino que uno utiliza uno u otro modelo de acuerdo con el problema que quiera solucionar.

–Pero en la realidad, en el mundo, ¿existen esas bolitas sin masa?

–No, existe un modelo que nos permite avanzar en el camino del conocimiento. Pero son problemas que exceden nuestra capacidad de comprensión.

–¿Y los electrones? ¿Existen como existe una mesa?

–También tienen esa dualidad onda-partícula.

–Pero pensando macro...

–Creo que sí existen.

–Bueno. Usted, con este sistema espectroscópico, estudia el comportamiento de una molécula...

–Claro. Ese sistema me permite, por ejemplo, inmovilizar una proteína sobre un electrodo metálico que está nanoestructurado, y a esa superficie, a su vez, le hago una modificación química que me permite crear un sistema biomimético (es decir, que se aproxima a un sistema biológico). Sobre esa superficie puedo inmovilizar mi proteína, con el electrodo controlo el campo eléctrico y con el sistema espectroscópico puedo mirar a tiempo real qué es lo que pasa con los electrones...

–Quisiera volver al tema de los electrones que se van transfiriendo, porque me parece que los procesos que ocurren al interior de las células son verdaderamente apabullantes. Yo tengo proteínas embebidas en la membrana interna de una mitocondria, viene algo de afuera que le transfiere un electrón a la primera. ¿Cómo lo hace?

–El grueso de la transferencia electrónica en sistemas biológicos es de larga distancia... se forman como autopistas para estos electrones que viajan por ellas de molécula en molécula y en general van perdiendo energía, que se disipó como calor o se utilizó para hacer algún trabajo, que puede ser, como le había dicho antes, la traslocación de protones, y después, debe volver al estado original, para estar lista para realizar un nuevo proceso. Ese electrón en exceso, entonces, se lo pasa a la siguiente. Que a su vez traslocará protones y se la pasará a la otra. Así hasta llegar a la última, la enzima terminal, que será la que finalmente reducirá el oxígeno. El oxígeno que nosotros respiramos se reduce a agua en la última instancia de esa cadena. Ese oxígeno se une a un centro metálico de la última proteína y los electrones irán viajando hasta llegar al centro metálico, entran de a uno, toman protones y se transforma en agua.

–O sea que la función del oxígeno que respiramos es transformarse en agua y proveer de agua a la célula.

–No. En realidad la reducción del oxígeno al agua no es un objetivo en sí mismo sino un efecto colateral de esta transducción energética electroprotónica.

–Pero sin el oxígeno no podríamos hacerlo.

–Nosotros no. Pero otros organismos sí, los que utilizan otro agente químico como último aceptor. No todos los organismos respiran oxígeno.

–Todo esto es bastante impresionante. ¿En cuánto tiempo ocurre todo ese proceso?

–Milisegundos.

–Y eso está ocurriendo en todas las células del cuerpo, miles de veces por segundo...

–Además, por supuesto, todas las proteínas se van degradando y deben ser repuestas. Nuestro interés, entonces, es ver cómo funciona esto desde el punto de vista fisicoquímico para hacer que esas proteínas hagan lo que nosotros queremos que hagan y no lo que la naturaleza les impone.

–¿Por ejemplo?

–Construir sensores basados en las mismas proteínas. Si nosotros somos capaces de determinar cómo interactúa una proteína con una superficie y de descubrir qué condiciones deben darse para que la transferencia sea óptima, entonces podemos construir un dispositivo donde esa proteína se ocupe de medir peróxido de hidrógeno en algunas soluciones.

–Le diré que esto es muy interesante, pero frente al espectáculo que me acaba de describir...

–Bueno, ahí apenas si tenemos mérito. Eso lo hizo todo la naturaleza.

 Por Leonardo Moledo
Publicado enInternacional



Chicago. Científicos de Estados Unidos encontraron la forma de levitar objetos muy pequeños utilizando extrañas fuerzas de mecánica cuántica y dijeron este miércoles que podrían utilizarla para ayudar a construir pequeñas máquinas de nanotecnología.

Afirmaron que habían detectado y medido una fuerza que entra en acción a nivel molecular utilizando ciertas combinaciones de moléculas que se repelen unas a otras.

La repulsión puede ser utilizada para mantener a las moléculas en el aire, en esencia hacerlas levitar, creando virtualmente partes libres de fricción para pequeños artefactos, explicaron los investigadores.

Federico Capasso, físico aplicado de la universidad de Harvard en Massachusetts, cuyos estudios aparecen en la revista Nature, dijo que cree que la detección de esta fuerza abre la posibilidad para una nueva generación de artefactos diminutos.

El equipo, que incluye a investigadores del Instituto Nacional de Salud, aún no ha levitado un objeto, pero Capasso dijo que ahora saben cómo hacerlo. "Este es un experimento que estamos seguros que funcionará", señaló. El grupo ya comenzó los trámites para conseguir una patente.

"Al reducir la fricción que dificulta el movimiento y contribuye al desgaste y erosión, la nueva técnica otorga bases teóricas para mejorar la maquinaria a nivel microscópico e incluso molecular", explicó el médico Duan Alexander del Instituto Nacional de Salud Infantil y Desarrollo Humano, NIH.

"La emergente tecnología de nanomecánica tiene el potencial de mejorar la medicina y otros campos", expuso Alexander en un comunicado.

El descubrimiento involucra mecánica cuántica, cuyos principios determinan la naturaleza de las partículas más pequeñas.

Al alterar y combinar las moléculas, se podrían inventar diminutas máquinas para utilizarlas en cirugías, fabricación de alimentos, combustibles y en mejorar la velocidad de los computadores.

El descubrimiento surgió del trabajo previo de Capasso como vicepresidente de investigación física de los laboratorios Bell, brazo del fabricante de equipos de telecomunicación Lucent Technologies, ahora Alcatel-Lucent.

"Comencé a pensar cómo puedo usar estas exóticas fuerzas de la mecánica cuántica en la tecnología", dijo en una entrevista telefónica.

Bell había estado trabajando en nuevos aparatos conocidos como Micro Sistemas Electromecánicos (MEMS, por sus siglas en inglés), la tecnología que se usa en los sensores de las bolsas de aire para medir la desaceleración de los vehículos.

"Comenzamos a jugar con la nanomecánica o micromecánica", subrayó Capasso.

El sabía que a medida que los aparatos se vuelven cada vez más pequeños, se convierten en víctimas de lo que se conoce como el efecto Casimir, una fuerza de atracción que aparece cuando dos superficies metálicas muy pequeñas se aproximan a distancias muy cortas.

En objetos muy pequeños, esta fuerza puede provocar que las partes móviles se adhieran, un efecto conocido como fricción estática.

Un equipo ruso había predicho que esta fuerza podría ser revertida utilizando la combinación correcta de materiales.

Para el experimento de Capasso, el equipo sumergió una esfera bañada en oro en un líquido y midió la fuerza mientras la esfera era atraída hacia una placa metálica y luego era repelida desde una placa hecha de sílice.

Capasso dijo que la levitación es lo próximo. "Sólo tenemos que hacerlo", afirmó.

Publicado enInternacional
Viernes, 02 Enero 2009 16:02

Faltan normas éticas para robots

Los robots no están por llegar: ya están aquí, pero, en vez de dominar a la humanidad con su lógica y su fuerza superiores, amenazan con crear una subclase de personas aisladas del contacto humano.
 
Es necesario supervisar y controlar mediante normas éticas el creciente número de robots en casa, para restringir su uso en escenarios delicados, como el cuidado de bebés, la atención a ancianos y la guerra, advierte un destacado científico.
Se estima que las ventas de robots para servicio profesional y personal en todo el planeta han llegado a 5.5 millones de unidades este año, y se prevé que alcancen más del doble –11.5 millones– hacia 2011. Algunos ayudan a profesionistas ocupados a entretener a los niños; otros alimentan y bañan a ancianos y discapacitados. Sin embargo, hay poco o ningún control sobre su uso.
 
El profesor Noel Sharkey, experto en inteligencia artificial de la Universidad de Sheffield, Inglaterra, advierte que los robots actúan en situaciones potencialmente delicadas que podrían conducir al aislamiento y la falta de contacto humano, debido a la tendencia a dejarlos solos con las personas a su cargo durante periodos prolongados.
 
“Necesitamos trazar normas para poner límite al contacto con robots –afirma. Algunos robots diseñados para cuidar niños son ahora tan seguros que los padres pueden dejar a sus hijos con ellos durante horas, o incluso días.”
 
Más de una docena de compañías con sede en Japón y Sudcorea fabrican robots de “compañía” y cuidado de niños. Por ejemplo, NEC ha probado en infantes su bonito robot personal PaPeRo, que vive en la casa con la familia, reconoce los rostros, puede imitar la conducta humana y ser programado para contar chistes mientras explora la casa. Muchos robots están diseñados como juguetes, pero pueden asumir papeles de cuidado de los menores vigilando sus movimientos y comunicándose con un adulto ubicado en otra habitación, o incluso en otro edificio, mediante una conexión inalámbrica de computadora o teléfono móvil.
 
“La investigación sobre robots de servicio ha mostrado que los niños se relacionan estrechamente con ellos y les cobran apego; en la mayoría de los casos prefieren un robot a un osito de peluche –comentó el profesor Sharkey. La exposición por periodos breves puede brindar una experiencia amena y entretenida, que despierta interés y curiosidad. Sin embargo, por la seguridad física que proporcionan los robots cuidadores, se puede dejar a los niños sin contacto humano durante muchas horas al día o tal vez durante varios días, y no se conoce el posible impacto sicológico de los diversos grados de aislamiento social sobre el desarrollo.”
 
Para cuidar de los ancianos se desarrollan robots menos juguetones. Secom fabrica una computadora llamada My spoon (Mi cuchara), que ayuda a discapacitados a tomar alimentos de una mesa. Sanyo ha construido una bañera robot eléctrica que lava y talla automáticamente a una persona que padece discapacidad motriz.
“En el otro extremo del espectro de edades, el incremento de los ancianos en muchos países ha disparado el desarrollo de robots para cuidarlos”, apunta Sharkey. “Estos robots ayudan a los ancianos a ser independientes en sus casas, pero su presencia conlleva el riesgo de dejarlos bajo el cuidado exclusivo de las máquinas, sin contacto humano suficiente. Los ancianos necesitan este contacto, que sólo pueden ofrecerles los cuidadores humanos y las personas que realizan tareas cotidianas para ellos.”
 
En la revista Science, Sharkey hace un llamado a adoptar normas éticas para cubrir todos los aspectos de la tecnología robótica, no sólo en el hogar y en el lugar de trabajo, sino también en el campo de batalla, donde se despliegan robots letales como los aviones no tripulados Predator, armados de misiles, que se usaron en Irak y Afganistán. El proyecto estadunidense Sistemas Futuros de Combate apunta a utilizar robots como “multiplicadores de fuerza”, con los cuales un solo soldado podría lanzar ataques terrestres y aéreos en gran escala con un ejército de androides. “Los robots de cuidado y de guerra representan sólo dos de muchas áreas problemáticas desde el punto de vista ético que pronto surgirán por el rápido incremento y la creciente diversidad de las aplicaciones robóticas”, advierte el profesor Sharkey. “Científicos e ingenieros que trabajan en robótica deben tener en cuenta los peligros potenciales de su trabajo, y se requiere un debate público internacional para adoptar políticas y normas destinadas a la aplicación ética y segura.”
 
El llamado a controlar los robots se remonta a la década de 1940, cuando el escritor de ciencia ficción Isaac Asimov trazó sus famosas tres leyes de la robótica. La primera ordenaba que los robots no debían dañar a las personas; la segunda, que debían obedecer el mando humano, siempre y cuando no quebrantaran la primera ley, y la tercera, que debían evitar dañarse a sí mismos en tanto ello no entrara en conflicto con las otras dos leyes.
 
Asimov escribió una colección de cuentos llamada Yo, Robot, que abordaba el tema de las máquinas y la moral. Quería contrarrestar la larga historia de recuentos ficticios sobre autómatas peligrosos –desde el Golem judío hasta el Frankenstein de Mary Shelley– y creó sus tres leyes como recurso literario para explotar las cuestiones éticas que surgen de la interacción humana con seres inteligentes no humanos. Sin embargo, las predicciones de finales del siglo XX relativas al ascenso de máquinas investidas de una inteligencia artificial superior no se han cumplido, si bien los científicos de la robótica han dotado a sus protegidos mecánicos de rasgos casi inteligentes, como el reconocimiento del habla simple, la expresión emocional y el reconocimiento de rostros.
 
El profesor Sharkey cree que es necesario controlar incluso a los robots tontos. “No sugiero, como Asimov, poner reglas éticas a los robots, sino sólo tener lineamientos sobre la forma de utilizarlos. Los actuales ni siquiera alcanzan el adjetivo de tontos. Si creyera que son superiores en inteligencia, no tendría estas preocupaciones. Son máquinas bobas, no mucho más brillantes que la lavadora promedio, y ése es el problema.”

Steve Connor (The Independent)
Traducción: Jorge Anaya
Publicado enInternacional

Río de Janeiro, 23 de diciembre. Los presidentes de Brasil, Luiz Inacio Lula da Silva, y de Francia, Nicolas Sarkozy, firmaron hoy aquí un tratado de asociación estratégica que incluye la construcción de cuatro submarinos convencionales y uno a propulsión nuclear, que definieron como “histórico”.

Brasil adquirirá cuatro submarinos convencionales modelo Scorpenes, a diesel, y Francia cooperará en el desarrollo de submarino con armamento convencional, que recibirá en Brasil un motor de propulsión nuclear y, según el gobierno local, estará operando en 2024.

El valor del negocio no fue revelado, pero medios de prensa se remiten a fuentes militares para afirmar que llegaría a 6 mil 500 millones de euros (unos 9 mil millones de dólares).

El acuerdo sobre los submarinos forma parte del plan de acción del tratado de asociación estratégica Brasil-Francia firmado hoy por Lula y Sarkozy, que prevé además la compra de 50 helicópteros por mil 899 millones de euros (unos 2 mil 640 millones de dólares) a ser montados en Brasil por la empresa Helibras, e incluye la transferencia de tecnología francesa.

Según Lula, la ayuda de Francia en la transferencia de tecnología de punta constituye un paso importante para ampliar la capacidad militar de Brasil y permitirle al país proteger en forma más eficiente sus riquezas naturales, como la foresta amazónica, las reservas de agua potable y los gigantescos yacimientos de petróleo en aguas profundas, a 300 kilómetros de la costa.

“La cooperación en defensa le permitirá a Brasil dar el salto tecnológico necesario para restructurar sus fuerzas armadas y poner en vigencia su nueva estrategia de defensa. Brasil siempre agradecerá al gobierno francés su comprensión y por querer construir una asociación y no sólo una relación de mercado”, afirmó.

A su vez, Sarkozy aseguró a Lula que Francia también se dispone a colaborar con Brasil en el área espacial y en la reanudación del proyecto de construcción de centrales atómicas para generar electricidad, paralizado desde hace varios años, pero que el actual gobierno planea reactivar.

El presidente francés afirmó que los acuerdos firmados hoy “son consecuencia de la voluntad de Brasil y Francia de aliarse para favorecer la paz y la seguridad en el mundo”.

Sarkozy afirmó que la ayuda de su país para que Brasil construya su primer submarino nuclear es “una decisión histórica” que ayudará a convertir el país sudamericano en “una potencia militar”, pero enfatizó que “un Brasil poderoso es un elemento de estabilidad para el mundo”.

Los acuerdos anunciados hoy confirman la creciente importancia de Francia como suministrador de equipos bélicos a Brasil. En los últimos cinco años, las compras brasileñas de armamentos franceses aumentaron 175 por ciento, mientras que las de equipos estadunidenses se incrementaron solamente 38 por ciento.

La participación francesa podría aumentar aún más, si Dassault sale ganadora de la licitación abierta por la Fuerza Aérea Brasileña (FAB) para adquirir 36 nuevos aviones caza. Los Rafale fabricados por Dassault están entre los tres finalistas de la licitación, conjuntamente con los F-18 E/F, de la estadunidense Boeing, y el Gripen, de la sueca Saab.

Además de los acuerdos en el sector de defensa, Lula y Sarkozy firmaron nuevos convenios de cooperación económica y comercial y en las áreas de educación y ambiente que incluye la creación de un Centro Francobrasileño de Biodiversidad Amazónica.

En otro orden, Carla Bruni, esposa del presidente Sarkozy, aprovechó la visita a Brasil para visitar una favela en las colinas de Copacabana, en Río de Janeiro. La ex modelo se reunió previamente con los responsables de un desfile organizado por una asociación que trabaja con las mujeres de las favelas. La víspera visitó un hospital.
 

Publicado enInternacional
Viernes, 19 Diciembre 2008 08:47

Problemas, fascinaciones y oportunidades

Hace 30 años la humanidad tenía un problema, la ciencia tenía una fascinación y la industria tenía una oportunidad. Nuestro problema era la injusticia. Las masas de hambrientos crecían y al mismo tiempo la cantidad de campesinos y agricultores menguaba. La ciencia, mientras tanto, estaba fascinada por la biotecnología, la idea de que podríamos manipular genéticamente los cultivos y el ganado (y la gente) para insertarle características que supuestamente superarían todos nuestros  problemas.

La industria de los agronegocios vio la oportunidad de extraer las enormes ganancias latentes en toda la cadena alimentaria. Pero el sistema alimentario tremendamente descentralizado les impedía llenarse los bolsillos. Para remediar esta enojosa situación había que centralizarlo.

Todo lo que la industria tuvo que hacer fue convencer a los gobiernos de que la revolución biotecnológica podía poner fin al hambre sin hacer daño al ambiente. Pero, dijeron, la biotecnología era una actividad con demasiado riesgo para pequeñas empresas y demasiado cara para investigadores públicos. Para llevar esta tecnología al mundo, los fitomejoradores públicos tendrían que dejar de competir con los fitomejoradores privados. Los reguladores y controles antimonopolios tendrían que mirar para otro lado cuando las empresas de agroquímicos se apoderaran de las empresas de semillas, que a su vez compraron otras empresas de semillas. Los gobiernos tendrían que proteger las inversiones de las industrias otorgándoles patentes, primero sobre las plantas y luego sobre los genes. Las reglamentaciones de inocuidad para proteger a los consumidores, ganadas arduamente en el transcurso de un siglo, tendrían que rendirse ante los alimentos y medicamentos modificados genéticamente.

La industria obtuvo lo que quiso. De las miles de compañías de semillas e instituciones públicas de mejoramiento de cultivos que existían 30 años atrás, ahora sólo quedan 10 trasnacionales que controlan más de dos tercios de las ventas mundiales de semillas, que están bajo propiedad intelectual. De las docenas de compañías de plaguicidas que existían hace tres décadas, 10 controlan ahora casi 90 por ciento de las ventas de agroquímicos en todo el mundo. De casi mil empresas biotecnológicas emergentes hace 15 años, 10 tienen ahora los tres cuartos de los ingresos de esa industria. Y seis de las empresas líderes en semillas son también seis de las líderes en agroquímicos y biotecnología.
En los pasados 30 años, un puñado de compañías ganaron el control sobre una cuarta parte de la biomasa anual del planeta (cultivos, ganado, pesca, etcétera), que fue integrada a la economía de mercado mundial.

Actualmente, la humanidad tiene un problema, la ciencia tiene una fascinación y la industria tiene una oportunidad. Nuestro problema es el hambre y la injusticia en un mundo de caos climático. La ciencia tiene una fascinación con la convergencia tecnológica a escala nanométrica, que incluye la posibilidad de diseñar nuevas formas de vida desde cero. La oportunidad de la industria radica en las tres cuartas partes de la biomasa del mundo que, aunque se usa, permanece fuera de la economía de mercado global.

Con la ayuda de nuevas tecnologías, la industria cree que cualquier producto químico que hoy es fabricado a partir del carbono de combustibles fósiles puede hacerse a partir del carbono encontrado en las plantas. Además de cultivos, las algas de los océanos, los árboles de la Amazonia y el pasto de las sabanas pueden ofrecer materias primas (supuestamente) renovables para alimentar a la gente, hacer combustibles, fabricar aparatos y curar enfermedades, a la vez que eludir el calentamiento global. Para que la industria haga realidad esta visión, los gobiernos deben aceptar que esta tecnología es demasiado cara. Convencer a los competidores de que corren demasiado riesgo. Hay que desmantelar más reglamentos y aprobar más patentes monopólicas.

Y tal como ocurrió con la biotecnología, las nuevas tecnologías no tienen por qué ser socialmente útiles o técnicamente superiores (es decir, no tienen por qué funcionar) para ser rentables. Todo lo que tienen que hacer es eludir la competencia y las alternativas y coaccionar a los gobiernos para que se abandonen a su control. Una vez que el mercado está monopolizado, poco importa cuáles son los resultados de la tecnología.

Por, Pat Mooney. Premio Nobel Alternativo y director del Grupo ETC
El texto prologa el informe ¿De quién es la naturaleza?: el poder corporativo y la frontera final en la mercantilización de la vida, disponible en www.etcgroup.org
Publicado enInternacional
Claude Lévi-Strauss, uno de los intelectuales más relevantes del siglo XX, destacado antropólogo y padre del enfoque estructuralista de las ciencias sociales, que ha influido de manera decisiva en la filosofía, la sociología, la historia y la teoría de la literatura, cumple mañana 100 años de vida. A pesar de su longevidad e intensa actividad intelectual desde antes de la Segunda Guerra Mundial, Lévi-Strauss, miembro de la Academia de Francia desde 1973, goza de buena salud y se mantiene lúcido, como relató a la prensa el director del museo Quai Branly de París, Stéphane Martin, institución que alberga un teatro con el nombre del célebre antropólogo.

Francés nacido en Bruselas el 28 de noviembre de 1908, este centenario humanista es hijo de un judío agnóstico de origen alsaciano que le educó en un ambiente artístico, aunque terminó cursando estudios de Derecho y Filosofía en la Sorbona de París. El autor de Mythologiques ejerció como profesor de esta última disciplina hasta que recibió una invitación de Marcel Mauss, padre de la etnología francesa, para ingresar en el recién creado departamento de etnografía.

Fue así como despertó en Lévi-Strauss la curiosidad por una materia en la que desarrollaría una brillante carrera y que le ha concedido un "lugar preeminente entre los investigadores del siglo XX", explicó el profesor de Antropología Social de la Universidad Complutense de Madrid Rafael Díaz Maderuelo.

Entre los Bororo y los nambikwara

Su nueva vocación le llevó a aceptar un puesto como profesor visitante en la universidad brasileña de Sao Paulo, de 1935 a 1939, estancia que le posibilitó llevar a cabo trabajos de campo en el estado amazónico de Mato Grosso y en la Amazonía. Allí realizó estancias esporádicas entre los bororo, los nambikwara y los tupi-kawahib, experiencias que le orientaron definitivamente como profesional de la antropología, campo en el que su trabajo aún hoy "sigue siendo válido para la mayoría de los antropólogos", señaló Díaz Maderuelo sobre el autor de El pensamiento salvaje.

Tras regresar a Francia, en 1942 se trasladó a Estados Unidos como profesor visitante en la New School for Social Research de Nueva York, antes de un breve paso por la embajada francesa en Washington como agregado cultural. De vuelta a París, fue nombrado director asociado del Museo del Hombre y se convirtió después en director de estudios en la École Pratique des Hautes Études, entre 1950 y 1974, trabajo que combinó con su enseñanza de antropología social en el Collège de France, hasta su jubilación en 1982, al tiempo que dirigía el Laboratorio de Antropología Social.

La teoría de la alianza

Hijo intelectual de Émile Durkheim y de Mauss, e interesado por la obra de Karl Marx, por el psicoanálisis de Sigmund Freud, la lingüística de Ferdinand Saussure y Roman Jakobson, el formalismo de Vladimir Propp y un largo etcétera, es además un apasionado de la música, la geología, la botánica y la astronomía. Las aportaciones más decisivas del trabajo de Lévi-Strauss se pueden resumir en tres grandes temas: la teoría de la alianza, los procesos mentales del conocimiento humano y la estructura de los mitos.

La teoría de la alianza defiende que el parentesco tiene más que ver con la alianza entre dos familias por matrimonio respectivo entre sus miembros que, como sostenían algunos antropólogos británicos, con la ascendencia de un antepasado común. Para Lévi-Strauss, no existe una "diferencia significativa entre el pensamiento primitivo y el civilizado", señaló Díaz Maderuelo, pues la mente humana "organiza el conocimiento en parejas binarias y opuestas que se organizan de acuerdo con la lógica" y "tanto el mito como la ciencia están estructurados por pares de opuestos relacionados lógicamente".

Comparten, por tanto, la misma estructura, sólo que aplicada a diferentes cosas. Respecto a los mitos, el intelectual sostiene desde la reflexión sobre el tabú del incesto, que el impulso sexual puede ser regulado gracias a la cultura. "El hombre no mantiene relaciones indiscriminadas, sino que las piensa previamente para distinguirlas. Desde ese momento ha perdido su naturaleza animal y se ha convertido en un ser cultural", comentó Díaz Maderuelo.

Para Lévi-Strauss, las estructuras no son realidades concretas, sino más bien modelos cognitivos de la realidad que sirven al hombre en su vida cotidiana. Las reglas por las que las unidades de la cultura se combinan no son producto de la invención humana y el paso del animal natural al animal cultural -a través de la adquisición del lenguaje, la preparación de los alimentos, la formación de relaciones sociales, etc.- sigue unas leyes ya determinadas por su estructura biológica.

EFE - París - 27/11/2008
Publicado enInternacional