En el interior de cada una de sus células hay descomunales extensiones genéticas sin explorar. Se trata del llamado ADN oscuro, antes conocido como basura, y que compone hasta el 98% de todo el genoma. Estos vastos jardines sin aurora habían sido poco interesantes para los científicos porque no contienen genes y, por tanto, no producen proteínas. Es por eso que se pensó erróneamente que no tenían ninguna importancia para entender las claves de la salud y la enfermedad. Pero eso se acabó.


En 2012, un consorcio internacional demostró que el ADN basura regula funciones fisiológicas y puede contribuir a la aparición de muchas enfermedades, desde la diabetes a la esclerósis múltiple pasando por el cáncer. En un estudio publicado hoy en Nature, un consorcio español demuestra que ese ADN oscuro tiene un papel clave en la aparición de la leucemia linfática crónica, la forma de cáncer sanguíneo más común.


Los resultados son parte del Consorcio Internacional del Genoma del Cáncer (ICGC), un esfuerzo por secuenciar el genoma de 50 tipos de tumor. La rama española, centrada en la leucemia linfática crónica, ha sido la primera en finalizar la tarea, secuenciando el genoma completo de 500 pacientes. En cada uno de ellos se lee tanto el genoma de las células sanas como el de las enfermas. Al contrastarlas aparecen mutaciones -erratas en la cadena del genoma con 3.000 millones de letras de ADN- que potencian la aparición del tumor. Lo más llamativo de los últimos datos es la importancia que tiene el ADN oscuro.
"En este trabajo hemos demostrado que uno de cada cinco tumores surge por mutaciones en estas regiones oscuras del genoma, y su conocimiento es fundamental ya que influyen en el pronóstico de la enfermedad", ha explicado Xosé Puente, investigador de la Universidad de Oviedo y miembro del consorcio.


El estudio muestra que las células enfermas acumulan unas 3.000 mutaciones. Estas son en parte un resultado inherente al paso del tiempo y solo una minoría de ellas serán responsables de desatar el desarrollo del cáncer. "Este estudio nos ha permitido definir 60 genes distintos cuyas mutaciones provocan el desarrollo del tumor", comenta Carlos López-Otín, investigador de la Universidad de Oviedo y uno de los coordinadores del consorcio. "Sin embargo, el hallazgo más relevante del estudio ha sido la identificación de mutaciones en zonas del genoma que no codifican proteínas y cuya relevancia funcional es todavía muy poco conocida", añade.


El ADN oscuro no codifica proteínas, pero sí puede regular el funcionamiento de genes en la parte visible del genoma. El estudio desvela dos grandes responsables de potenciar el cáncer desde las regiones de ADN oscuro. Una de ellas es una mutación que enciende un gen bien conocido, el NOTCH 1, haciendo la enfermedad "más agresiva", explica Elías Campo, médico del Hospital Clínico de Barcelona y coordinador del consorcio. De esta forma, el ADN oscuro produce una enfermedad "idéntica" a la que aparece cuando hay una mutación en ese gen.


Desde que en 2012 se publicaron los datos completos del proyecto Encode, encargado de secuenciar la mayoría del ADN oscuro, se pensó que los nuevos datos contribuirían a mejorar los tratamientos oncológicos. La forma de hacerlo sería analizando el genoma de cada paciente y aplicando uno u otro fármaco dependiendo de su perfil. Esa era de la medicina personalizada del cáncer ya ha comenzado en la leucemia crónica, resalta Campo. "Ya se han aprobado fármacos que se dirigen a pacientes con una mutación en el gen P53 y en España es previsible que se apruebe su uso este año", resalta. Más allá, su equipo investiga en modelos animales con otras dos moléculas que bloquean la acción de dos genes involucrados en la aparición y desarrollo de la leucemia, el NOTCH 1 y el SF3B1. Campo resalta que el ICGC ya baraja iniciar una segunda fase (ICGC Med) para aprovechar el potencial médico de todos los datos genéticos acumulados desde el comienzo del proyecto, en 2008.

Publicado en Ciencia y tecnología

La esperanza en la vida eterna parece tan intensa en los humanos que hasta los más racionalistas tienen resquicios por los que abrazarla. Con lenguaje científico, algunos cerebros como el ingeniero estadounidense Ray Kurzweil defienden que en quince años habrá dispositivos digitales capaces de alcanzar la complejidad de un ser humano. Con esa tecnología y otros avances biotecnológicos, se podría volcar la conciencia de un ser mortal en una máquina donde el individuo viva para siempre.


Lo cierto es que, pese al optimismo de investigadores como Kurzweil, nadie ha logrado crear dispositivos capaces de recrear algo parecido a la inteligencia humana. Dos cifras pueden dar una idea de la magnitud del reto considerando solo aspectos cuantitativos: los humanos tienen alrededor de 85.000 millones de neuronas con 1.000 conexiones de media cada una. Para tratar de afrontar la tarea descomunal de comprender y reconstruir los mecanismos que han dado lugar a la vida inteligente, algunos investigadores han optado por empezar desde abajo, planteando preguntas que, a diferencia de las de Kurzweil, se pueden responder en el presente.


Matthieu Louis y su equipo en el Centro de Regulación Genómica (CRG) de Barcelona han elegido larvas de mosca del vinagre, el mismo insecto que le sirvió a Thomas Morgan para poner las bases de la genética moderna desde su laboratorio de la Universidad de Columbia en Nueva York (EEUU). El olfato de estas crías de mosca se sustenta en el trabajo de solo 21 neuronas; el de los humanos, en varios millones.


Para buscar alimento y sobrevivir, las larvas rastrean su entorno avanzando mientras olisquean de un lado al otro. En esa búsqueda, el animal debe identificar cambios de intensidad en el olor de la comida que buscan y tomar las decisiones adecuadas para acercarse a ella. Según explica Louis, pese a la simplicidad de su sistema olfativo, las larvas son muy buenas rastreadoras.


En un estudio anterior, el grupo del CRG había demostrado que la información transmitida por una sola de las 21 neuronas de la nariz de la larva era suficiente para que pudiese seguir un gradiente de olor ascendente. Ahora, en un nuevo trabajo que se publica en la revista eLife, han tratado de describir cómo se representan las señales olfativas en el sistema sensorial de la mosca y conseguir controlar de forma remota su comportamiento.


"Queremos tener un modelo para, a partir de la información a la que sabemos que tiene acceso el animal, hacer una predicción sobre lo que va a hacer", apunta Louis. "En un ratón, la orden que sigue a partir de la información que recibe se representa en millones de neuronas, por eso es muy difícil definir a qué tipo de información tiene acceso el animal. Pero si restringes la información a una neurona, es posible plantearte hacer modelos".


Para analizar la relación entre los estímulos, la actividad de la neurona y el comportamiento de las larvas, los científicos del CRG emplearon una técnica conocida como optogenética. Básicamente, la idea consiste en colocar genes de algas sensibles a la luz dentro de virus inertes, que funcionan como medio de transporte para poder introducirlos en los animales. Una vez en la larva, los genes producen una proteína que funciona como interruptor de la célula, apagándola o encendiéndola en función de las ráfagas de luz azul enviadas por los investigadores. Así, pudieron estimular el sistema olfativo de la larva sin necesidad de olores, solo a través de la luz, y vieron que cuando detectaba una mayor concentración del olor, seguía adelante, porque eso significaba que se estaba acercando a la fuente, y cuando sucedía lo contrario, se paraba para no alejarse de la fuente.


Con toda esta información, varios físicos del equipo elaboraron un modelo matemático para explicar la forma en que los estímulos olfativos se convierten en un comportamiento concreto como seguir adelante, detenerse o girar. Después, probaron el modelo en condiciones naturales y pudieron hacer predicciones realistas sobre el comportamiento de las larvas ante variaciones de la concentración de olores.


Una vez resuelto en un animal tan simple como la larva de la mosca del vinagre el problema de la respuesta ante estímulos olfativos, los investigadores quieren ampliar estos modelos y ver cómo se pueden aplicar a animales más complejos. Al final, se trataría de diseccionar un problema inmenso como el funcionamiento del cerebro para hacerlo abarcable y resolverlo de manera progresiva.

Publicado en Ciencia y tecnología

Antes que nada procede ubicarnos en el mundo que vivimos, en la época que nos toca existir. En todos los ámbitos de la vida social, el mundo se desliza cada vez más hacia patrones que obedecen a los principios y objetivos de la ideología neoliberal y a los intereses del capital corporativo. La superconcentración de la riqueza y el nivel de los megamonopolios alcanzan hoy su máximo histórico. Cuatro megabancos controlan la economía del planeta (ver) y mil 318 corporaciones, representando 20 por ciento, controlan 60 por ciento de la riqueza, y de esas sólo 147 manejan 40 por ciento del flujo económico global (ver: Vitali, et al.,). Pero este mundo comandado por las élites necesita anestésicos que hagan eficiente la integración de los ciudadanos y que lubriquen sus mecanismos de dominación. Requieren de construir ideología para justificar su orden. Un orden que encierra cada vez más riesgos reales y potenciales y que conduce, en el mediano plazo, al colapso de la humanidad y de su entorno planetario, tal y como lo indican los reportes científicos sobre la crisis ecológica y los análisis sobre la inequidad social.
Todo esto resulta necesario para entender el conflicto en torno a la llamada reforma educativa cen¬trada en un método de evaluación que intenta do¬mesticar a un sector social que se confronta con los poderes fácticos del país y del mundo, no solamente mediante acciones de desobediencia civil e incluso de actos excesivos, sino también de ideas y de proyectos alternativos. Se trata de los 500 mil maestros afiliados al sindicato disidente (CNTE), más los miles que se han ido sumando en los meses recientes justamente como reacción a esa reforma. Estamos hablando, entonces, de un sector que influencia e interactúa con (en las escuelas, es decir, con alumnos y padres de familia) unos 20 millones de mexicanos.


Quienes se sitúan en favor de la reforma en la educación comparten de alguna manera una visión general sobre la realidad y, por tanto, coinciden con los supuestos ideológicos de la civilización moderna. Se trata de enormes mitos, ideas generalizadas y largamente construidas que los análisis rigurosos basados en datos duros han mostrado que son falsas. Destacan, entre otras: el desarrollo es sinónimo de progreso, el crecimiento económico conduce al bienestar social, la producción moderna o agroindustrial de alimentos es superior a la tradicional o campesina, o la ciencia y la tecnología son por definición moralmente buenas y la democracia electoral es legítima. Deconstruir estos mitos modernos es una tarea que realizan intelectuales e investigadores situados en el pensamiento crítico y/o complejo. La modernidad y su motor profundo, el capitalismo corporativo, están en crisis porque sus principales pilares ideológicos están siendo cuestionados uno a uno. El mito de la educación de calidad que hoy se esparce por buena parte del mundo industrial o desarrollado, en realidad ha sido precedido por otro más: el de la ciencia de calidad que se introdujo hace unas dos décadas en el sistema científico y tecnológico del país y que hoy determina buena parte de los sistemas de evaluación académica. En ambos casos se busca generar individuos adaptados y sintonizados con las necesidades de las empresas y las corporaciones y, sólo en segundo plano, con las necesidades del país y, finalmente, con las problemáticas más agudas de la sociedad. El perfil del científico desarrollado o de calidad es esencialmente el de un investigador especializado formado para publicar artículos en revistas internacionales de al¬to impacto, no importa a lo que se dedique, ni sus contribuciones como profesor o formador de nuevos cuadros, su conciencia social y ambiental ni su visión o formación humanística. Para ello se diseñaron métodos cuantitativos que califican hasta el valor de impacto de las revistas en que se publica. En México, por fortuna, y gracias a las numerosas críticas, este modelo ha tenido que ser matizado, por ejemplo por el Sistema Nacional de Investigadores del Conacyt.


Si en la ciencia se ha intentado imponer un modelo caricaturesco de investigador, reduccionista, individualista, competitivo y especializado, con la reforma educativa se busca igualmente generar maestros amaestrados. Para quienes nos dedicamos a la enseñanza, y yo lo he hecho desde hace 48 años, sabemos que la calidad de un maestro depende de toda una variedad de atributos y destrezas, objetivas y subjetivas, además del contexto institucional y material, y sobre todo de valores. Querer reformar la educación mediante un examen a los maestros, con criterios importados de Europa (OCDE) o los países industriales es una tomadura de pelo, más aún si los métodos de evaluación no han sido analizados, discutidos y consensuados con los propios maestros.


La reforma educativa que se quiere imponer de manera autoritaria por la SEP, los empresarios (con Mexicanos Primero como ariete) y avalada en los días recientes por la Suprema Corte de Justicia de la Nación obedece a un pensamiento moldeado por los mitos neoliberales, que visualiza un paraíso mercadotécnico y que olvida los procesos de inequidad social y depredación ecológica que desencadenan. Muy contrariamente a lo que se difunde, la rebelión de los maestros no sólo es manifestaciones, paros, mítines, toma de carreteras y aeropuertos. Como hemos estado leyendo en La Jornada, en al menos media docena de pensadores del magisterio, existe una contrapropuesta magisterial de mejoramiento de la educación que busca otros objetivos, y que no elude la evaluación, sino sus métodos. Se trata de un modelo educativo diseñado para construir otra modernidad, que no olvida que al final de cuentas el sueño neoliberal es una pesadilla colectiva.

Publicado en Sociedad
Martes, 07 Julio 2015 06:52

"La universidad es un derecho"

Rinesi reflexiona sobre las implicancias de asumir a la formación superior como un derecho individual y colectivo. "La educación sólo es de calidad si es una educación para todos", sostiene.

"No es verdad que una institución que después de recibir a cien alumnos produce a diez excelentes graduados, sea una universidad de excelencia. Es una universidad mala, porque no ha estado a la altura de garantizarles a todos el derecho a la educación", dice el politólogo y docente Eduardo Rinesi, que en su último libro, Filosofía (y) política de la Universidad (Ediciones Ungsiec), se pregunta qué consecuencias tiene para quienes forman parte de la comunidad académica considerar a la educación superior como un derecho. Crítico de los academicismos, Rinesi señala en esta entrevista con Página/12 la importancia de no perder el foco de los problemas que le dan sentido a la universidad pública y anima a reflexionar sobre el rol de los docentes, que considera injustamente degradado.


–¿Qué implica garantizar el derecho a la universidad?


–Quizás habría que empezar señalando la novedad que representa que hoy podamos formularnos esa pregunta. La universidad, que es una institución muy antigua en Occidente, nunca se pensó a sí misma como una institución encargada de garantizar nada que pudiera conceptualizarse como un derecho universal. Más bien se pensó como lo que fue: una máquina de fabricar elites. Preguntarnos qué es garantizar ese derecho a la universidad nos exige preguntarnos quién es el sujeto de ese derecho. Y a mí me parece que ese derecho puede ser pensado como teniendo un titular individual –los ciudadanos que quieren ejercer su derecho a estudiar una carrera universitaria– y al mismo tiempo como el derecho de un pueblo como sujeto colectivo a beneficiarse de lo que la universidad sabe e investiga. Y como derecho individual es importante representárnoslo no sólo como el derecho que tienen los ciudadanos a entrar a la universidad, sino como el derecho a tratar de entrar y entrar, a tratar de aprender y aprender, a romperse el alma estudiando y avanzar en sus estudios, a terminarlos en un plazo razonable.


–¿Qué valoraciones pesan sobre los recién llegados a la universidad?


–Quizá la valoración negativa, producto de un largo acostumbramiento a que los estudiantes universitarios son y casi no podrían sino ser los hijos de una elite de rasgos reconocibles y fácilmente identificables por su pertenencia social, nivel económico, hasta por sus lugares de residencia. Las sociedades que conocemos son sociedades desigualitarias, sociedades donde las personas somos injustamente diferentes. Pero me parece que la evidencia de esas desigualdades no debe llevarnos a desconocer el hecho evidente de que todos los seres humanos somos, por debajo o por detrás de esas desigualdades, radicalmente iguales. Cuando uno lo piensa un poco, los motivos de las desigualdades que tendemos a naturalizar y en nombre de las cuales tendemos a justificar diferentes distribuciones de posibilidades, riquezas, derechos, saberes, son muy insustanciales frente a lo contundente de las cosas que nos hacen iguales. Somos radicalmente iguales en inteligencias, talentos, capacidades, derechos y si nos tomamos en serio que hay una igualdad radical de fondo, los profesores universitarios nos vemos obligados a dejar de volver a aquellos estudiantes a los que no somos capaces de garantizarles el ejercicio efectivo y exitoso del derecho a la educación para echarles la culpa de nuestro propio fracaso. Esa es la vía mas fácil, la vía autoexculpatoria y tranquilizadora. Es también la menos sensible a las exigencias que nos impone representarnos de verdad que la universidad es un derecho, que tiene consecuencias importantes sobre nuestros modos de hacer las cosas y pensar la universidad.


–Implica no decir, por ejemplo: "Bueno, educamos a todos, pero no se puede igual, no con la misma calidad"...


–La idea según la cual una educación para todos no puede ser una educación de la más alta calidad es un prejuicio inaceptable si uno piensa que la educación es un derecho universal. Parte de un prejuicio reaccionario, simplificador y no sostenido sobre ninguna evidencia. La educación sólo es de calidad si es una educación para todos. No es verdad que una institución que después de recibir a cien alumnos produce por la vía de un prolongado proceso de selecciones a diez excelentes graduados, sea una universidad de excelencia. Es una universidad mala, porque no ha estado a la altura de garantizarles a todos el derecho a la educación que proclama. Pero con la misma fuerza quiero sostener que una universidad no es de verdad una universidad para todos si no es para todos de la más alta calidad. Si no, es un engaño, es hacerle el juego a una derecha a la que no debemos concederle que los más no puedan hacer igual de bien lo mismo que los menos.


–¿Por qué le parece importante revisar la separación entre las funciones de docente e investigador y la jerarquización de una por sobre la otra?


–En los años finales del siglo pasado se produjeron transformaciones muy importantes en los modos de organización de la vida universitaria a partir de un par de diagnósticos que no estaban necesariamente mal, pero que llevaron a políticas que sí produjeron resultados muy nocivos. El primero de esos diagnósticos decía que en la universidad argentina se investigaba poco, y eso no era falso, por eso no estuvo mal insistir en que los docentes debían ser docentes investigadores. Apareció entonces en los '90 un guioncito lleno de promesas entre la palabra docente e investigador. El problema, la hipertrofia producida durante los '90, fue que en la medida en que se promovió la investigación por sobre la actividad de docencia rápidamente el promisorio par de conceptos docente-investigador se convirtió en el par investigador-docente y de ahí no pasó mucho hasta que cuando nuestras tías nos preguntaban qué éramos dijéramos en voz alta y sacando pecho "investigador" y bajáramos después la voz para confesar que también éramos miserables docentes. Valoro mucho la investigación universitaria, por supuesto, ahora lo que sí me parece inaceptable es que en nombre de la importancia de la investigación nos hayamos acostumbrado a suponer que la parte de la docencia de nuestra vida universitaria es una parte mala, degradada.


–¿Y el segundo diagnóstico?


–El otro diagnóstico, que tampoco estaba necesariamente mal, decía que en la universidad argentina había pocos masters, doctores, posdoctores en relación con el conjunto de los profesores de la universidad y aun con el conjunto de la población económicamente activa del país. Más de uno pensó que lo que se derivaba de esto era que había que ponerse a producir locamente doctores. Eso está lleno de supuestos que han llevado a una inflación del mercado de los posgrados, que ofrecen un dinero interesante para los profesores, ofrecen reconocimientos académicos y curriculares quizás más importantes que los de dar clases en las careras de grado, con lo cual cualquier profesor que haya conquistado su maestría o doctorado tiene un campo abierto de posibilidades laborales dando clases en otras maestrías o doctorados y cada vez van encontrando menos incentivos para dar clases en los cursos que más los necesitan: los cursos del grado de las universidades públicas que les financiaron con generosos sistemas de becas sus propios cursos de maestría, doctorados, posdoctorados, pos, pos, pos... ¿Qué locura es ésta? Tenemos que ser capaces de generar los estímulos morales, políticos y, si es necesario, materiales para que los colegas en los que el Estado argentino gastó mucho dinero para calificar den a esos estudiantes las mejores clases que puedan dar en lugar de suponer que ese es un favor que les hacen de tanto en tanto, o que lo puede hacer el docente JTP, mientras ellos continúan su loca carrerita hacia la nada.

Publicado en Sociedad
Jueves, 02 Julio 2015 07:06

Un año dentro del cerebro

El milmillonario proyecto de EE UU para entender nuestros 86.000 millones de neuronas empieza a ofrecer nuevas tecnologías para asomarse al interior del cráneo como nunca

 

El ser humano ha conseguido que una sonda lanzada desde la Tierra se pose, tras un viaje de 6.000 millones de kilómetros por el espacio, sobre un cometa que surca el sistema solar a 135.000 kilómetros por hora. Sin embargo, ese mismo ser humano es incapaz de entender su propio cerebro. El órgano de kilo y medio que tenemos dentro de la cabeza es un completo extraño. No hay herramientas para estudiarlo. Contiene 86.000 millones de neuronas, con billones de conexiones entre ellas. Con la tecnología actual, abarcarlo es imposible. Es como intentar comprender el universo mirando por la ventana hacia la Osa Mayor.


Pero esta situación de impotencia podría durar poco. En abril de 2013, el presidente estadounidense Barack Obama anunció el proyecto BRAIN, una iniciativa de 4.500 millones de dólares hasta 2022 para "proporcionar a los científicos las herramientas que necesitan para obtener una fotografía dinámica del cerebro en acción y entender mejor cómo pensamos, aprendemos y recordamos".


BRAIN arrancó el 1 de octubre de 2014, cuando los laboratorios, entre ellos algunos de los Institutos Nacionales de la Salud de EE UU y de la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA, máximo exponente de la ciencia militar), comenzaron a recibir dólares. En su primer año fiscal, BRAIN empieza a ofrecer sus primeros resultados.


Los neurocientíficos ya se asoman al cerebro como nunca antes lo habían hecho. Uno de ellos es Charles Lieber, de la Universidad de Harvard. Su equipo presentó en junio en la revista Nature Nanotechnology un dispositivo electrónico muy flexible que se puede implantar en el cerebro de ratones con una microjeringuilla. Esta técnica, revolucionaria, permite cubrir con una malla de electrodos la corteza cerebral para registrar in situ las señales eléctricas neuronales.


"Este dispositivo electrónico inyectable tiene una estructura en forma de malla que, a mayor escala, parecería una mosquitera de las que ponemos en las ventanas para que no entren los bichos. Como una mosquitera, que es muy flexible y por la que puedes ver fácilmente a través, nuestro dispositivo electrónico en forma de malla está abierto en el 90% de su superficie, casi es invisible dentro de un vaso de agua", afirma Lieber.


"Y, muy importante, es casi un millón de veces más flexible que el más flexible de los dispositivos electrónicos estudiados por otros investigadores. Su flexibilidad y sus espacios hacen que nuestro dispositivo se asemeje mucho al tejido nervioso y, por ello, no cause reacción en el tejido cerebral una vez implantado", explica.


Las posibles aplicaciones son formidables. Y no solo para entender el cerebro. El dispositivo también podría servir "para estimular la actividad neuronal en regiones cerebrales profundas relevantes en la enfermedad de Parkinson", según Lieber

.
El joven Evan Macosko, de la Escuela de Medicina de Harvard, también se encuentra en la primera línea de fuego del proyecto BRAIN. Cada célula de nuestro cerebro custodia en su interior una copia de todos nuestros genes. Pero cada célula solo lee determinadas páginas de ese manual de instrucciones. Una célula del músculo utiliza los genes que le permiten contraerse. Una célula del riñón emplea los que posibilitan que filtre sangre.


"Todavía no entendemos muchas de las funciones de las células del cerebro. Si pudiéramos saber qué genes están usando, podríamos entender mejor sus funciones y cómo se clasifican", señala Macosko. Dicho más claro, todavía no sabemos cuántos tipos de células hay en nuestro cerebro ni cuántas hay de cada.


El equipo de Macosko presentó en mayo, en la revista Cell, la Drop-seq, una tecnología que identifica qué genes está usando una célula, o las decenas de miles de células en una muestra de tejido. "Nuestro siguiente paso es utilizar Drop-seq para crear un atlas de las células del cerebro, un listado minucioso de los tipos de células que están presentes en cada región cerebral", adelanta. Un atlas así abriría la puerta a entender mejor las funciones de diferentes zonas del cerebro, pero antes Macosko y los suyos tendrán que afinar el tiro: por el momento, Drop-seq solo detecta el 12% de los genes que utiliza cada célula.


El biólogo molecular Bryan Roth, de la Universidad de Carolina del Norte, es otro de los científicos en la vanguardia de BRAIN. Su equipo diseña en su laboratorio receptores celulares, una especie de porteros de discoteca de las células. Estos guardianes sintéticos, conocidos como DREADD, se pueden colocar en células cerebrales para activarlas y desactivarlas mediante fármacos teledirigidos.


"Básicamente, nos permiten tomar el control remoto de las células cerebrales. Podemos encenderlas o apagarlas para entender cómo funciona el cerebro", detalla Roth. Su enfoque es similar al de la optogenética, otra técnica en la frontera del conocimiento: los científicos instalan genes de algas sensibles a la luz a bordo de virus, que inyectan en cráneos de ratas o monos. Una vez colocados en las neuronas de los animales, los genes producen una proteína que hace de interruptor de la célula, activándola o desactivándola en función de ráfagas de luz láser lanzadas por los investigadores.


El problema de la optogenética es que requiere invadir el cráneo para introducir la luz láser. Y los DREADD también tienen un talón de Aquiles, según admite Roth: "No nos permiten un control rápido de la actividad celular, son más lentos que la optogenética".


El grupo del biólogo molecular acaba de presentar un nuevo DREADD, más sofisticado, en la revista especializada Neuron. "Las drogas que usamos no hacen nada a los animales más allá de apagar y encender neuronas", asegura. Los DREADD, y el resto de tecnologías surgidas de la iniciativa BRAIN, pueden ser para el cerebro lo que el telescopio fue para el universo.

Publicado en Ciencia y tecnología
Miércoles, 24 Junio 2015 06:41

La ciencia, un asunto de comunicación social

Según la Real Academia Española, la ciencia remite al conjunto de conocimientos obtenidos mediante la observación y el razonamiento, sistemáticamente estructurados y de los que se deducen principios y leyes generales. Sin embargo, presentada de ese modo –así, sin demasiado brillo, esquemática y fría–, esta definición oculta una multiplicidad de sentidos susceptibles de ser atribuidos. En principio, más vale arrancar por lo básico: la ciencia es una parte esencial de la cultura, en efecto, engloba un conjunto de prácticas que no existen sin seres humanos que las realicen.


Desde este punto de vista, tres asuntos florecen en el barro analítico y asoman por su importancia. Primero, un requisito: la ciencia requiere ser estudiada en contexto; luego, una propuesta metodológica: la ciencia puede ser abordada desde una perspectiva comunicacional, y, por último, una necesidad: tras considerar los puntos anteriores, será esencial la generación de condiciones de acceso que garanticen la participación de toda la sociedad en el proceso productivo y reproductivo de los saberes científicos.


- Los científicos hacen historia (pero) desde la historia. Es imposible comprender las ideas de algún filósofo o científico –que para el caso, son lo mismo– si no se accede al idioma de época; a respirar sus aires y a pasear por sus caminos. No se trata de ponerse en lugar de nadie, ello es imposible; aunque sí de comprender por qué sus pensamientos se impusieron en ese instante y no en otros, y por qué se desarrollaron en determinadas latitudes cuando las coordenadas podrían haber sido bien diferentes. En última instancia, intentar responder a una pregunta tan simple como: ¿por qué las cosas suceden cuando suceden y en el sitio en que suceden?


Proceso: una palabra que resuena con fuerza y que a menudo se vacía de significado, como usualmente ocurre con toda categoría analítica utilizada hasta el cansancio. Cada acontecimiento forma parte de una sucesión de momentos que se acomodan en una línea cronológica imaginaria que avanza a paso firme y jamás se detiene. Cada genio de época leyó libros que escribieron sus antecesores y se alimentó de las ideas que allí pululaban. Personas como Copérnico, Galileo y Kant, sin dudas, estuvieron interpeladas por sus entornos, pues, trabajaron con herramientas sociales y produjeron ideas maravillosas que hicieron historia pero desde la historia.


- La ciencia y la comunicación: una relación que pide matrimonio. La comunicación puede ser definida como un enfoque que permite desentrañar falsas concepciones, percepciones, valoraciones y modos de significación. Una perspectiva novedosa que –con un objetivo similar al de otras ciencias sociales como la antropología– busca penetrar el denso entramado que presentan los escenarios cotidianos, esos que los seres humanos organizados en grupos acostumbran a llamar "realidad". De aquí que observar a la ciencia con los ojos de la comunicación permite una lectura alternativa que desmitifica la supuesta blancura de un campo que está atravesado por tensiones, luchas de dominación y de poder.


Para ser más explícito, cada vez que una comunidad científica festeja un acontecimiento, ensancha las espaldas de un intelectual y dirige políticas de investigación en direcciones puntuales, lo que está haciendo no es más que velar otros acontecimientos, quebrar otras espaldas y anular otras posibles trayectorias. En definitiva, amordaza otras bocas para callar otras voces que disputan otros sentidos.


Sin embargo, las relaciones entre ciencia y comunicación no descansan en ese escalón. Todavía hay más: la ciencia posee un lenguaje que tiene su gramática, su ortografía y su sintaxis; un lenguaje que es necesario aprender y que sólo los escritores de elite de- sarrollan a medida que peinan sus canas y cuando sus pieles se convierten en pellejos. El gran maestro Leonardo Moledo, a menudo señalaba: "La ciencia es un cuento que la humanidad se cuenta a sí misma. La historia del Universo y las historias del Universo son tan maravillosas como el más maravilloso de los cuentos. Entonces es una falacia total que la ciencia no sea un relato. La ciencia lo es, porque es comunicación y es lenguaje".


- Para el pueblo lo que es del pueblo. El núcleo duro de la ciencia está compuesto por leyes generales, es decir, por enunciados científicos. Desde un enfoque semiótico, las teorías de la enunciación contemporáneas plantean una cuestión central: mientras los enunciados remiten al acto individual de apropiación de una lengua, el proceso de enunciación se caracteriza por la instalación de un "otro" que interpreta –o decodifica, así lo diría el jamaiquino Stuart Hall– el mensaje. Dicho de otro modo, la comunicación es dialógica y el diálogo supone un contexto en el que la práctica comunicativa se desenvuelve. Por tanto, no tiene sentido el hermetismo científico, pues, en definitiva el objetivo de toda investigación debe ser la divulgación; democratizar el acceso y ensanchar el espectro del público alcanzado. La ciencia no es patrimonio de quien "descubre" sino que pertenece a todos aquellos que demuestran curiosidad por aprender sobre un nuevo modo de pensar la vida. En síntesis, el acto hermenéutico de interpretación implica un proceso de resignificación y construcción del que nadie está exento.
- Ideas finales para construir nuevos principios. Resulta imposible, entonces, circunscribir el término –únicamente– al reducido marco de especialistas, uniformados con guardapolvos blancos y rodeados de tubos de ensayo y compuestos químicos multicolores y humeantes. En efecto, la realización de un ejercicio de desmitificación conceptual podría servir para allanar el camino hacia una aplicación más cotidiana y justa del término.


No todo el mundo cree en la existencia de una ciencia unificada que teje relaciones entre disciplinas como pueden ser la Historia, las Matemáticas y la Filosofía –porque para ser más exactos, no todo el mundo posee las necesidades materiales tan satisfechas como para sentarse a reflexionar, con un café en mano, sobre ello–. Y cuanto más se avanza en el tiempo, si es que el tiempo nos permite avanzar y si es que finalmente existe el tiempo (cuestión que habría que consultar tras leer los pensamientos de cráneos talentosos como Norbert Elias o Edward Thompson) la parcialización de los saberes en campos cada vez más y más pequeños es notoria y palpable.


En la actualidad, con mayor recurrencia, los investigadores y los científicos son empujados a realizar análisis acotadísimos y a recortar sus objetos de estudio hasta hacerlos desvanecer por asfixia. Las disciplinas están más disciplinadas que nunca y, en algunos casos, de tanta rigidez terminan por perder el horizonte y el propósito medular, en efecto, que la sociedad alcance un mejor funcionamiento –es decir que logre mayor equidad y autonomía– a partir de la producción de nuevos conocimientos.
En la posmodernidad, se promueven abordajes segmentados pero "profundos" a diferencia de los megaproyectos que los escritores clásicos realizaban en siglos precedentes. Ya no se cree demasiado en las "historias universales" y el polvo mágico de los atlas ha quedado en el camino. Aquellos libros regordetes que parecían encerrar en un puñado de páginas todos los secretos del mundo ya no generan el consenso de antaño. No. Hoy, las narrativas opcionales, los otros relatos, las otras perspectivas y las otras cosmovisiones (que son legítimas pero no están legitimizadas) están en la superficie y conforman la difusa sustancia que definen al viejo nuevo problema del sentido común.


En el siglo XXI, ninguna persona podrá decir que en esta parte del globo no se hace ciencia, luego de conocer, por caso, los impresionantes avances chilenos en materia astronómica, los progresos cubanos en salud pública e inmunología y los progresos costarricenses en producción de energías renovables. En esa línea es que Argentina proyecta el futuro, convencida de tener herramientas suficientes para escribir la historia con un lápiz propio. Sólo será cuestión de sacarle punta y afilar un poco el trazo.


En este marco, la propuesta será pensar en el concepto de ciencia desde un enfoque más flexible: evitar la falsa dicotomía entre las "duras" y las "blandas", otorgarles a las sociales y a las humanidades un estatus tan digno como merecido y promover desde los medios masivos de comunicación una perspectiva que defina a la ciencia más allá de sus etiquetas. No alcanza con desarrollar satélites y tirarlos al espacio, no basta con aprender a resolver ecuaciones de segundo o tercer grado, así como tampoco es suficiente conocer cuáles son los males que causan pesticidas como el glifosato para el reino animal, vegetal y humano. No, pues, la ciencia no es un elemento aislable ni específico ni nada de eso; la ciencia es una práctica cultural y, como tal, tiene sentido siempre y cuando se involucren las personas.


Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Publicado en Ciencia y tecnología
Martes, 09 Junio 2015 07:33

Hacking inteligente y hacking bruto

Internet, y con ella la computación en general, ha llegado para modificar por completo la forma de comprender el mundo y la realidad, y de explicar los fenómenos; tanto como la forma misma como pensamos y organizamos la sociedad y nuestras vidas.


La importancia de Internet y todo lo que la red comporta es un hecho que, manifiestamente, divide la historia de la humanidad en dos. O en tres si incluimos antes la invención de la imprenta. Lo cual se traduce en la socialización, la divulgación y democratización del conocimiento. En toda la línea de la palabra.


Internet, las tecnologías de la información que caracterizan y definen a la sociedad de la información —un concepto de los años 1970—. De otra parte, las tecnologías convergentes, las NBIC+S; esto es, la nanotecnología, la biotecnología, las tecnologías de la información y las tecnologías del conocimiento, además de la dimensión social de la tecnología. Las NBIC+S caracterizan y definen a la sociedad del conocimiento. Y adicionalmente las redes sociales, y la emergencia vertiginosa, pero robusta de los grandes datos (big data) y la ciencia de datos (science data). Vivimos, literalmente, una era de luz.


De esta forma, Internet, y con ella la computación en general, ha llegado para modificar por completo la forma de comprender el mundo y la realidad, y de explicar los fenómenos; tanto como la forma misma como pensamos y organizamos la sociedad y nuestras vidas.
Atrás parecen quedar los tiempos y grupos oscurantistas. Aquellos que eran albaceas del conocimiento, los que reclama

ban para sí feudos de la verdad, o los que preservaban al conocimiento de la sociedad, acaso porque ésta podía llegar a ensuciarlo, según sus propias palabras.
En cualquier caso, lo cierto es que asistimos a una auténtica revolución, que si bien tuvo un origen militar —ARPANET—, ya hoy en día no pertenece a nadie. No obstante, las pretensiones de la NSA (National Security Agency), los planes y acciones de la Red Eschelon, y los respectivos organismos y planes en cada país. Contra aquellas pretensiones, miles, millones de personas alrededor del mundo trabajan denodadamente en la construcción de una sociedad y un mundo en el que la información y el conocimiento no son patrimonio de nadie y, por el contrario, constituyen patrimonio común de la humanidad.


Algunas de las puntas del iceberg de esta nueva sociedad y mundo son bien conocidos: Anonymous, Wikileaks, y algunos de los héroes también: Julian Assange, Edward Snowden, la exteniente Chelsea Manning. Pero la verdad es que, organizados muchos de ellos, pero también espontánea y libremente, son millones los individuos que participan activamente, en una forma u otra, del proceso de horizontalización del conocimiento que representa Internet. Pasando de la web 1.0 a la web 2.0 y ahora a la web 3.0. Y el advenimiento del Internet de las cosas. Lobos solitarios unos, individuos organizados otros.


El conocimiento de la computación es un fenómeno cultural del cual, crecientemente, nadie puede escaparse. Y con la computación, desde luego, el conocimiento de todas sus posibilidades. Incluso, y ello hay que reconocerlo, al costo de la división digital, de un lado, entre los nativos digitales y los migrantes digitales, así como, de otra parte, entre el uso amplio de Internet y la computación, y que, por ejemplo, en términos políticos, pasa por el tránsito del Wifi al Wimax.


Pues bien, en este panorama cultural emergen nuevos conceptos y prácticas. Uno de ellos es el hacktivismo, y la acción de los hackers. Sin embargo, análogamente, a como hacía Sócrates con respecto a los sofistas, hay que establecer distinciones.


Existen los hackers inteligentes, aquellos que intervienen páginas, redes y mecanismos de seguridad, por ejemplo, con la finalidad de revelar prácticas sospechosas, mecanismos de poder y control, en fin, sistemas de exclusión y violencia. Los hay independientes y vinculados a distintos gobiernos. Los hay políticos y también religiosos. Incluso aunque sus ideas son debatibles. Hace ya un tiempo que hemos entrado en la guerra de quinta generación, las guerras por Internet (war–net).


Los mejores ejércitos alrededor del mundo se preparan o intervienen. Hay, manifiestamente, una dinámica propia que sería el objeto de otro texto aparte. A su vez, los núcleos más destacados de algunas religiosas hacen lo mismo, cuando lo hacen. Una buena parte de la inteligencia humana entra, pasa, trabaja con o conoce estas dinámicas y estructuras de la computación que se expresan en el hackeo.


Pero, de otra parte, existen también los hackers brutos. Estos son aquellos que simplemente bloquean información, muy notablemente, de revistas electrónicas, páginas de gobierno, páginas del sector privado. Aquellos otros, por el contrario, roban información para compartirla con el público. Son los Robin Hood contemporáneos, dado que roban la riqueza contemporánea —datos, información, conocimiento— para compartirla con quienes no la tienen.


Pero bloquear páginas en las que se debaten temas como poesía y análisis políticos, artículos de opinión y de ciencia, artículos de denuncia —siempre valientes— de corrupción, paramilitarismo y violencia, artículos sobre libros y sobre las emociones humanas, por ejemplo, es un claro síntoma de bestialidad: hackeo bruto e ignorante si lo hay. Recuérdese que en antropología y literatura la bestia constituye una dimensión distinta a la de los humanos y los animales.


Bloquear páginas sin ninguna autoría ni ningún mensaje. Eso lo hace un estudiante de colegio de grados intermedios de bachillerato, literalmente. Y algunos de los mecanismos de este hackeo se consiguen, sin ninguna dificultad, en el mercado negro de la computación.


Los hackers brutos no conocen, y si lo leen, jamás entenderán ese clásico de Pekka Himanen que es La ética del hacker y el espíritu de la era de la información (original del 2001, con traducciones a numerosos idiomas).


Los hackers brutos son siempre secundones que acatan órdenes sin entenderlas bien. Algo análogo a ese engendro del mal que era Adolf Eichmann, ese funcionario que podía ser cualquier otra persona y que Hannah Arendt estudia magistralmente en su libro sobre la banalidad del mal.
Bloquear información en lugar de debatirla es clara señal de ausencia de argumentos. Bloquear conceptos en lugar de combatirlos al mismo nivel es señal de torpeza y acatamiento que los sitúa en un nivel inferior al de los animales.


Los hackers brutos nunca muestran la cara, y jamás esgrimen banderas, así sean discutibles. Por el contrario, el hacktivismo inteligente identifica fuentes ocultas de información y las comparte con todos (= todos los que estén interesados).


Nos encontramos apenas en la antesala de una nueva etapa de la familia humana. Y sí, como en todas las familias, existen los destacados y los buenos, pero también los vergonzosos y los parias. Sin maniqueísmo.


Los hackers brutos representan lo más vetusto de la cultura humana: la autoridad, el control, el miedo, el oscurantismo y el (neo)institucionalismo. En fin, las formas misma de la política y la justicia han cambiado.


Si Assange, Manning o Snowden son los herejes de nuestro tiempo, ello es señal de que necesitamos más herejes. Y herejes los hay, en todos los niveles. Desde los sleepers (durmientes) hasta gente en diversas organizaciones y niveles de la sociedad que hace lo suyo. Por ejemplo, los articulistas de las revistas bloqueadas, para mencionar tan sólo una franja.

Publicado en Ciencia y tecnología
Viernes, 05 Junio 2015 07:40

"El saber ya no tiene dueño"

Almeida Filho analiza las dificultades de la universidad para adaptarse a los cambios socioculturales y, con una fuerte crítica al sistema educativo de Brasil, describe la experiencia de la Universidad Federal del Sur de Bahía, donde es rector.

 

El médico y académico brasileño Naomar de Almeida Filho, rector de la joven Universidad Federal del Sur de Bahía (UFSB), dice que el sistema de educación pública, tal como funciona actualmente en su país, no contribuye a la inclusión social, sino que reproduce y acrecienta las desigualdades. "Es un modelo conservador, reaccionario", señala. Almeida, quien fue rector de la Universidad Federal de Bahía (UFB), visitó Argentina invitado por la Universidad Nacional de San Martín (Unsam) y explicó allí el innovador plan de estudios implementado en la institución que dirige, fundada en 2013 con el fin de buscar alternativas a la "perversión social" que hace que las clases populares no puedan acceder a la universidad pública, pese a ser su principal fuente de financiamiento.


–¿Cuáles cree que son las características salientes del contexto sociopolítico y epistemológico en el que hoy están sumergidas las universidades?


–El contexto general es de muchos cambios sociales y culturales, muy intensos y rápidos. Hay una concentración de tecnología en las relaciones personales e institucionales también. Hay una supresión de los límites y una compresión del espacio/tiempo, es decir, muchas cosas suceden al mismo tiempo y la tecnología nos pone en contacto casi de inmediato con toda esa situación de cambio. Hay toda una concentración de esfuerzos en la dirección de un pensamiento más complejo, pero la universidad no acompaña esos cambios con velocidad, es muy conservadora en su existencia como institución.


–¿La dificultad para acoplarse al cambio es una particularidad de la universidad latinoamericana o es un problema más general?


–Es general. Creo que ese es el secreto de la supervivencia de la universidad, que hace mil años existe más o menos igual. Pero en Latinoamérica hay más dificultades para cambiar las universidades y convertirlas en centros de innovación. Un ejemplo de eso es que la estructura de las clases es la misma hace cien años. Los docentes siguen administrando las clases como si fueran dueños del saber, y el saber ahora no tiene dueño. Cualquier estudiante puede hacer una consulta en Internet y verificar si lo que está diciendo el docente es válido o no. Y la otra cosa es que siguen modelos de memorización de la información, y ya no es más necesario acumular información. La información está disponible, los medios de acceso son rápidos, fáciles.

–Usted habla de la convergencia de dos tendencias contradictorias: la profesionalización en la universidad y la desprofesionalización en la sociedad.


–Claro. Cada vez más se necesita en la vida social de gente capaz de ser flexible en todo, incluso en sus competencias profesionales. El rol de la producción, de la creación, de la innovación en la sociedad contemporánea está abierto a una mutación permanente y la universidad tiene una función social que es la de ser el centro de la innovación. La profesionalización es justamente lo opuesto a eso, es la fijación de roles, es hacer lo que se hace como siempre se ha hecho. Esta contradicción no puede resolverse directamente por un cambio de norma, por ejemplo. Es necesario un cambio de estructura y la cultura universitaria es muy señora de sí misma, lo que impide el cambio.


–Brasil y Argentina son países muy grandes, con focos urbanos que de algún modo hegemonizan la actividad académica y, al menos en Argentina, es limitada la posibilidad de obtener un título sin desplazarse hacia los centros urbanos. ¿Esto ocurre también en Brasil?


–Sí. Además de la exclusión social, porque Brasil es un país muy desigual socialmente, en términos étnico raciales también, hay una exclusión territorial muy fuerte que hace que algunos sujetos de la población que tienen aptitudes, vocaciones, motivaciones, talentos, no tengan la oportunidad de manifestar eso de una manera socialmente valorada por el hecho de que son pobres, negros, indígenas y viven lejos de los centros. Por eso, yo presenté como ejemplo de una posible institución universitaria del siglo XXI, territorializada, la Universidad Federal del Sur de Bahía, como una proposición de colegios universitarios en pequeños pueblos, en aldeas indígenas, en asentamientos del Movimiento de los Trabajadores sin Tierra o en quilombos (asentamientos afrobrasileños).


–¿Por qué sostiene que el modelo educativo brasileño reproduce la desigualdad social?


–En Brasil la gente que tiene acceso a poder político y económico envía a sus hijos a escuelas privadas muy buenas para poder aprobar los exámenes de ingreso en las universidades públicas, que son gratuitas. Y los hijos de ellos se forman en esas instituciones y tienen mejores empleos, mejores ingresos, más capital político y siguen siendo parte de esa minoría social. Pero hay un ciclo que es paralelo y opuesto a ése: la mayoría, que no tiene recursos económicos ni poder político, el pueblo, los trabajadores, los campesinos, pagan impuestos en una proporción mucho más grande de sus ingresos que los ricos o la clase media, y el Estado no tiene capacidad de ofrecer una educación pública de calidad suficiente para que sus hijos sean competitivos para entrar en las universidades públicas. Entonces, los que concluyen la enseñanza secundaria pública son obligados a pagar la universidad privada, de menor calidad. Eso es una perversión social. Genera más desigualdad, es un modelo conservador, reaccionario. De aquí la idea de tener una universidad en una región rural en el interior de Bahía (la UFSB) donde las distancias de los centros urbanos son enormes. Por ejemplo, uno de nuestros campus está a casi mil kilómetros de la capital de la región, Salvador de Bahía. Hacer que un joven de un pequeño municipio cerca de ese sitio llegue a la universidad y que las plazas no sean ocupadas por estudiantes de fuera de la región fue un desafío para el que tuvimos que crear algunas opciones interesantes.


–¿Como cuáles?


–Como la promoción del ingreso a través de la entrada no en carreras sino en una formación universitaria general. El estudiante tiene primero información sobre lo que significa ser un profesional y hace luego su elección. Es distinto al modelo convencional de universidad, donde el estudiante es forzado a hacer la elección de su carrera antes de entrar y muchas veces termina descubriendo que no es lo quiere y ya no puede cambiar. Para cambiar tiene que salir de la universidad, agregar más años y pasar por más estrés. Nuestro proyecto propone una licenciatura interdisciplinaria: el estudiante entra en grandes áreas, por ejemplo las artes, las humanidades, las ciencias, la salud, la educación, y puede cambiar. Es un proceso que tiende a disminuir el múltiple choque cultural que produce el desembarco del joven en la universidad.


–¿Qué posibilidades hay de expandir ese sistema?


–En Brasil en 2008 empezó una reforma que promocionó una reestructuración curricular en muchas universidades. De las 65 universidades federales, 18 implementaron modelos que son similares a éste. El 5 por ciento de los cupos son en cursos de esta naturaleza. Entonces, esto ya empezó en muchos sitios de Brasil. Yo estoy proponiendo que la expansión de este modelo no se limite al interior del país y a zonas rurales. Ustedes tienen acá en Argentina una concentración de inteligencia que puede agregar mucho a esta idea de la universidad como espacio para la formación en la cultura, en la ciencia, en las artes y eso es la esencia de esta propuesta: que la entrada en la universidad sea la entrada en una cultura universitaria y que dentro de ella la profesionalización sea una consecuencia, pero no un principio.


Informe: Delfina Torres Cabreros

Publicado en Cultura

Asistimos, manifiestamente, a una época de una magnifica vitalidad en el conocimiento. Y entre las expresiones más recientes y sólidas se encuentra la neurobiología de las plantas. Un capítulo refrescante de la complejidad misma de la vida.

 

Parte de la vitalidad del conocimiento que tiene lugar actualmente en la ciencia de punta es el permanente nacimiento de nuevas ciencias y disciplinas. Pues bien, lo que ayer se llamaba botánica hoy se denomina biología molecular. Y más exactamente, en relación con el estudio de las plantas, ha surgido no hace más de dos décadas, la neurobiología de las plantas. La punta de esta área del conocimiento se sitúa en Italia.


Los estudios sobre neurobiología han sido determinantes para comprender el funcionamiento del cerebro y, más allá aún, las relaciones entre mente y cerebro, y entre mente y cuerpo. Sin embargo, hasta la fecha, el foco principal se había concentrado en los seres humanos y en algunas especies animales.


Las plantas son seres vivos que piensan, huelen, sienten, comen, digieren, se reproducen, ven y recuerdan, a pesar de carecer de esqueleto, cerebro, estómago, aparato digestivo, ojos o nariz, por ejemplo. La organización de las plantas es modular; a la manera de múltiples centros de control, distribuidos desde las puntas de las raíces, pasando por las raíces mismas, el tallo, las ramas y las hojas. Si se prefiere, las plantas son humanos con la cabeza metida en la tierra y los pies y manos hacia el aire.
Estudios recientes coinciden en señalar, sin ambigüedades, que las plantas tienen más de cinco sentidos —por lo menos más de quince—, que sienten, son inteligentes y piensan. Exactamente como los seres humanos, o mejor aún. La única "dificultad" que tienen las plantas, en general, es que son lentas. Específicamente, comparadas con los humanos y los animales, son demasiado lentas. Y, sin embargo, se mueven, actúan, entienden el entorno, lo modifican en provecho propio.


La anatomía y la fisiología de las plantas son fascinantes, tanto que, en numerosas ocasiones, algunos de los descubrimientos biológicos más importantes han tenido lugar a raíz del trabajo e investigación con plantas, antes que con animales. Desde Mendel hasta B. McClintock o R. Jorgensen, por ejemplo. Solo que la comunidad científica se ha demorado —siempre— en reconocer la valía de los estudios sobre botánica y ocasionalmente sólo lo ha hecho cuando las mismas investigaciones se han llevado a cabo sobre la célula animal y procesos con animales.


Las plantas procesan información, pero lo hacen de forma distribuida, paralela y no–local, a diferencia de los animales, incluidos los humanos. La organización modular de las plantas permite un descubrimiento fantástico, a saber: una planta no es un individuo; mejor aún, es una colonia, y su inteligencia es exactamente inteligencia de enjambre (a la manera de los insectos sociales, las bandadas de aves o las escuelas de peces, por ejemplo). Para la comprensión de la complejidad de la vida, el procesamiento de información y la trama de los sistemas vivos, estos descubrimientos marcan una verdadera inflexión.
En verdad, las plantas poseen procesos fisiológicos que arrojan nuevas y refrescantes luces sobre el conjunto de los seres vivos en el planeta. Así, por ejemplo, la célula de las plantas y de los animales son exactamente iguales con una salvedad puntual: las plantas poseen, además, cloroplasto, y es ese factor el que hace posible la vida en el planeta.


En efecto, las plantas producen componentes biológicos orgánicos volátiles (BVOCs, en inglés), encargados de destruir y producir moléculas permanentemente en la atmósfera. De manera puntual, controlan y regulan el balance de oxígeno en la atmósfera, de suerte que nunca baje del 18% o suba del 22%, pues, en un caso, el planeta se congelaría y, en el otro, el oxígeno se haría combustible. La fotosíntesis es la expresión epidérmica de la importancia de las plantas para el sostenimiento de la vida en el plantea.


El fenómeno es apasionante. De la pregunta clásica originada en los griegos acerca de lo específica y distintivamente humano, hemos pasado al descubrimiento, gradual, de que algunos atributos que se creyeron siempre propios de los humanos son compartidos con las diferentes escalas de los animales. Hasta llegar, ahora, a las plantas. El punto crucial, sin duda, lo constituye el problema de la mente y la conciencia. Pues bien, también las plantas saben, aprenden, recuerdan, son conscientes y son inteligentes. La diferencia estriba en los tiempos, ritmos y pasos lentos del "reino" vegetal.


De manera atávica, se ha considerado que las cucarachas constituyen un ejemplo conspicuo de resiliencia de la vida. Los ejemplos típicos son su capacidad de supervivencia ante explosiones o bombas atómicas (Hroshima, Nagasiaki, Chernobil). Pues bien, lo cierto es que al lado de las cucarachas, las plantas constituyen otro ejemplo de robustez y resiliencia de la vida. O como lo sostiene algún autor, de antifragilidad de la vida. Es decir, la capacidad para aprovechar circunstancias negativas y convertirlas en oportunidades de desarrollo y adaptación.


Asistimos, manifiestamente, a una época de una magnifica vitalidad en el conocimiento. Y entre las expresiones más recientes y sólidas se encuentra la neurobiología de las plantas. Un capítulo refrescante de la complejidad misma de la vida. Hasta el punto de que toda la cadena de la vida depende absolutamente de las plantas, esto es, de su inteligencia, aprendizajes y adaptación. Lo demás es la imagen inflada de los humanos sobre sí mismos y, con ellos, en un nivel inferior de los animales.


Dos estudios puntuales sobre neurobiología de las plantas son: What a Plant Knows. A Field Guide to the Senses of Your Garden and Beyond, de D. Chamowitz (2013), y Brilliant Green. The Surprising History and Scienc of Plants Intelligence, de S. Mancuso y A. Viola (2015). Sin embargo, son cada vez crecientes los trabajos en esta dirección, para no mencionar la Society for Plant Neurobiology, creada en el 2005 (www.plantbehavior.org). Sí, la lingua franca de la ciencia es el inglés.

Publicado en Ciencia y tecnología

ALAI AMLATINA, 12/05/2015.- Muchas palabras se han ido incorporando al discurso de activistas y políticos desde la popularización de los medios digitales: libre, abierto, compartir, transparencia, red y demás. Si bien parte del léxico parece afín a la izquierda y ha sido promovido como tal, en realidad estos términos transitan indiscriminadamente en los más variados discursos políticos.

En lo que parece ser un giro del capitalismo, vemos como compañías basadas en lo digital empiezan a ganar terreno a las usuales corporaciones predominantes de banca, minería y petróleo. En diciembre 2014, Apple reportó el mayor ingreso trimestral generado por una corporación en la historia. En 2013, WhatsApp, una compañía con cerca de 50 empleados y una infraestructura pequeña, fue adquirida por Facebook por 19 mil millones de dólares (12 de los cuales fueron pagados con acciones). Mark Zuckerberg (co-fundador de Facebook) pagó no solo por el nombre y la red establecida, sino también por la información de sus 400 millones de usuarios, o mejor dicho, por esos usuarios; y así, por la eliminación de la competencia. Hay muchos ejemplos de este tipo de adquisiciones y fusiones, muchas startups están diseñadas para ser compradas por grandes corporaciones. Esta nueva cara del capitalismo revela la tendencia hacia la estructuración en monopolios de la economía digital y cognitiva. Recordemos que cuando hablamos de propiedad intelectual, hablamos de monopolios legales sobre conocimientos, saberes y productos culturales.

En la bolsa, las compañías dependen de la valoración abstracta y especulativa de su marca –propiedad intelectual–. Esta valoración está atada a la infraestructura y reputación de la empresa (tamaño, eficiencia, mercado y capital simbólico), pero también tiene que ver con la 'posesión' y monopolio de conocimientos e información. El acaparamiento, clasificación y nuevos sistemas de análisis de datos masivos son la tendencia, así mismo, la acumulación de patentes. La economía digital se ha estructurado en base a la transacción comercial de la información e innovación generada, recopilada y apropiada. Mucho de este comercio se hace bajo las normas de propiedad intelectual internacional: patentes, marcas y copyright. Sin embargo, la información que producimos al navegar, e incluso parte de lo que voluntariamente dejamos en diversas aplicaciones en la red, no está sujeta a reclamo de autoría, sino a los términos y condiciones de cada sistema. En resumen: si usas esta tecnología, aceptas obligatoriamente todas las condiciones impuestas (incluso a entregar tu alma inmortal, como una aplicación de videojuegos británica irónicamente incluyó en sus términos de uso).

Términos en disputa

En el sistema de propiedad intelectual global ha existido una tendencia histórica a proteger más y por más tiempo a los poseedores de los derechos de comercialización –no necesariamente los autores–. Sin embargo, los derechos sobre los contenidos y datos creados por los usuarios en la red han sido completamente descartados de las normativas autorales. Europa ha establecido algunas regulaciones iniciales sobre la información en red. Por ejemplo, se establece la necesidad de autorización sobre la venta de datos a terceros, sin embargo la opción sigue incluida en los términos que debes aceptar para acceder. También se ha establecido el derecho a ser olvidado, algo polémico, pues quienes más lo solicitan son personas con antecedentes penales. Si bien el derecho a rehacer su vida es legítimo, hay sectores que consideran que ciertos delitos graves o de alta corrupción no deberían ser olvidados. Por supuesto, para quienes pueden pagárselo, hay empresas que se dedican a borrar "huellas digitales", más allá de las normativas.

Después de las revelaciones de Edward Snowden sobre la vigilancia masiva de la NSA y la GCHQ (agencia de seguridad de Inglaterra), la privacidad y la seguridad se han convertido en los principales términos en la opinión pública para abordar la noción de derechos digitales. La economía cognitiva pregunta: ¿está dispuesto a pagar por los servicios que antes eran gratuitos si le ofrecemos mejor seguridad? Así, los derechos digitales, antes de ser plenamente establecidos, comienzan a ser entendidos como mercancía. Pero más allá de los importantes derechos a la intimidad, confidencialidad de datos y honra pública, también podríamos cuestionarnos si tenemos derecho a decidir sobre la comercialización de nuestros datos a terceros fuera de la lógica del todo o nada. En caso de venta, ¿tenemos un derecho de beneficio? En la lógica de las aplicaciones 'gratuitas', el servicio se da a cambio de nuestra información, ese es el acuerdo. Pero examinando el poder y el tamaño que están adquiriendo unas pocas empresas en Internet, y el enorme potencial de esa información, podríamos cuestionarnos como sociedad y como Estados si este es un intercambio justo.

En 1950, el antropólogo Marcel Mauss planteó, a partir del estudio de economías ancestrales, su noción de Economía del Don. Dar o aceptar un regalo, más allá de un acto solidario, constituía un ejercicio de poder e interés, que de alguna manera ataba a quién daba y a quien recibía. Desde la teoría marxista, Tristana Terranova parte de esta noción y nos habla de 'labor gratuita', una nueva forma de explotación laboral en lo digital, en que toda nuestra interacción es comercializable, incluso, el trabajo voluntario por el bien común acaba beneficiando directa e indirectamente a las grandes compañías. Muchas de éstas colaboran con el desarrollo de software libre y abierto a través de financiamiento y talento humano, usualmente ofreciendo flexibilidad laboral a sus programadores. Si Linux-Ubuntu es uno de los sistemas operativos más usados del planeta es porque Google, y su importante porcentaje de computadoras, corre bajo Goobuntu, su versión adaptada.

Se vuelve complicado oponer ideológicamente lo libre, lo abierto y lo privativo, y demarcar una derecha e izquierda claras. Los términos digitales se vuelven términos en disputa. Sin duda, el software libre ha detonado nuevas dinámicas de organización productiva, nuevos sistemas de negocio, ha promovido actitudes autodidactas y generado comunidades políticas, incluso partidos como el Pirate Party. Pero el libre también está cargado de una ideología liberal de desregularización. Por su parte, el software abierto, manteniendo la idea de código accesible, adoptó una actitud más pragmática y flexible hacia el mercado. Para Nathaniel Tkacz[1] el abierto se basa en los mismos valores que las democracias neoliberales: libertad, individualismo, competencia e intercambio. Lo abierto oculta sus cierres; como colaborador en software puedes acceder al código solo si tienes los conocimientos y herramientas, puedes escoger entre ciertas tareas, no puedes cambiar la estructura de distribución de labores, ni menos la de negocios. Con lo transparente, sucede igual: puede ser sinónimo de honestidad, pero también tiene la connotación de la vigilancia permanente y su subsecuente disciplinamiento interno a través de la mirada de otros. La misma noción de la economía del compartir (sharing economy) se ha convertido en el capital simbólico de un puñado de empresas –millonarias– de Silicon Valley, como Uber.

Formas de propiedad

Los medios digitales son muy seductores, nos ofrecen juegos, información, nos han dado la plasticidad y comodidad para construir identidades virtuales y nuevas formas de relacionarnos y comunicarnos. Nuestra participación sostiene su economía, por eso nos repiten: cuéntenos su vida, háganos saber si le gusta esto o aquello, tomémonos juntos su tiempo al correr, genere redes, invite amigos. En esta saturación, bien podemos recordar el valor de decir nada que Deleuze plantea: las fuerzas represivas no pretenden detener que nos expresemos, más bien, nos obligan a expresarnos constantemente.

Suena un tanto desalentador que todo el potencial de participación social a través de la red acabe revitalizando al capitalismo; sin embargo, no hay que desmerecer lo que estos mecanismos han generado: nuevas formas de organización social a través del trabajo solidario, el conocimiento y los intereses compartidos, creando comunidades no determinadas por geografía y no condicionadas a intereses comerciales. También se puede decir, como Martín Petersen[2] argumenta, que el gran aporte del software libre es la posibilidad de pensar en distintas formas de propiedad: el copyleft establece un tipo de propiedad que se mantiene en el dominio público, las licencias Creative Commons (CC) dan diversas opciones para la difusión creativa sin truncar su capacidad de comercialización. Pero además de estos ejemplos, podemos pensar que la propiedad intelectual puede ser definida de muchas otras maneras a través de licenciamientos nuevos. Y ahí el CC y copyleft se quedan cortos en poder generar también licenciamientos comunitarios, asociativos, nacionales o regionales, con enfoques en los saberes de las comunidades ancestrales, o específicos para la música o el cine. La forma en que definimos nuestras propiedades creativas influencia directamente nuestros modelos de negocios y asociaciones de trabajo, como lo ha demostrado el software.

Pensar en nuevos licenciamientos, nuevas propiedades menos monopólicas, no solo nos genera alternativas al actual sistema global de propiedad intelectual –pilar del neoliberalismo–, sino que también puede plantear cambios al Estado. La defensa de la propiedad privada ha definido el rol del Estado capitalista; alterar el sentido de propiedad, esta propiedad 'inmaterial' motor de la nueva economía, y hacer que el Estado reconozca responsabilidades sobre otras posibles propiedades –públicas, comunitarias, asociativas– es un medio para alterar la lógica misma del Estado.

Notas:
[1] Tkacz, N. (2012). From open source to open government: A critique of open politics. Ephemera, 12(4), 386.
[2] Pedersen, M. (2010). Free culture in context: Property and the politics of free software. The commoner, (14), 40-136.

Publicado en Cultura
Página 1 de 6