Amazon, Facebook, Google, IBM y Microsoft se unen para desarrollar Inteligencia Artificial

No es muy habitual que cinco grandes multinacionales se pongan de acuerdo en algo. Sin embargo, como una generosa excepción, Facebook, Google, Microsoft, Amazon e IBM han creado una sociedad con la que vigilar el crecimiento de la inteligencia artificial y evitar malas prácticas en el futuro.


Hasta hace no mucho, hemos visto cómo las grandes tecnológicas seguían su propio camino en esta disciplina. Sin embargo, algo ha hecho cambiar el criterio de estos cinco gigantes. Facebook, Google,Microsoft, Amazon e IBM han puesto en marcha “Partnership on AI”, una sociedad que pretende, según su página web, “estudiar y formular mejores prácticas en tecnologías de inteligencia artificial, avanzar en su comprensión por parte del público y discutir sobre su influencia en la sociedad”.


Aunque seguirán compitiendo entre sí, pues todas llevan tiempo investigando en este área, se han propuesto unificar criterios para evitar malas prácticas en el futuro. En este sentido, prometen ser muy vigilantes en materias como la ética y la privacidad, una de las grandes batallas de nuestro tiempo.


Sin Apple ni Twitter


“Partnership on AI” (Asociados en la inteligencia artificial) tiene como objetivo, dice, “apoyar la investigación y recomendar las mejores prácticas en áreas como la ética, la equidad y la inclusión; la transparencia y la intimidad; la colaboración entre las personas y los sistemas de inteligencia artificial”.


Esta asociación, a la que todavía no se han sumado ni Apple ni Twitter, pretende ser una especie de consejo de sabios. Aspira a reunir regularmente a expertos en disciplinas como la psicología, la filosofía, la economía o la sociología “para discutir y y orientar sobre las nuevas cuestiones relacionadas con el impacto de la inteligencia artificial en la sociedad”.


(Tomado de ABC)

Optogenética: encender y apagar neuronas para entender el cerebro

¿Qué haría usted con tres millones de dólares? La pregunta parece el reclamo publicitario de un anuncio de loterías. La respuesta, en ese caso, sería la habitual retahíla de objetos lujosos y prescindibles: yates, chalets, cruceros, cochazos... Cosas caras (incluso divertidas) que el dinero puede comprar. Cuando un periodista le hizo esa pregunta a Ed Boyden tiempo después de haber ganado el premio Breakthrough -el más cuantioso al que puede optar un científico, dotado con exactamente tres millones de dólares-, de sus planes no surgió una sola frivolidad. Reconoció, con cierto pudor, que había destinado una cantidad a asegurar la educación de sus hijos para el futuro. El resto, como todo en su vida, lo dedicó a la ciencia, concretamente a financiar experimentos “demasiado locos”, según sus palabras, para encontrar financiación. Esas investigaciones locas son las que han permitido encontrar soluciones terapéuticas inimaginables o resolver grandes enigmas científicos en el campo de la biología. Un terreno en el que, quizá, la gran incógnita continúa siendo cómo funciona el órgano que nos permite hacernos tantas preguntas: nuestro propio cerebro.


Gracias a Ed Boyden estamos un poco más cerca de comprender esa máquina tan compleja que hace única a nuestra especie. El cerebro humano tiene cientos de miles de millones de neuronas, miles o decenas de miles de células diferentes, de distintas formas, conectadas a través de un intrincado circuito que activa distintas regiones cerebrales. Pero a pesar de su dificultad, si queremos encontrar la solución a desórdenes neurológicos como el Alzheimer, por ejemplo, la única posibilidad es conseguir desentrañar el funcionamiento del cerebro. Hasta ahora estas enfermedades han sido enfrentadas con tratamientos químicos o estimulación eléctrica de las neuronas. Ambas técnicas comparten los mismos problemas, en opinión de Boyden. En primer lugar no curan la enfermedad, en el mejor de los casos consiguen paliar los síntomas. Y, en segundo, no es posible controlarlas de forma precisa, con lo que a veces el daño que se produce en las neuronas que rodean las células afectadas es muy importante. ¿Cómo entonces curar estas enfermedades? La única posibilidad es conocer exactamente cómo funciona el cerebro y qué células entran en juego en cada caso. Y eso es lo que Boyden está intentando descubrir a través de la optogenética, una nueva tecnología que ha diseñado junto a Gerhard Nagel y Karl Deisseroth.


La idea -sencilla como todas las ideas hermosas- consiste en conseguir que las neuronas se iluminen cuando entran en funcionamiento aprovechando las descargas eléctricas que producen. Para ello, hay que inocular en las células de nuestro cerebro una proteína que existe en determinadas algas capaces de convertir la luz en electricidad. Esto nos permitiría activar o desactivar células a distancia sin dañar a sus vecinas. La sencillez de la idea encierra, sin embargo, una gigantesca dificultad para ser llevada a cabo. Algo que no asusta a Boyden, creador del principio de pereza aplicada “a veces hacemos demasiadas cosas sólo para estar ocupados. Y eso no es necesariamente lo correcto, cuando podrías estar pensando en una idea mejor con un mayor poder de transformación”.


Aun en sus primeros pasos, la optogenética, cuenta con unas enormes posibilidades de desarrollo y ya ha sido probada con éxito en experimentos con animales para curar algunos tipos de ceguera, actuando sobre las células de la retina.

“Necesitamos practicar la medicina sin riesgos, asegura, y hacer que la resolución de enfermedades complejas sea tan sencillo como programar una aplicación para un teléfono. Podemos hacerlo verificando previamente el terreno; es decir, mapeando los bloques que constituyen la vida, entendiendo cómo funcionan y qué es lo que se estropea cuando están enfermos”. Suena casi como echarse una partida al Minecraft para comprender cómo se puede construir un puente antes de lanzarse a mezclar el hormigón y el acero. Con gente como Ed Boyden, en un futuro, será así...


Edición: Maruxa Ruiz del Árbol / Mikel Agirrezabalaga
Texto: José L. Álvarez Cedena

Sábado, 24 Septiembre 2016 06:36

La jaula mundial

La jaula mundial

“La tecnología prometió liberarnos. En lugar de eso nos ha capacitado para aislarnos del mundo a través de la cultura de la distracción y la dependencia. Poner en duda Silicon Valley no es oponerse a la tecnología. Es pedir más a nuestros tecnólogos, a nuestras herramientas, a nosotros mismos. Es situar la tecnología en el plano humano que le corresponde”. Formidable artículo de Nicholas Carr, quien fuera director del Harvard Business Review y que escribe sobre tecnología desde hace casi dos décadas.


Era la escena de una pesadilla: un chacal con la cara de Mark Zuckerberg estaba encima de una cebra recién muerta, royendo las entrañas del animal. Pero yo no estaba dormido. La visión llegaba al mediodía, provocada por el anuncio del fundador de Facebook -divulgado en la primavera de 2011– de que “la única carne que estoy comiendo es la de animales que he matado yo mismo”. Zuckerberg había comenzado su nuevo “reto personal”, aseguró a la revista Fortune, mientras hervía una langosta viva. Luego despachó a un pollo. Siguiendo con la cadena alimentaria, liquidó a un cerdo y cortó la garganta de una cabra. En una expedición de caza, según informó, le disparó a un bisonte. Él estaba “aprendiendo mucho”, dijo, “sobre la vida sostenible”.


Me las arreglé para eliminar la imagen del hombre-chacal de mi memoria. Lo que no pude evitar fue la sensación de que en el último pasatiempo del joven empresario yacía una metáfora a la espera de una explicación. Si tan sólo pudiera centrar la atención y juntar las piezas dispersas, podría conseguir lo que había buscado durante mucho tiempo: una comprensión más profunda de los tiempos extraños en que vivimos.


¿Qué representa el depredador Zuckerberg? ¿Qué significado podría tener la garra enrojecida de la langosta? ¿Y qué el bisonte, sin duda la más simbólica resonancia de la fauna americana? Estaba en lo cierto. Al menos, pensé, tenía que ser capaz de sacar una historia decente para mi blog. El artículo nunca fue escrito, pero muchos otros lo hicieron. Había comenzado a “bloguear” a principios de 2005, justo cuando parecía que todo el mundo estaba hablando de la ‘blogosfera’. Había descubierto, después de una pequeña investigación en el registro de dominios GoDaddy, que ‘roughtype.com’ estaba todavía disponible (un descuido característico de los pornógrafos), por lo que llame mi blog Rough Type (Tipo Rudo). El nombre parecía adaptarse a la crudeza provisional que tenía la calidad de la escritura en línea en ese momento.


El “blogueo” ya se ha subsumido en el periodismo -ha perdido su personalidad-, pero en aquel entonces se sentía como algo nuevo en el mundo, una frontera de lo literario. El disparate colectivista de los “medios conversacionales” y la “mente de la colmena” que llegó a rodear la blogosfera perdió su momento. Los blogs terminaron siendo producciones personales malhumoradas. Fueron diarios escritos en público, comentarios continuos de cualquier cosa que al escritor se le ocurriera escribir, lo que estuviera observando o pensando en el momento. Andrew Sullivan, uno de los pioneros, lo expresó así: “Usted diga lo que le dé la gana”. El estilo favorecía el nerviosismo de la web, necesitada de una agitación oceánica. Un blog era impresionismo crítico o crítica impresionista, y tenía la inmediatez de una discusión en un bar. Pulsabas el botón “Publicar”, y tu artículo se publicaba en la web, para que todos puedan verlo.


O, simplemente, ignorarte. Los primeros lectores de Rough Type fueron insignificantes, lo que, en retrospectiva, fue una bendición. Yo empecé a bloguear sin saber qué demonios quería decir. Solo murmuraba fuerte en un bazar. Luego, en el verano de 2005, llegó la Web 2.0. La Internet comercial, en estado de coma desde el accidente punto com de 2000, volvía a estar de pie, con los ojos abiertos y con hambre. Sitios como MySpace, Flickr, LinkedIn y la recientemente lanzada Facebook estaban sacando dinero de Silicon Valley. Los nerds se enriquecían de nuevo. Pero las jóvenes redes sociales, junto con el rápido incremento de la blogosfera y la interminablemente discutida Wikipedia parecían anunciar algo más grande que otra fiebre del oro. Eran, si se puede confiar en el bombo, la vanguardia de una revolución democrática en los medios de comunicación y la comunicación, una revolución que cambiaría la sociedad para siempre. Una nueva era estaba amaneciendo, con una salida de sol digna de la Hudson River School.


Rough Type tuvo su tema.


***


La mayor de las religiones locales de los Estados Unidos –mayor que los Testigos de Jehová, mayor que la Iglesia de Jesucristo de los Santos de los Últimos Días, mayor incluso que la Cienciología-, es la religión de la tecnología. John Adolphus Etzler, un emigrante a Pittsburg, tocaba la trompeta en su testamento “El paraíso al alcance de todos los hombres” (1833). Mediante el cumplimiento de sus “fines mecánicos”, escribió, “los EE.UU. se convertirían en un nuevo Edén, en un “estado de sobreabundancia”, donde “habrá un banquete continuo”, “fiestas del placer”, “novedades, deleites y ocupaciones instructivas”, sin que tenga que desdeñarse la “infinita variedad y apariencia de los vegetales”.


Predicciones similares proliferaron a lo largo de los Siglos XIX y XX, con visionarios que se rendían a “su majestad tecnológica”, como el crítico e historiador Perry Miller que escribió: “nos encontramos con el verdadero americano sublime”. Podríamos mandar besos a los agricultores como Jefferson y a los amantes de los árboles, como Thoreau, pero nosotros hemos creído en Edison y Ford, Gates y Zuckerberg. Son los tecnólogos quienes nos inspiran.


El ciberespacio, con sus voces sin cuerpo y avatares etéreos, parecía algo místico desde el principio, y su inmensidad no terrenal un receptáculo para los anhelos espirituales y los tropos estadounidenses. “¿Qué mejor manera -escribió el filósofo Michael Heim en “La ontología erótica del Ciberespacio” (1991) “de emular el conocimiento de Dios que generar un mundo virtual constituido por fragmentos de información”. En 1999, el año en que Google pasó de un garaje de Menlo Park a una oficina de Palo Alto, el profesor de computación de Yale, David Gelernter, escribió un productivo manifiesto sobre “la segunda llegada de la computadora, repleta de delgadas imágenes de ‘cybercuerpos’ a la deriva en el cosmos computacional’ y ‘hermosas colecciones de salida de información, como gigantes jardines inmaculados’”.


La retórica milenaria se incrementó con la llegada de la Web 2.0. “He aquí”, proclamó Wired en un artículo de portada en agosto de 2005, que estamos entrando en un nuevo mundo, impulsado no por la gracia de Dios, sino por la “electricidad de la participación” de la web. Esta será un “paraíso de fabricación propia, manufacturado por los usuarios”. Las bases de datos de la historia serán borradas, la humanidad se reinicia. “Usted y yo estamos vivos en este momento”.


La revelación continúa hasta nuestros días, el paraíso tecnológico brilla para siempre en el horizonte. Incluso los hombres de dinero se han contagiado con el futurismo ilusorio. En 2014, Marc Andreessen, cofundador de la empresa Netscape Communications Corporation y miembro prominente del capitalismo de riesgo, envió una rapsódica serie de tweets -lo llamó un “tweetstorm”- anunciando que las computadoras y los robots estaban a punto de liberar a todos de las “limitaciones de la necesidad física”. Convocando a Etzler (y a Karl Marx), él ha declarado que “por primera vez en la historia la humanidad podrá ser capaz de expresar su naturaleza plena y verdadera: vamos a ser quien queramos ser”. Y: “Los principales campos del esfuerzo humano serán la cultura, las artes, las ciencias, la creatividad, la filosofía, la experimentación, la exploración, la aventura”. Lo único que quedó fuera fueron los vegetales.


***


Tales profecías no deberían ser descartadas por ser una charla de chicos ricos consentidos, sino porque han conformado la opinión pública. Mediante la difusión de una visión utópica de la tecnología, una visión que define el progreso como esencialmente tecnológico, han animado a la gente a apagar sus facultades críticas y dar a los empresarios y a los financieros de Silicon Valley vía libre para rehacer la cultura y adaptarla a sus intereses comerciales.


Si, después de todo, los tecnólogos están creando un mundo de sobreabundancia, un mundo sin trabajo o casi, no quieren que se ponga en duda que sus intereses son indistinguibles de la sociedad. Interponerse en su camino, o incluso cuestionar sus motivos y tácticas, sería contraproducente. Eso sólo serviría para retrasar la inevitable maravilla.


Los teóricos de las universidades y tanques pensantes le han otorgado una impronta académica a la línea de Silicon Valley. Los intelectuales que abarcan el espectro político desde la derecha randianista hasta la izquierda marxista, han retratado la red informática como una tecnología de la emancipación. El mundo virtual, argumentan, proporciona un escape a las represivas restricciones sociales, corporativas y gubernamentales; libera a las personas para ejercer su voluntad y una creatividad sin límites, ya sea como empresarios que buscan riquezas en el mercado o como voluntarios que participan en la “producción social” fuera del mercado. Como escribió el profesor de derecho de Harvard, Yochai Benkler, en su influyente libro “La Riqueza de las Redes” (2006):


Esta nueva libertad es una gran promesa práctica: una dimensión de la libertad individual; una plataforma para una mejor participación democrática; un un medio para fomentar una cultura más crítica y auto-reflexiva; y, en una creciente economía global dependiente cada vez más de la información, un mecanismo para lograr mejoras en el desarrollo humano en todas partes.


Llamarla una revolución, dijo, no es una exageración.


Benkler y su grupo tuvieron buenas intenciones, pero sus suposiciones no eran acertadas. Ellos pusieron demasiado entusiasmo en la precoz historia de la web, cuando las estructuras comerciales y sociales del sistema eran incipientes y sus usuarios eran una muestra sesgada de la población. No pudieron apreciar cómo la red canalizaría las energías de la gente en un monitoreado sistema de información con administración centralizada, organizado para enriquecer a un pequeño grupo de empresas y a sus propietarios.


La red generaría mucha riqueza, pero sería la riqueza de Adam Smith – y que se concentraría en unas pocas manos, no muy extendidas. La cultura que surgió en la red, y que ahora se extiende profundamente en nuestras vidas y en nuestras mentes, se caracteriza por la producción y el consumo frenético -los teléfonos inteligentes han hecho de todos nosotros máquinas al servicio de los medios de comunicación–, con poco poder real y aún menos capacidad reflexiva. Es una cultura de la distracción y la dependencia. Eso no significa negar los beneficios que supone tener acceso a un eficiente y universal sistema de intercambio de información, sino negar la mitología que envuelve el sistema. Supone negar la teoría de que el sistema, con el fin de crear beneficios, tuvo que tomar su forma actual.


Al final de su vida, el economista John Kenneth Galbraith acuñó el término de “fraude inocente”. Lo utilizó para describir una mentira o una verdad a medias que, debido a su adaptación a las necesidades o conceptos de aquellos que están en el poder, se presenta como un hecho verídico. Después de mucha repetición, la ficción se convierte en sabiduría común. “Es inocente porque la mayoría de quienes lo emplean no son conscientes de su error”, escribió Galbraith en 1999. “Es un fraude porque está, silenciosamente, al servicio de un interés especial”. La idea de la red informática como motor de la libertad individual es un fraude inocente.


Me encantan los buenos artilugios. Cuando, como adolescente, me senté en un ordenador por primera vez – una cosa con terminal monocromática conectadaa un procesador de computadora central de dos toneladas -, estaba maravillado. Tan pronto llegaron las asequible PCs me rodeé de cajas de color beige, disquetes y lo que antes se llamaba “periféricos”. Una computadora, descubrí, es una herramienta de múltiples usos, pero también un rompecabezas con muchos misterios. Cuanto más tiempo pasaba en averiguar cómo funcionaba, en aprender su lenguaje y lógica, sondeando sus límites, más posibilidades se abrían. Al igual que la mejor de las herramientas, invita y recompensa la curiosidad. Además, fue muy divertida, a pesar de los dolores de cabeza y los errores fatales.


A principios de 1990, puse en marcha un navegador por primera vez y se me abrieron las puertas de la web. Yo estaba cautivado – mucho territorio y pocas reglas. Pero no pasó mucho tiempo para que llegaran otros aventureros. El territorio comenzó a ser subdividido a modo de centro comercial y, como el valor monetario de sus bancos de datos creció, se empezó a convertir en una mina de oro. Mi emoción se mantuvo, pero se vio atenuada por la cautela. Sentí que los agentes extranjeros empezaron a intervenir mi ordenador a través de su conexión a la web. Lo que había sido una herramienta bajo mi propio control fue transformándose en un medio bajo el control de otros. La pantalla del ordenador se estaba convirtiendo, como tienden a convertirse todos los medios de comunicación, en un entorno, en un ambiente, en un recinto, o peor, en una jaula. Parecía claro que los que controlarían la pantalla omnipresente serían, si se les daba vía, quienes controlarían la cultura.


“La Informática ya no se refiere a los ordenadores”, escribió Nicholas Negroponte, del Instituto de Tecnología de Massachusetts en su bestseller Ser digital (1995). “Se trata de la vida”. Por eso en este siglo Silicon Valley estaba vendiendo, más que aparatos y software, una ideología. El credo se estableció en la tradición estadounidense de la tecno-utopía, pero con un toque digital. Los fanáticos de Silicon Valley eran feroces materialistas – lo que no puede ser medido no tiene sentido-, sin embargo, detestaban lo material. En su opinión, los problemas del mundo, desde la ineficiencia y la desigualdad a la morbilidad y la mortalidad, emanaban del físico mundo, a partir de su realización en la torpe e inflexible materia en descomposición. La panacea era la virtualidad – la reinvención y la redención de la sociedad en código informático. Nos construirían un nuevo Edén con átomos, pero sí con bits. Todo lo que es sólido se derretiría en su red. Esperábamos estar agradecidos y, en su mayor parte, lo estábamos.


Nuestro anhelo de regeneración a través de la virtualidad es la última expresión de lo que en Sobre la fotografía (1977), Susan Sontag describe como “la impaciencia de EEUU con la realidad, el gusto por las actividades cuya instrumentalidad es una máquina”. Lo que siempre hemos encontrado difícil de admitir es que el mundo sigue un guión que no escribió. Esperamos que la tecnología no sólo manipule la naturaleza, sino que la posea, que sea una envoltura para un producto que puede ser consumido pulsando un interruptor de luz o un pedal de gas o un botón que disparo. Anhelamos

reprogramar la existencia, y las computadoras es el mejor medio para hacerlo. Nos gustaría ver este proyecto como heroico, como una rebelión contra la tiranía de un poder ajeno. Pero no es eso en lo absoluto. Es un proyecto que nace de la ansiedad. Detrás se encuentra el temor de que el mundo atómico desordenado se rebelará contra nosotros. Lo que Silicon Valley vende y compramos no es la trascendencia, sino el aislamiento. La pantalla proporciona un refugio, un mundo mediático más predecible, más manejable, y sobre todo más seguro que el mundo recalcitrante de las cosas. Acudimos a lo virtual porque las demandas reales son demasiado pesadas para nosotros.


“Usted y yo estamos vivos en este momento”. Esa historia de Wired – bajo el título “We Are the Web“- me fastidiaba tanto como el entusiasmo por el renacimiento de internet en el 2005. El artículo era irritante, pero también una inspiración. Durante la primera semana de octubre, me senté en mi Power Mac G5 y elaboré una respuesta. El lunes por la mañana, publiqué el resultado en Rough Type – un breve ensayo bajo el portentoso título “La amoralidad de la Web 2.0”. Para mi sorpresa (y, lo admito, placer), los blogueros abundaban alrededor de la nota como fagocitos. En cuestión de días, había sido visto por miles de personas y había brotado una cola de comentarios.


Así comenzó mi discusión -cómo debo llamar este fenómeno cuando hay tantas opciones: la era digital, la era de la información, la era de Internet, la era del ordenador, la edad conectada, la era de Google, la era emoji, la era nube, la era teléfono inteligente, la era de los datos, la era de Facebook, la era robot, la era post-humana. Entre más nombres usaba, más vaporoso parecía. En fin, esta es una era orientada a los gerentes de marca. Terminé por llamarlo el “Now” (ahora).
Fue a través de mi discusión sobre ese “Now”, una discusión que ha generado más de un millar de artículos en blogs, que llegué a mi propia revelación; sólo a una modesta y terrestre revelación. Lo que quiero de la tecnología no es un mundo nuevo. Lo que quiero de la tecnología son herramientas para explorar y disfrutar el mundo que tenemos ante nosotros con todas sus “cosas contrastantes, originales, restantes, extrañas”, como Gerard Manley Hopkins lo describió una vez. Quizás todos podemos vivir ahora dentro de Silicon Valley, pero todavía podemos actuar y pensar como exiliados. Todavía podemos aspirar a ser lo que Seamus Heaney, en su poema “Exposure”, llamaba “emigrantes interiores”.


Y acerca de aquel bisonte muerto. De aquel multimillonario con una pistola. Supongo que el simbolismo era bastante obvio desde el principio.

 

23 septiembre 2016
Original en inglés: The world wide cage
(Artículo publicado en Aeon.co. Traducido para Cubadebate por Dariena Guerra)

Martes, 20 Septiembre 2016 06:43

“Hoy llevamos la biblioteca a todos lados”

“Hoy llevamos la biblioteca a todos lados”

Mitra cuestiona los modos de enseñanza –basados en la memoria– y de evaluación –basados en el método– dominantes en el sistema educativo. Promueve la incorporación de las tecnologías informáticas al aula.

 

“Las personas que dirigen hoy el sistema educativo siguen pensado que cualquier cosa que tiene dos cables es tecnología, pero los niños no ven así el concepto y eso es un problema”, describió Sugata Mitra, uno de los principales investigadores sobre las tecnologías de la educación a nivel mundial. Mitra nació en la India hace 64 años, se graduó en el Instituto de Tecnología de Nueva Delhi y se doctoró en Física. Fue en Delhi donde realizó su experimento “El agujero en la pared”, que le dio fama internacional, cuando demostró que los niños, más allá de su conocimiento previo, podían utilizar correctamente una computadora sin que nadie les dijera cómo: les alcanzaba con observar para aprender. Mitra es crítico de los procesos educativos que excluyen las tecnologías del aula, pero también de los docentes que la utilizan sin su adecuado conocimiento. Actualmente dicta clases sobre tecnologías educativas en la Universidad de Newcastle, ciudad donde vive en Inglaterra.


“Lo que entendemos ahora por acceso a la tecnología es quién tiene acceso a internet y quién no. Después, la frecuencia con la que la usan. Existen tres categorías: las personas que no usan internet, las que la usan y no hacen mucho, y las que la utilizan las 24 horas del día. La gente que no tiene internet está decreciendo. De siete billones son dos billones los que no tienen acceso”, dice, en una entrevista con Página/12.


–¿Cómo se saldan las diferencias económicas en el acceso y el uso de las tecnologías?


–Si efectivamente hay acceso, no hay diferencia. El problema es socioeconómico. Es probable que las empresas de telecomunicaciones provean mucho menor ancho de banda donde hay menos gente, porque les interesa menos. Los gobiernos deben proveer donde las empresas no van a llegar.


–¿Hay resistencia a la tecnología en las escuelas?


–Sí, de tres tipos. Los que dicen no necesitar tecnología para enseñar, esos a veces tienen un problema de ego: el que no la necesita es porque es muy bueno, el problema es que hay muy pocos. Los que dicen saber todo acerca de la tecnología y no quieren recibir ayuda, pero sólo usan el PowerPoint pensando que eso es tecnología: son los más peligrosos, porque piensan que están actualizados, pero no. Y el tercer tipo, con el que más empatizo, son los docentes que saben que el sistema educativo tiene 200 años funcionando y, como no tienen tiempo para incorporar tecnologías a sus clases, no lo hacen: a este sujeto debe apoyar el gobierno, sacándole carga horaria para que pueda incorporar tecnología en la enseñanza.


–¿Por qué dice que la educación es invasiva?


–El viejo modelo militar-industrial asume que uno llega vacío a la escuela. Entonces el sistema te desarrolla la mente y la inteligencia, como si la mente fuera una máquina industrial, pero sabemos que no lo es. Por eso es invasiva, se apropia de la mente.


–¿Qué le critica al actual modelo de enseñanza?


–Se da por sentado que memorizar es igual a saber, pero no tiene por qué ser así. La otra premisa que no se cuestiona es que se necesita saber una cantidad de datos por si los necesitás algún día. Eso tiene su base en la idea de que no podés llevar con vos la biblioteca a todos lados, pero es un error, un concepto antiguo, porque hoy sí tenemos la capacidad de llevar la biblioteca a todos lados. Es casi una creencia que, si buscás todo el tiempo datos en tu biblioteca digital, tu cabeza esta vacía. Es una concepción peligrosa, porque cuando uno busca algo está aprendiendo. Sucede que muchas cosas se buscan sólo una vez. El sistema educativo hoy intenta amontonar todo en los primeros 17 años, pero la verdad es que la educación se expande a lo largo de toda la vida.


–¿Cuál cree que sería el mejor método para comprobar el conocimiento?


–Estamos trabajando en eso, tengo parte de la respuesta. Hay que concentrarse en el trabajo productivo por encima del método. Un ejemplo: si le pedís a alguien que te haga el desayuno, pero la evaluación es que describa cómo lo prepara, una persona que no sabe probablemente fracasaría. Pero si el examen es que traiga un desayuno que preparó, y lo hizo rico, no me interesa cómo lo hizo. A eso me refiero con el producto final y no con el proceso.


–¿Por qué se tomó siempre el proceso como lo más importante?


–Son hipótesis sobre las que seguimos elaborando. Si vas en un barco a un lugar que no conoces, y necesitás averiguar latitud y longitud, debes saber el método exacto, tenés que saber hacer ese cálculo. Ese mundo es relativamente nuevo, existe hace 150 años y exige saber el método, no había un rango de métodos. Esa sociedad creó un método de evaluación donde lo importante era el proceso, así funcionó muchos años el mundo.


–¿El método que usted pregona es superador del anterior modo de enseñanza?


–A veces estoy confundido con ese tema. Es una cuestión de flexibilidad de qué método se usa bajo qué circunstancia.


–Antes de realizar el experimento que relata en el libro El agujero en la pared usted vivió una situación similar con su hijo. ¿Dónde está la racionalidad de que quien utilizó mejor el objeto nuevo fue quien tenía menos conocimiento previo?


–El propósito de esa anécdota es para decir dos cosas: que los niños aprenden mirando, cosas complejas inclusive. Mi hijo sólo veía cómo yo utilizaba la computadora, pero un día yo no sabía qué hacer y él me orientó. La enseñanza en la actualidad no toma eso en cuenta.


El descubrimiento de Sugata Mitra fue probado en muchos países, con chicos de diferentes sectores sociales, algunos que asistían a la escuela y otros que no. Todos arrojaron resultados muy similares, que los niños aprendían rápidamente observando e interactuando entre ellos.


–¿Esto es extrapolable a la educación superior?


–Tal vez con adultos se obtengan mejores resultados, pero hasta el momento no se hizo nada. Cuando evalúan hoy a un ingeniero civil le preguntan cómo hacer un puente sobre tal río. El nuevo sistema de evaluación le diría cómo haría para averiguar qué tipo de puente hay que construir sobre este río. Ya no es cómo lo harías, sino cómo averiguas cómo hacerlo.


–¿Por qué?


–Un ingeniero que se graduó en la UBA hace varios años hoy tiene un conocimiento obsoleto, a menos que se haya actualizado. Su certificado ya no significa nada. Hace 150 años, 15 años no significaban nada, pero hoy es distinto. Yo me doctoré en Física hace 38 años, pero el 50 por ciento de lo que aprendí hoy sé que está mal. Si alguien usa ese título para hacer algo, quizá haga algo peligroso.


Antes de ponerse su boina e irse a comer un bife de chorizo a un restaurant de la zona, para después retornar a la sede del sindicato docente Fedun, donde brindó una charla para el nuevo Instituto de Investigación en Tecnologías y Aprendizaje creado por Aduba, Sugata Mitra contó que en Newcastle, hace algunos días, se cruzó con un chico al que le preguntó si le gustaba usar la tecnología. “¿Qué es la tecnología?”, le preguntó el chico. Mitra se quedó perplejo. “Hay un desfasaje muy grande –finalizó– entre quienes dirigen el sistema educativo y quienes asisten a las aulas.”

Publicado enCultura
Diez hechos sorprendentes sobre el cerebro humano

“Mi atención perseguía [...] células de formas delicadas y elegantes, las misteriosas mariposas del alma, cuyo batir de alas quién sabe si esclarecerá algún día el secreto de la vida mental...”


Así hablaba sobre las neuronas el científico español más importante, Santiago Ramón y Cajal.


Junto con Camillo Golgi, recibió el Premio Nobel en Medicina y Fisiología en 1906 por descubrir las neuronas y por formular teorías sobre cómo funciona el sistema nervioso.


Hoy por hoy, el trabajo de descubrir los misterios del cerebro continúa. Y es que, cuanto más investigamos sobre el cerebro humano, más enigmas se nos presentan ante nosotros.


Este poderoso órgano encierra una asombrosa complejidad en tan sólo un kilo y medio de peso y es el director de nuestro cuerpo, pensamientos y acciones.


Esta continuamente en marcha, consumiendo sus cien mil millones de neuronas hasta un 20% de nuestra energía. De hecho, con esa energía que genera podría iluminarse una bombilla de 20 vatios.


Esto es porque las neuronas intercambian a través de sus conexiones impulsos eléctricos y químicos a gran velocidad. Para hacerse una idea, el cerebro puede procesar hasta 10 elevado a 27 bits por segundo.


Dejando aparte todos estos impresionantes hechos, existen más descubrimientos sobre el cerebro que la ciencia brinda y son dignos de conocer.


1. En la tercera semana de gestación se producen 200.000 células al minuto


Sobre los 18 días de gestación, las células se ponen en marcha para comenzar a formar el sistema nervioso. En las primeras 20 semanas las neuronas van a empezar a nacer masivamente, produciéndose más de 200 mil cada minuto.
Posteriormente se van situando y organizando en distintas capas, creando poco a poco la estructura cerebral adulta.


2. Existe un mecanismo natural que mata las neuronas


Curiosamente, al nacer el bebe tiene el mismo tamaño cerebral que el adulto y posee muchas más neuronas de las que necesita a lo largo de su vida.


Este proceso de muerte neuronal se conoce como “apoptosis”. En el nacimiento se tienen el doble de neuronas de las que realmente se van a utilizar. Una vez que alcanzan sus lugares correspondientes y empiezan a conectarse entre sí, las sobrantes e innecesarias se eliminan poco a poco.


3. Hay partes del cerebro que se desarrollan más rápido que otras


El crecimiento del cerebro no es lineal. Al contrario; tiene picos de más y menos crecimiento según las distintas etapas de la vida.


Primero se desarrollan las áreas dedicadas a reacciones más simples que permiten la supervivencia, por ejemplo, las que manejan los sentidos. El tacto es el primer sentido que se desarrolla.


Más adelante van evolucionando las zonas que se encargan de tareas más complejas, como el área prefrontal del cerebro que se vincula con el autocontrol, la resolución de problemas, la reflexividad, la toma de decisiones...


Por otra parte, la complejidad de la corteza cerebral se correlaciona con el desarrollo de conductas progresivamente más elaboradas (Roselli, 2003).


De hecho, esta parte del sistema nervioso es la que más tarde finaliza su desarrollo, creciendo hasta los 21 años de edad o más. Sin embargo, también es la que primero se deteriora con el paso del tiempo.


Así, las distintas regiones de la corteza cerebral se desarrollan en momentos diferentes: primero las áreas sensoriales y motoras primarias, y luego las áreas de asociación parietales y frontales.


Un método para medir el avance del sistema nervioso es su peso: a más peso, más desarrollo.


4. El ambiente en el que se vive puede modificar el cerebro


Está claro que si de pequeño una persona crece en un ambiente lleno de experiencias, juguetes, libros, música, etc. (un ambiente enriquecido) va a aprender más cosas, lo que se refleja en un mayor desarrollo de su cerebro.


Estos tipos de ambientes provocan un aumento de las conexiones neuronales del cerebro, manteniéndolo estimulado y activo. Sin embargo, si en el entorno no hay recursos es posible que el sistema nervioso no alcance todo el potencial deseado.


5. Algunos acontecimientos pueden provocar la muerte de neuronas


Durante la vida o tras alguna lesión cerebral, algunas neuronas mueren. Esto ocurre por diversas causas, por ejemplo: el estrés, el tabaco, abuso de drogas o fármacos, dormir poco o ciertas enfermedades neurológicas.


Un adulto promedio puede perder en situaciones normales de 10.000 a 50.000 neuronas cada día (O’Connor, Wells & Applegate). Lo patológico es perder muchas más de manera continuada, como ocurre en la enfermedad de Alzheimer.
Lo cierto es que nunca más vuelven a nacer otras neuronas nuevas, sólo las que ya existen se organizarán de la mejor manera que puedan para compensar la pérdida. Esta capacidad del cerebro para cambiar adaptándose al medio se denomina plasticidad neuronal.


No obstante, en las últimas investigaciones se ha descubierto que nacen nuevas neuronas en algunas partes del cerebro como el bulbo olfatorio. Esperaremos más estudios científicos para confirmarlo.


6. El cerebro procesa y almacena lo aprendido durante el sueño


Este es uno de los motivos por el que dormir bien es fundamental. El cerebro aprovecha este momento en el que no llegan estímulos del exterior para afianzar lo aprendido durante el día.


Hay numerosos estudios que confirman esto. Por ejemplo: después de aprender cosas nuevas, se tiene más cantidad de sueño REM (la etapa en la que se sueña). Por otro lado, también se ha demostrado que si no se duerme lo suficiente, los recuerdos no se almacenan tan bien como deberían.


7. El cerebro no puede sentir dolor


El cerebro puede interpretar el dolor en otras partes del cuerpo, pero, una herida directamente en este órgano no provoca dolor alguno.


¿Por qué ocurre esto? Porque el cerebro no contiene nociceptores, también llamados receptores del dolor.


Muchos neurólogos se han valido de esto para intervenir en pacientes con lesiones y para la investigación con animales. Así, pueden estimular ciertas partes del cerebro pasando corrientes eléctricas, o registrar su actividad mientras los sujetos están despiertos sin que sufran.


8. El cerebro posee las neuronas de la empatía


Las neuronas espejo se activan al intentar predecir lo que otra persona va a hacer, o al hacer suposiciones sobre lo que está sintiendo.


Por ejemplo: cuando observas a alguien haciendo un movimiento, en el cerebro se activan las mismas áreas que esa persona está activando para realizarlo. Eso sí, es una activación muy leve que no llega a ser suficiente para ponerse en marcha y hacer el mismo movimiento.


Gracias a estas neuronas las personas se pueden hacer una idea de cómo se encuentran los demás.


9. No se utiliza solo el 10% del cerebro


Está claramente demostrado que esta afirmación es falsa.


Siempre se usa el 100% del cerebro en todo momento, sólo que según las tareas que se estén llevando a cabo se activan algunas áreas más que otras.


Una prueba de que esto es sólo un mito son las lesiones cerebrales. Supongamos que no se utiliza el 90% del cerebro: si esto es verdad, una lesión cerebral no afectaría a las capacidades físicas y mentales. Sin embargo, esto no es así. Cualquier lesión cerebral por localizada que sea siempre da lugar a algún déficit en alguna de las habilidades.


Una segunda prueba convincente es lo observado en las técnicas de neuroimagen. Aun utilizando diferentes métodos para ver la actividad cerebral, no se han encontrado todavía zonas del cerebro que estén inactivas, a no ser que los tejidos estén dañados.


10. El cerebro utiliza un 20% del oxígeno del cuerpo


Una muestra de la importancia del oxígeno para el sistema nervioso es que sólo 5 minutos de su privación provocarían lesiones cerebrales.


De hecho, mueren neuronas cuando el cerebro recibe menos oxígeno del que necesita. Esto ocurre por ejemplo en fumadores o personas con apnea del sueño.


Por otro lado, el bostezo también está relacionado con el oxígeno y el cerebro. Según parece, bostezar puede ser una señal de que el cerebro necesita oxígeno. Cuando alguien bosteza entra una gran cantidad de oxígeno con el objetivo de mantener el funcionamiento adecuado del cuerpo.

 

nuevatribuna.es | Lifeder | Cinta Martos Silván 16 de Septiembre de 2016 (17:34 h.)
________________________________________
Referencias
- Ramón y Cajal, S. (1923). Recuerdos de mi vida, Capítulo VII. Centro Virtual Cervantes.
- Rosselli, Mónica. (2003). Maduración Cerebral y Desarrollo Cognoscitivo. Revista Latinoamericana de Ciencias Sociales, Niñez y Juventud, 1(1), 125-144. Retrieved September 16, 2016, from http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S1692-715X2003000100005&lng=en&tlng=es
- O’ Connor B., Wells C. y Applegate, T. (2015). Health: You and Your World: Brief. Edition Total Health Publications
- Agustín Pavón, C. (18 de marzo de 2015). De Cajal y Golgi: el descubrimiento de la neurona. Obtenido de Investigación y Ciencia: http://www.investigacionyciencia.es/blogs/psicologia-y-neurociencia/30/posts/de-cajal-y-golgi-el-descubrimiento-de-la-neurona-11023
- List Of Things That Kill Brain Cells: The Death of Neurons. (s.f.). Recuperado el 16 de Septiembre de 2016, de Mental Health Daily: http://mentalhealthdaily.com/2014/03/01/list-of-things-that-kill-brain-cells-the-death-of-neurons/
- Martos Silván, C. (s.f.). 50 Interesantes Curiosidades sobre el Cerebro Humano. Recuperado el 16 de septiembre de 2016, de Lifeder: http://www.lifeder.com/curiosidades-cerebro/
- Marina, J.A. (2011). El Cerebro Infantil: la gran oportunidad. Ariel, Barcelona.

Los bigotes orientan a perros y gatos respecto del viento

¿Alguna vez se han preguntado cómo saben los perros y los gatos hacia donde sopla el viento? Los investigadores encontraron que esta capacidad se debe, en parte, a los bigotes.

"La mayoría de los mamíferos tienen bigotes organizados en filas y columnas regulares en las mejillas. Los mamíferos marinos, como la foca común, pueden utilizarlos para rastrear las corrientes marinas", afirmó Yan Yu, estudiante de doctorado de la Universidad Noroccidental y uno de los autores del artículo publicado en Science Advances, de Estados Unidos.

"En los mamíferos terrestres, se sabe muy bien que los bigotes pueden estar involucrados en el sentido del tacto. Pero nadie ha examinado si los mamíferos terrestres también podrían utilizarlos para sentir las corrientes aéreas", señaló.

Por consiguiente, Yu y sus colegas investigaron el papel de los bigotes en la capacidad de los mamíferos para sentir la dirección del viento al colocar cinco ratas de edad similar entrenadas para ubicar la fuente del viento desde un abanico particular en una mesa circular.

Pasos de la investigación

A lo largo de la circunferencia de la mesa, cinco aficionados ubicados a la misma distancia fueron colocados en un semicírculo y prendieron al azar un ventilador para soplar aire a través de una misma "puerta de inicio" localizada al otro lado de la mesa.

Una rata tenía que correr desde la puerta hacia el ventilador que soplaba el aire y bajar por un agujero del tamaño de una rata en frente del abanico. Todos los agujeros conducen a un túnel debajo de la mesa, donde la rata era recompensada por elegir el abanico correcto.

Después de que las ratas realizaron la tarea con un éxito de cerca de 60 por ciento durante 10 días consecutivos, los investigadores les cortaron los bigotes y analizaron los cambios en el comportamiento.

Los resultados mostraron que retirar los bigotes redujo en cerca de 20 por ciento promedio el desempeño de los roedores.

Sábado, 27 Agosto 2016 11:41

Elogio al bibliotecario público

Elogio al bibliotecario público

Elogio a esa mujer u hombre que silenciosos deambulan entre estantes y libros, día tras día, semana tras semana, año tras año. Elogio a ese bibliotecario público que quizás llegó al oficio por accidente y hoy ha descubierto una pasión de vida, ama de verdad su oficio y se entrega con todo a él. Elogio a esa persona que abre puertas a jóvenes, niños y adultos para que se aventuren al fabuloso mundo de la lectura, a que descubran que las utopías son posibles y los sueños proyectos realizables. A esa bibliotecaria que no es guardiana sino anfitriona; que propicia a que muchas personas encuentren su vocación de escritor, de simple lector, de investigador, sociólogo, científico, médico, historiador, ingeniero o maestro. Elogio a ese bibliotecario que no es egoísta con sus tesoros, que los comparte generosamente; que vive entre libros —pero también entre personas—; que cuida de ellos, los mima, los limpia y los restaura, que propicia la ágil circulación del saber. Ser bibliotecario es realizar uno de los más antiguos oficios del mundo, uno que ha sido desempeñado por personajes tan famosos como los hermanos Grimm, como los papas Nicolas V y Pío XI, por Benjamín Franklin y Mao Tse Tung, por Golda Meir y Giacomo Casanova, por Goethe y por Lewis Carroll, por Rubén Darío, y también por León Felipe, Jorge Luís Borges, Mario Vargas Llosa y Stephen King, pero también, y quizás más importante, por miles de personas anónimas que no conocemos y cuyos nombres no quedaron registrados en los anales de la historia, pero que sin lugar a dudas dejaron huellas profundas en la formación y educación de millones de personas al recomendar el libro preciso, en el momento preciso, por rastrear un libro perdido, por recuperar uno que amenazaba ruina, por ubicar el tomo perdido entre las estanterías para que el usuario pudiera leerlo, ansiosamente y con deleite, y que además. Al momento del contacto humano, entregan no solo el libro sino una sonrisa. Elogio a todos los bibliotecarios públicos, y también a los de bibliotecas privadas, claro está, a los de grandes colecciones pero también, y en especial, a los de las pequeñas bibliotecas de provincia, en donde se prestan menos de cuatrocientos libros en un semestre, pero que para esos lugares es una cifra considerable; elogio a esos bibliotecarios, hombres y mujeres, que con su oficio logran sustraer a la juventud de otras distracciones que no redundan en nada positivo para la educación de ella y más bien, con su amoroso oficio, inculcan el amor por la lectura. A todos ellos rindo homenaje.

Publicado enEdición Nº227
Los chimpancés, capaces de trabajar en equipo y desalentar a los haraganes

La cooperación es considerada un elemento clave que separa a los humanos de otras especies animales, pero nuestros primos cercanos, los chimpancés, también pueden trabajar en equipo, según un estudio publicado el lunes.

De hecho, los chimpancés son cinco veces más propensos a cooperar que a rivalizar, y encuentran los medios para desalentar a los haraganes, señala una investigación publicada en Proceedings, de la Academia Nacional de Ciencias estadunidense (PNAS). "Dado que la razón conflicto-cooperación es muy similar en humanos y chimpancés, nuestro estudio muestra sorprendentes similitudes entre las especies y da una nueva visión sobre la evolución humana", señaló Malini Suchak, principal autora del estudio y profesora asistente de comportamiento animal, ecología y conservación en el Colegio Canisius de Buffalo.

Estudios anteriores mostraron que los chimpancés eran poco inclinados a colaborar, pero fueron trabajos desarrollados en laboratorios.

Esta vez los expertos intentaron recrear el hábitat natural de estos animales, al poner a 11 chimpancés en una zona con vegetación y cerca de un aparato con cuerdas que podían utilizar para obtener recompensas.

Pero para obtener estas gratificaciones, los chimpancés debían trabajar en grupos de dos o tres, aunque podían escoger a sus compañeros de equipo.

Pese a que empezaron a competir unos contra otros, comprendieron rápidamente que sería mejor cooperar y durante 94 horas de pruebas los investigadores constataron 3 mil 656 actos de cooperación.

En contraste, también mostraron 600 interacciones de rivalidad, cuando algunos chimpancés robaron o intentaron robar las recompensas sin haber ayudado a obtenerlas, empujaron a otros o comenzaron a pelear.

Algunos enfrentaron estas formas de competencia al "protestar directamente ante otros" o negarse a trabajar en presencia de un compañero perezoso, estrategia conocida como "evasión", que también usan los humanos, señaló el estudio.

En otras ocasiones, los chimpancés dominantes intervinieron para detener a los ladrones, lo que los científicos denominan castigo infligido por un tercero, comportamiento también humano. "Les dejamos la libertad de utilizar su propia estrategia con la finalidad de hacer respetar el orden, y resulta que ellos son muy buenos para evitar la competencia y favorecer la cooperación", subrayó Suchak.

Los resultados de la investigación deberían conducir a la comunidad científica a reconsiderar hasta qué punto la cooperación es un modo de supervivencia en el mundo animal, estimó Frans de Waal, coautor del estudio, experto en primates y profesor de sicología en la Universidad de Emory.

"Se ha vuelto común en la literatura la afirmación de que la cooperación humana es única. Esto es bastante curioso porque las mejores ideas que tenemos de la evolución de la cooperación vienen directamente de los estudios en animales", observó De Waal.

"El mundo natural está lleno de cooperación, desde las hormigas hasta las ballenas asesinas. Nuestro estudio es el primero en mostrar que nuestros parientes más cercanos saben muy bien cómo desalentar la competencia y la pereza. ¡La cooperación gana!".

Jueves, 18 Agosto 2016 06:16

“El amor es el mellizo del dolor”

“El amor es el mellizo del dolor”

El reconocido psicoanalista argentino radicado en París relata en diálogo con Página/12 su relación con Lacan, de quien fue discípulo y traductor al español. También se explaya sobre la función del psicoanalista y los pacientes. El amor y su dualidad en los hombres y en las mujeres.

 


A los 28 años, el doctor Juan David Nasio (1942) obtuvo una beca de la Embajada de Francia en la Argentina para estudiar en la escuela de Jacques Lacan en París. Había un “pequeño” problema: el joven psiquiatra y psicoanalista y su mujer, que era enfermera, no sabían pronunciar ni siquiera “bonjour”. Pero el doctor Nasio quería tener la oportunidad de su vida y no estaba dispuesto a dejar pasar el tren del futuro. En aquellos tiempos (década del ‘60), la obra de Lacan todavía no estaba traducida al español. Nasio, que estudiaba marxismo para criticar a Melanie Klein, solía frecuentar la esquina de Talcahuano y Tucumán, donde se vendían los libros del agente literario Guillermo Schavelzon. Gracias a un amigo suyo –que sí sabía francés–, le llegó a sus manos un ejemplar de Para leer Marx, de Louis Althusser, quien citaba a un psicoanalista: Jacques Lacan. Y pensó: “Hay un autor marxista que cita a este psicoanalista. Yo, que quiero criticar a Melanie Klein, voy a investigar quién es este señor”. Cuando fue una tarde “al zaguán de Schavelzon”, le preguntó: “¿No hay nada de este Lacan? ¿Cómo hago para comprar sus libros?”. El agente literario le mencionó que había un artículo en la revista Cahiers pour l’Analyse. Así nació su interés y su conocimiento por Lacan. Con los años, Juan David Nasio revisaría nada menos que la traducción de parte de la obra de Lacan al español. Pero eso también tiene su historia.


El 1º de septiembre de 1969 Nasio y su mujer llegaron a París. Durante cuatro meses estudiaron el francés con la rigurosidad que imponía la situación: nueve horas por día. En diciembre de ese año, cuando ya se defendía con el idioma, se animó a pedirle una cita a Lacan y éste se la concedió. Fue el comienzo de una relación que perduraría en el tiempo. Nasio presenció los históricos seminarios, sentado siempre en la primera fila de un recinto donde no cabía ni un alfiler: siempre estaba repleto por una multitud de ochocientos asistentes dispuestos a escuchar a uno de los dos nombres esenciales en la historia del psicoanálisis.


Un día, el propio Lacan se comunicó con Nasio. Le consultó si conocía un libro. “No, pero está escrito: La lectura estructuralista de Freud, en español”, le contestó. Lacan, enfurecido, le comentó que esos eran sus escritos y que los habían traducido mal. “Es innoble, no acepto una cosa así. Estoy muy enojado. Y debe haber muchos errores adentro. ¿Usted puede mirarlos?”, lo desafió. Sin dudar, Nasio le dijo que sí. Al día siguiente, le señaló: “Hay muchos errores por página. El que se encargó de este trabajo es un gran traductor y poeta, pero él creyó que usted es un poeta. No lo ha traducido como un científico ni como un psicoanalista teórico. Hay siete u ocho errores por página”. Lacan le propuso encargarse de corregirlo. El joven psiquiatra y psicoanalista aceptó bajo tres condiciones: “Primero, que si tengo dudas pueda venir a preguntarle y me ayude. Segundo, yo quiero que mi nombre aparezca con el suyo: quiero que si hay correcciones usted dé mi aval. Y tercero: yo tengo una beca, no trabajo y me gustaría saber si es posible que el editor me pague por este trabajo”. Así fue como Juan David Nasio llegó a convertirse en el traductor de la obra de Jacques Lacan al español y, con los años, continúa siendo uno de los más respetados psicoanalistas contemporáneos. “Tuve clases particulares de lujo y, a veces, le llevaba problemas en los textos que no existían para que él me hablara y me explicara. Era una maravilla. Tuve una suerte excepcional”, reconoce en diálogo con Página/12.

–Usted señaló que Lacan tenía sus enojos y suele decirse que era un hombre muy distante. ¿Cómo era con usted en el trato cotidiano?

–Muy cordial, muy correcto. No puedo decir nada malo. Yo lo respetaba mucho. Hubo un momento en que mis colegas me decían: “Andá a analizarte con Lacan”. Y yo no quise.

–¿Por qué?

–Hay que imaginar el ambiente, que era de mucha dependencia de esa figura mayor. Todo el mundo se iba a analizar con Lacan, pero yo ya me había analizado en la Argentina. No necesitaba hacerlo. Pienso que el análisis tiene que nacer porque uno se pregunta cosas sobre sí mismo y porque necesita compartirlas con otro, preguntarle al otro e interrogarse a sí mismo delante del otro. Yo no necesitaba eso. Entonces, no me analicé con él, pero sí hice supervisión. Con Lacan supervisé seis años todos los lunes a las 11 de la mañana. Yo quería esa distancia y él también. Por una cosa que escribí una vez, él llegó a decir que no estaba de acuerdo “con un amigo”. Me sentí muy tocado. Y para él también era muy importante que yo no me dedicara a ser uno más en el gran número de personas que estaban como discípulos. Yo era un discípulo de Lacan, pero no era dependiente ni un fanático suyo.

–Además, ya habían creado una relación distinta de analizante-analizado...

–Exacto. Había una relación. Nos hemos visto en la casa de campo y habremos cenado cuatro veces solos. Es impresionante haber cenado a solas con Lacan, uno al lado del otro con los papeles encima. A mí me elegía la comida, yo no lo hacía. El hacía los pedidos al mozo en francés.

–¿Cuál es, según su visión, la importancia de Lacan en el psicoanálisis moderno?

–Lacan ha sido una revolución de la obra freudiana. Y muchos psicoanalistas argentinos y no argentinos no estarían donde están si no fuera por él. Yo no estaría aquí si no fuera por él, por ejemplo. El ha sido un gran maestro. No fue el único, pero fue un gran maestro. Hay que tener una idea simple y clara del movimiento planetario del psicoanálisis. Primero, estuvo muy fuerte en Viena, y luego fue a Berlín, que llegó a ser una escuela muy importante. Todos los psicoanalistas estaban en Berlín en el 30. Era una maravilla. Además, ahí se analizó Angel Garma con Theodor Reik. Garma pasó por Berlín y cuando fue a París lo convencieron de que fuera a la Argentina porque estaba la guerra en España. El, que ya conocía este país porque había venido con sus padres, viajó nuevamente y fundó el psicoanálisis argentino. Entonces, primero estuvo Viena, luego Berlín. Cuando llegó la guerra, la mayoría de los psicoanalistas eran judíos, tuvieron que escaparse de Berlín y se fueron a Nueva York. En el 40 y pico el psicoanálisis era Estados Unidos. Allí había unas escuelas maravillosas, muy criticadas por Lacan, pero había gente con mucha reflexión. Muchos de los autores se fueron a desarrollar a Estados Unidos en los 50. Luego, se desplazó el movimiento y hubo otra escuela muy importante como Londres, con Melanie Klein. Londres tomó una fuerza muy grande e influenció a los psicoanalistas argentinos porque en ese momento el mundo psicoanalítico argentino era kleiniano. Eran buenísimos teóricos y han hecho mucho para que hoy estemos acá y ustedes me entrevisten.

–Usted nombró distintas ciudades, pero hay dos que fueron determinantes en su vida, como Buenos Aires y París. Se suele decir que son las ciudades psicoanalíticas por excelencia. ¿Coincide?

–A fines de los 70 y comienzos de los 80, París iba a ser el centro del psicoanálisis mundial. Y para esa época comenzó a desarrollarse el psicoanálisis lacaniano en la Argentina. Mencioné Viena, Berlín, Nueva York, Londres, París y Buenos Aires. Y hoy la Argentina y Francia son los dos países donde el desarrollo del psicoanálisis es el más importante.

–¿A qué atribuye ese fenómeno?

–Hay varios factores. Primero que nada, en la Argentina tenemos una cultura muy europea. Cuando empecé a estudiar iba a una librería francesa de Viamonte y Florida, que ahora no existe más. Y empecé a leer a Althusser y Sartre. Es una maravilla la influencia de Sartre en la Argentina. Los argentinos siempre hemos sido muy abiertos. Con Melanie Klein se comían los libros ingleses y luego nos comíamos los libros franceses. Por eso se creó esta importancia. No sólo la intelectualidad sino también el espíritu nacional argentino eran de gran apertura. Y sobre todo la cultura era muy abierta a lo que pasaba en ese momento en Francia y en Inglaterra.

–¿Cree que la función del psicoanalista debe ser la de un interlocutor de la palabra?

–El psicoanalista no es sólo un interlocutor de la palabra sino que es un interlocutor que tiene la emoción del otro. Yo trabajo mucho con la emoción. La palabra es muy importante porque nombra la emoción, pero hemos puesto tanto el acento sobre la palabra que muchas veces dejamos de lado la importancia de la emoción. El psicoanálisis es ante todo una terapéutica. Freud decía que el psicoanálisis es una teoría, un método de investigación y un tratamiento. Para mí son las tres cosas y pongo el acento en el tratamiento.

–Usted escribió El libro del dolor y del amor, que incluye dos palabras que muchas personas las ven como antagónicas. Sin embargo, también es cierto que hay dolor en el amor. ¿Cómo evalúa desde el psicoanálisis esta dualidad?

–Pienso que el amor es el mellizo del dolor. Es como el hermafrodita, que es hombre y mujer. Yo diría que el dolor y el amor van juntos como el hermafrodita. Son dos componentes en una sola unidad.

–¿Por qué?

–Porque el amor es atarse, es una ilusión que nos ata. Y, a partir del momento en que yo me ato porque creo, ocurre que esta unión no puede ser eterna: algún día voy a perder este objeto al que me ato. Lo pierdo porque muere, porque se quiere ir y me deja, lo pierdo porque yo mismo me enfermo. Esta unión siempre está ligada al dolor de perder. El amor es unir y el dolor es el sentimiento de la desunión. A partir del momento en que alguien ama a su perro, a su mujer o a sí mismo, inclusive, necesariamente va a haber momentos en que va a perder: el perro va a enfermarse, su mujer puede irse con otro o morir. Yo me quiero a mí mismo y hay momentos en que puedo estar mal conmigo porque he hecho un acto que no es acorde y del cual me siento culpable. No lo digo yo sino Freud. Dijo que de todas las cosas que nos hacen sufrir la causa más frecuente de sufrimiento es amar, porque a partir del momento en que amo corro el riesgo –y se va a dar– de perder.

–Usted dijo que en el amor los hombres fracasan por miedosos y las mujeres por eternas soñadoras. ¿Por qué cree eso?

–Me lo enseñaron mis pacientes y lo resumí en esa fórmula. Hay tantas mujeres solas porque los hombres somos miedosos. Una paciente me dijo: “Doctor, ¿qué pasa?, ¿dónde están los hombres?”. Y yo le contesté: “Mire, están los homosexuales, los casados, que usted no quiere”. Ella volvió a preguntarme: “¿Y el resto?”. Entonces, le señalé: “Y... el resto somos miedosos. Usted sueña con la unión y el hombre tiene miedo a la unión”. No quiere sentirse prisionero, tiene horror de la prisión. Es un cobarde. En cambio, las mujeres sueñan.

–¿Por qué el hombre es un cobarde?

–Porque nosotros tenemos el pene. La imagen más hermosa es cuando el futbolista se pone en la barrera cuando un contrario va a patear un tiro libre y con las manos se cubre los genitales. Esa es la imagen del hombre. Por el sexo que tenemos, por la psicología del hombre que somos, nos preocupa cuidar la fuerza. A las mujeres no les importa cuidarla. Les interesa la fuerza, pero en el fondo lo que más les interesa es el amor, ser amadas y el hijo. El hombre dice: “Yo quiero ser el jefe, no quiero perder plata, quiero tener el poder, que se me respete, que no se me humille”. Son todas cuestiones masculinas del poder. Ellas quieren ser amadas, que no las abandonen, que las aprecien. Y, además, el día en que a una mujer la quiera un hombre, va a querer ser la única, la exclusiva reina, que no haya más nadie que ella para ser amada. Y esa diferencia viene, a mi entender, del cuerpo y del deseo, porque el deseo femenino está muy ligado al cuerpo de la mujer. Y el deseo masculino está muy ligado al cuerpo del hombre. Nosotros tenemos un pene y penetramos. Y sentimos placer en penetrar. La mujer tiene placer en ser penetrada, con actividad, no hay ninguna pasividad. Es el placer de venir al otro, llamarlo que venga hacia ella y que entre en ella. Son dos mundos diferentes. No puede haber la misma psicología. Es imposible. Estoy totalmente en desacuerdo con la teoría de los géneros que dice que la diferencia entre el hombre y la mujer es una cuestión cultural. No, no es cultural, es una cuestión física ante todo. Y la psicología y el inconsciente vienen con el cuerpo.

–En relación a mundos diferentes, usted trabajó también en el análisis de niños y adolescentes. ¿La labor del analista es más difícil que en el caso de los adultos o es más bien un mito?

–He hecho una especie de escala: el paciente más difícil es la pareja, porque hay que estar muy atento, no hay que tomar partido, los dos tienen que sentir que el psicoanalista es alguien que les hace bien. En segundo lugar, lo más difícil es el adolescente porque no habla. Como digo: no sabe identificar los sentimientos. Ustedes y yo sabemos cuándo sentimos rabia. Yo siento rabia, sé que es rabia y la nombro. El adolescente siente pero no sabe lo que siente. No identifica la sensación ni el sentimiento. Por eso es que no habla. Después de la pareja y el adolescente, el paciente más difícil es el psicótico; luego, el bebé (porque viene con la mamá) y el niño. Justamente con el chico de cuatro, cinco o seis años hay que estar muy atento. Es muy difícil porque uno tiende a jugar con él. Y no hay que jugar. El juego es un pretexto, pero hay que estar total y permanentemente concentrado en lo que el chico ve como sufrimiento o que hace que esté ahí presente que, por supuesto, está ligado a los padres. Y en la escala de las dificultades está en última instancia el adulto.

–¿Cómo explicaría desde el psicoanálisis que ese pasaje llamado adolescencia es uno de los momentos más creativos y, a la vez, de los más dolorosos?


–Así es. También lo digo en un libro que la adolescencia es una de las etapas más dolorosas de la existencia porque estamos perdidos, no sabemos encontrar el lugar, el camino que nos lleva. Estamos tanteando. Y, al mismo tiempo, es muy creadora, porque es una etapa en la que tenemos muchas veces una energía extraordinaria, maravillosa. Es una etapa con mucho dolor, creativa y es también fraternal porque es en la adolescencia donde aprendemos a tener el compañero, la compañera y a descubrir que para ser nosotros hace falta el otro.


–¿Cómo explica la frase de Lacan: “Hay que desangustiar al paciente pero no desculpabilizarlo”?


–Es complicada esa frase. Hay que hacer que el paciente esté lo mejor posible. Hay que desangustiarlo. Ahora, si “no desculpabilizarlo” quiere decir darle la libertad de que lo que hizo está bien, no: si eso es desculpabilizar no hay que hacerlo. Hay que entender primero que la culpa es una angustia. Y hay que recordar que la angustia es un estado, un sentimiento desagradable frente al anuncio, a la amenaza de un peligro. La culpa es una forma de angustia, la amenaza de que haya un peligro de tratarse mal a uno mismo. El peligro es que uno se trate mal y que diga: “Pero, ¡sos una porquería!, ¿Cómo pudiste hacer eso?”. La culpa es una forma de angustia frente a la crítica del superyó contra el yo.

Martes, 16 Agosto 2016 19:05

Contra las categorías

Contra las categorías

Toda la educación y la cultura de la civilización occidental no es otra cosa que la pasión por etiquetar el mundo, la realidad y el universo. Por ello mismo no sabe nada de movimiento, cambio, dinámicas.

 

Es un muy acendrado comportamiento. Ya desde que Aristóteles lo estipulara en uno de los varios textos dedicados a la lógica, se convirtió en costumbre y norma pensar con categorías. Incluso alguien como Kant —quien sostenía que desde Aristóteles la lógica no había cambiado nada— piensa en los temas y problemas que le interesan en términos de categorías. Sólo que las suyas son distintas.


Pensar en términos de categorías significa, literalmente, etiquetar el mundo, la realidad, a los otros. Existen muchas maneras de comprender a las categorías, tales como esquemas, tipos, o clases.


El conflicto para ver y comprender el mundo puede ser explicado en términos bastante elementales. Se trata de establecer si vemos lo que conocemos, o bien si conocemos lo que vemos. La inmensa mayoría de los seres humanos sólo ve lo que ya conoce. Esto es, reduce lo nuevo que ve a esquemas, conceptos, imágenes y modelos explicativos ya establecidos y experienciados. Son muy pocos, porque es verdaderamente difícil, aquellos que se dan a la tarea de conocer aquello que ven.


Existe una sutil distinción en inglés, que no aparece como tal en español. Se trata de las distinciones entre tres tipos de categorizaciones: tagging, pigeon–holing, y categorizing. Los tres significan, literalmente, etiquetar. Esto es, comprender y explicar el mundo y la realidad en esquemas, compartimientos, clasificaciones. Que es precisamente aquello en lo que consistía la filosofía aristotélica: un sistema de pensamiento de clasificaciones. Ulteriormente, claro, de jerarquías.


Si la antropología enseña que cada cultura se comprende así misma como el centro del universo, por derivación, cada cultura define al resto del mundo a partir de sus propios esquemas de pensamiento. Al fin y al cabo, el concepto mismo de cultura es conservador, en toda la línea de la palabra. Abogar por la importancia de las culturas es una manera, digamos, de ser un conservador progresista. En el siglo XVI había un mote para esto: el despotismo ilustrado.


El pensamiento que se funda en, y que trabaja con, categorías es tradicionalmente pasivo con los criterios de autoridad. Al fin y al cabo, siempre existe alguna autoridad que determina qué son y qué no son, qué pueden ser y qué no, las cosas. A pesar de que Aristóteles mismo argumentara en contra de los argumentos ad hominem y ad auctoritatem. Que no son los argumentos que se fundan en una autoridad, sino, más exactamente, aquellos argumentos con los que la autoridad está de acuerdo.


Y autoridades existen muchas y en todos los órdenes. Precisamente por ello es extremadamente difícil pensar contra las categorías. Todo ha terminado por convertirse en un atavismo. Al fin y al cabo el sentido común cree y trabaja con etiquetas, esquemas, tipos y clases de todo orden.
Stuart Kauffman es un biólogo con un enorme prestigio entre la comunidad científica. E incluso entre la parte más inteligente de la comunidad empresarial. Al fin y al cabo, el prestigio es algo radicalmente diferente a la autoridad. La buena ciencia no trabaja, en absoluto, con principios o criterios de autoridad. Por eso la buena ciencia es escasa y difícil.


Pues bien, Kauffman acaba de publicar su más reciente libro: Humanity in a Creative Universe (Oxford, 2016). Se trata de uno de esos muy raros libros que abordan el entronque entre ciencia y civilización. Pero no es este aquí el foco de interés.


Becario de la muy prestigiosa Becas MacArthur (“Genius Fellowships”), autor de artículos y libros de enorme impacto en varios órdenes, y con varios premios y reconocimientos, Kauffman —un hombre que ya comienza a hacerse algo grande (tiene a la fecha 76 años)— cobra la fuerza y la lucidez para plantear la necesidad de reconocer que la historia de la que provenimos merece una segunda mirada. En consecuencia, no hay que agachar enteramente la cabeza ante gente como Descartes, Kepler, Galileo, Newton, Laplace, Einstein, Bohr y Schrödinger, de un lado, o Darwin, Adam–Smith o Locke, de otra parte, por ejemplo. Todos ellos tienen el defecto de habernos enseñado a pensar con categorías. Y las cosas no resultan ni ha resultado afortunadas en varios dominios, desde entonces.


Extrapolemos. Quien de verdad piensa, piensa sin categorías, algo que va en contra de la mejor tradición de la civilización occidental. Por el contrario, quienes piensan, abierta o tácitamente en función de tal o cual categoría, propiamente no piensan, y solo siguen, sin saberlo, creencias y doctrinas. Al fin y al cabo la obediencia siempre ha resultado más cómoda, y el ejercicio de la autonomía del pensamiento ha conllevado confrontaciones y riesgo.


Cabe hacer una consideración que arroje una luz indirecta al respecto. En la Grecia antigua existían dos términos para designar el pensar. De un lado, en la Grecia arcaica, se trataba del nous (cuya verbo era el noein, y el correlato objetual era el noema). Posteriormente, con la llegada del período Clásico de la Grecia antigua, el pensar se asimila al conocer, y ambos se designan indistintamente como logos (cuyo verbo es el legein). Cabe adecuadamente traducir al primero como intuición, y al segundo como conocimiento racional basado en la palabra. La historia subsiguiente es el desplazamiento del nous por el logos, gracias a esa historia que se deriva de Platón y de Aristóteles. El resto es historia conocida.


La libertad de pensamiento y la libertad del espíritu pasa, y en muy buena medida se funda, en la capacidad de libertad con respecto a esos atavismos de las categorías. Toda la educación y la cultura de la civilización occidental no es otra cosa que la pasión por etiquetar el mundo, la realidad y el universo. Por ello mismo no sabe nada de movimiento, cambio, dinámicas.


Kauffman hace una invitación sensata y bien argumentada a pensar lejos, muy lejos, de esa tradición de categorías, etiquetas y clasificaciones. Pero lo hace (¿se atreve?) cuando, al parecer, ya ha cruzado el mediodía y la tarde se acerca. Que es cuando la mayoría de científicos se atreven (¿logran?) a plantear desafíos. En este caso, desafíos civilizatorios.


Entonces vale recordar ese texto humorístico y brillante de Borges, y que Foucault repite al comienzo de Las palabras y las cosas: las mil y una formas de clasificar a la realidad. En ese libro maravilloso que es El libro de los animales fantásticos. Pensar contra la familiaridad de las cosas.