Sábado, 24 Septiembre 2016 06:36

La jaula mundial

“La tecnología prometió liberarnos. En lugar de eso nos ha capacitado para aislarnos del mundo a través de la cultura de la distracción y la dependencia. Poner en duda Silicon Valley no es oponerse a la tecnología. Es pedir más a nuestros tecnólogos, a nuestras herramientas, a nosotros mismos. Es situar la tecnología en el plano humano que le corresponde”. Formidable artículo de Nicholas Carr, quien fuera director del Harvard Business Review y que escribe sobre tecnología desde hace casi dos décadas.


Era la escena de una pesadilla: un chacal con la cara de Mark Zuckerberg estaba encima de una cebra recién muerta, royendo las entrañas del animal. Pero yo no estaba dormido. La visión llegaba al mediodía, provocada por el anuncio del fundador de Facebook -divulgado en la primavera de 2011– de que “la única carne que estoy comiendo es la de animales que he matado yo mismo”. Zuckerberg había comenzado su nuevo “reto personal”, aseguró a la revista Fortune, mientras hervía una langosta viva. Luego despachó a un pollo. Siguiendo con la cadena alimentaria, liquidó a un cerdo y cortó la garganta de una cabra. En una expedición de caza, según informó, le disparó a un bisonte. Él estaba “aprendiendo mucho”, dijo, “sobre la vida sostenible”.


Me las arreglé para eliminar la imagen del hombre-chacal de mi memoria. Lo que no pude evitar fue la sensación de que en el último pasatiempo del joven empresario yacía una metáfora a la espera de una explicación. Si tan sólo pudiera centrar la atención y juntar las piezas dispersas, podría conseguir lo que había buscado durante mucho tiempo: una comprensión más profunda de los tiempos extraños en que vivimos.


¿Qué representa el depredador Zuckerberg? ¿Qué significado podría tener la garra enrojecida de la langosta? ¿Y qué el bisonte, sin duda la más simbólica resonancia de la fauna americana? Estaba en lo cierto. Al menos, pensé, tenía que ser capaz de sacar una historia decente para mi blog. El artículo nunca fue escrito, pero muchos otros lo hicieron. Había comenzado a “bloguear” a principios de 2005, justo cuando parecía que todo el mundo estaba hablando de la ‘blogosfera’. Había descubierto, después de una pequeña investigación en el registro de dominios GoDaddy, que ‘roughtype.com’ estaba todavía disponible (un descuido característico de los pornógrafos), por lo que llame mi blog Rough Type (Tipo Rudo). El nombre parecía adaptarse a la crudeza provisional que tenía la calidad de la escritura en línea en ese momento.


El “blogueo” ya se ha subsumido en el periodismo -ha perdido su personalidad-, pero en aquel entonces se sentía como algo nuevo en el mundo, una frontera de lo literario. El disparate colectivista de los “medios conversacionales” y la “mente de la colmena” que llegó a rodear la blogosfera perdió su momento. Los blogs terminaron siendo producciones personales malhumoradas. Fueron diarios escritos en público, comentarios continuos de cualquier cosa que al escritor se le ocurriera escribir, lo que estuviera observando o pensando en el momento. Andrew Sullivan, uno de los pioneros, lo expresó así: “Usted diga lo que le dé la gana”. El estilo favorecía el nerviosismo de la web, necesitada de una agitación oceánica. Un blog era impresionismo crítico o crítica impresionista, y tenía la inmediatez de una discusión en un bar. Pulsabas el botón “Publicar”, y tu artículo se publicaba en la web, para que todos puedan verlo.


O, simplemente, ignorarte. Los primeros lectores de Rough Type fueron insignificantes, lo que, en retrospectiva, fue una bendición. Yo empecé a bloguear sin saber qué demonios quería decir. Solo murmuraba fuerte en un bazar. Luego, en el verano de 2005, llegó la Web 2.0. La Internet comercial, en estado de coma desde el accidente punto com de 2000, volvía a estar de pie, con los ojos abiertos y con hambre. Sitios como MySpace, Flickr, LinkedIn y la recientemente lanzada Facebook estaban sacando dinero de Silicon Valley. Los nerds se enriquecían de nuevo. Pero las jóvenes redes sociales, junto con el rápido incremento de la blogosfera y la interminablemente discutida Wikipedia parecían anunciar algo más grande que otra fiebre del oro. Eran, si se puede confiar en el bombo, la vanguardia de una revolución democrática en los medios de comunicación y la comunicación, una revolución que cambiaría la sociedad para siempre. Una nueva era estaba amaneciendo, con una salida de sol digna de la Hudson River School.


Rough Type tuvo su tema.


***


La mayor de las religiones locales de los Estados Unidos –mayor que los Testigos de Jehová, mayor que la Iglesia de Jesucristo de los Santos de los Últimos Días, mayor incluso que la Cienciología-, es la religión de la tecnología. John Adolphus Etzler, un emigrante a Pittsburg, tocaba la trompeta en su testamento “El paraíso al alcance de todos los hombres” (1833). Mediante el cumplimiento de sus “fines mecánicos”, escribió, “los EE.UU. se convertirían en un nuevo Edén, en un “estado de sobreabundancia”, donde “habrá un banquete continuo”, “fiestas del placer”, “novedades, deleites y ocupaciones instructivas”, sin que tenga que desdeñarse la “infinita variedad y apariencia de los vegetales”.


Predicciones similares proliferaron a lo largo de los Siglos XIX y XX, con visionarios que se rendían a “su majestad tecnológica”, como el crítico e historiador Perry Miller que escribió: “nos encontramos con el verdadero americano sublime”. Podríamos mandar besos a los agricultores como Jefferson y a los amantes de los árboles, como Thoreau, pero nosotros hemos creído en Edison y Ford, Gates y Zuckerberg. Son los tecnólogos quienes nos inspiran.


El ciberespacio, con sus voces sin cuerpo y avatares etéreos, parecía algo místico desde el principio, y su inmensidad no terrenal un receptáculo para los anhelos espirituales y los tropos estadounidenses. “¿Qué mejor manera -escribió el filósofo Michael Heim en “La ontología erótica del Ciberespacio” (1991) “de emular el conocimiento de Dios que generar un mundo virtual constituido por fragmentos de información”. En 1999, el año en que Google pasó de un garaje de Menlo Park a una oficina de Palo Alto, el profesor de computación de Yale, David Gelernter, escribió un productivo manifiesto sobre “la segunda llegada de la computadora, repleta de delgadas imágenes de ‘cybercuerpos’ a la deriva en el cosmos computacional’ y ‘hermosas colecciones de salida de información, como gigantes jardines inmaculados’”.


La retórica milenaria se incrementó con la llegada de la Web 2.0. “He aquí”, proclamó Wired en un artículo de portada en agosto de 2005, que estamos entrando en un nuevo mundo, impulsado no por la gracia de Dios, sino por la “electricidad de la participación” de la web. Esta será un “paraíso de fabricación propia, manufacturado por los usuarios”. Las bases de datos de la historia serán borradas, la humanidad se reinicia. “Usted y yo estamos vivos en este momento”.


La revelación continúa hasta nuestros días, el paraíso tecnológico brilla para siempre en el horizonte. Incluso los hombres de dinero se han contagiado con el futurismo ilusorio. En 2014, Marc Andreessen, cofundador de la empresa Netscape Communications Corporation y miembro prominente del capitalismo de riesgo, envió una rapsódica serie de tweets -lo llamó un “tweetstorm”- anunciando que las computadoras y los robots estaban a punto de liberar a todos de las “limitaciones de la necesidad física”. Convocando a Etzler (y a Karl Marx), él ha declarado que “por primera vez en la historia la humanidad podrá ser capaz de expresar su naturaleza plena y verdadera: vamos a ser quien queramos ser”. Y: “Los principales campos del esfuerzo humano serán la cultura, las artes, las ciencias, la creatividad, la filosofía, la experimentación, la exploración, la aventura”. Lo único que quedó fuera fueron los vegetales.


***


Tales profecías no deberían ser descartadas por ser una charla de chicos ricos consentidos, sino porque han conformado la opinión pública. Mediante la difusión de una visión utópica de la tecnología, una visión que define el progreso como esencialmente tecnológico, han animado a la gente a apagar sus facultades críticas y dar a los empresarios y a los financieros de Silicon Valley vía libre para rehacer la cultura y adaptarla a sus intereses comerciales.


Si, después de todo, los tecnólogos están creando un mundo de sobreabundancia, un mundo sin trabajo o casi, no quieren que se ponga en duda que sus intereses son indistinguibles de la sociedad. Interponerse en su camino, o incluso cuestionar sus motivos y tácticas, sería contraproducente. Eso sólo serviría para retrasar la inevitable maravilla.


Los teóricos de las universidades y tanques pensantes le han otorgado una impronta académica a la línea de Silicon Valley. Los intelectuales que abarcan el espectro político desde la derecha randianista hasta la izquierda marxista, han retratado la red informática como una tecnología de la emancipación. El mundo virtual, argumentan, proporciona un escape a las represivas restricciones sociales, corporativas y gubernamentales; libera a las personas para ejercer su voluntad y una creatividad sin límites, ya sea como empresarios que buscan riquezas en el mercado o como voluntarios que participan en la “producción social” fuera del mercado. Como escribió el profesor de derecho de Harvard, Yochai Benkler, en su influyente libro “La Riqueza de las Redes” (2006):


Esta nueva libertad es una gran promesa práctica: una dimensión de la libertad individual; una plataforma para una mejor participación democrática; un un medio para fomentar una cultura más crítica y auto-reflexiva; y, en una creciente economía global dependiente cada vez más de la información, un mecanismo para lograr mejoras en el desarrollo humano en todas partes.


Llamarla una revolución, dijo, no es una exageración.


Benkler y su grupo tuvieron buenas intenciones, pero sus suposiciones no eran acertadas. Ellos pusieron demasiado entusiasmo en la precoz historia de la web, cuando las estructuras comerciales y sociales del sistema eran incipientes y sus usuarios eran una muestra sesgada de la población. No pudieron apreciar cómo la red canalizaría las energías de la gente en un monitoreado sistema de información con administración centralizada, organizado para enriquecer a un pequeño grupo de empresas y a sus propietarios.


La red generaría mucha riqueza, pero sería la riqueza de Adam Smith – y que se concentraría en unas pocas manos, no muy extendidas. La cultura que surgió en la red, y que ahora se extiende profundamente en nuestras vidas y en nuestras mentes, se caracteriza por la producción y el consumo frenético -los teléfonos inteligentes han hecho de todos nosotros máquinas al servicio de los medios de comunicación–, con poco poder real y aún menos capacidad reflexiva. Es una cultura de la distracción y la dependencia. Eso no significa negar los beneficios que supone tener acceso a un eficiente y universal sistema de intercambio de información, sino negar la mitología que envuelve el sistema. Supone negar la teoría de que el sistema, con el fin de crear beneficios, tuvo que tomar su forma actual.


Al final de su vida, el economista John Kenneth Galbraith acuñó el término de “fraude inocente”. Lo utilizó para describir una mentira o una verdad a medias que, debido a su adaptación a las necesidades o conceptos de aquellos que están en el poder, se presenta como un hecho verídico. Después de mucha repetición, la ficción se convierte en sabiduría común. “Es inocente porque la mayoría de quienes lo emplean no son conscientes de su error”, escribió Galbraith en 1999. “Es un fraude porque está, silenciosamente, al servicio de un interés especial”. La idea de la red informática como motor de la libertad individual es un fraude inocente.


Me encantan los buenos artilugios. Cuando, como adolescente, me senté en un ordenador por primera vez – una cosa con terminal monocromática conectadaa un procesador de computadora central de dos toneladas -, estaba maravillado. Tan pronto llegaron las asequible PCs me rodeé de cajas de color beige, disquetes y lo que antes se llamaba “periféricos”. Una computadora, descubrí, es una herramienta de múltiples usos, pero también un rompecabezas con muchos misterios. Cuanto más tiempo pasaba en averiguar cómo funcionaba, en aprender su lenguaje y lógica, sondeando sus límites, más posibilidades se abrían. Al igual que la mejor de las herramientas, invita y recompensa la curiosidad. Además, fue muy divertida, a pesar de los dolores de cabeza y los errores fatales.


A principios de 1990, puse en marcha un navegador por primera vez y se me abrieron las puertas de la web. Yo estaba cautivado – mucho territorio y pocas reglas. Pero no pasó mucho tiempo para que llegaran otros aventureros. El territorio comenzó a ser subdividido a modo de centro comercial y, como el valor monetario de sus bancos de datos creció, se empezó a convertir en una mina de oro. Mi emoción se mantuvo, pero se vio atenuada por la cautela. Sentí que los agentes extranjeros empezaron a intervenir mi ordenador a través de su conexión a la web. Lo que había sido una herramienta bajo mi propio control fue transformándose en un medio bajo el control de otros. La pantalla del ordenador se estaba convirtiendo, como tienden a convertirse todos los medios de comunicación, en un entorno, en un ambiente, en un recinto, o peor, en una jaula. Parecía claro que los que controlarían la pantalla omnipresente serían, si se les daba vía, quienes controlarían la cultura.


“La Informática ya no se refiere a los ordenadores”, escribió Nicholas Negroponte, del Instituto de Tecnología de Massachusetts en su bestseller Ser digital (1995). “Se trata de la vida”. Por eso en este siglo Silicon Valley estaba vendiendo, más que aparatos y software, una ideología. El credo se estableció en la tradición estadounidense de la tecno-utopía, pero con un toque digital. Los fanáticos de Silicon Valley eran feroces materialistas – lo que no puede ser medido no tiene sentido-, sin embargo, detestaban lo material. En su opinión, los problemas del mundo, desde la ineficiencia y la desigualdad a la morbilidad y la mortalidad, emanaban del físico mundo, a partir de su realización en la torpe e inflexible materia en descomposición. La panacea era la virtualidad – la reinvención y la redención de la sociedad en código informático. Nos construirían un nuevo Edén con átomos, pero sí con bits. Todo lo que es sólido se derretiría en su red. Esperábamos estar agradecidos y, en su mayor parte, lo estábamos.


Nuestro anhelo de regeneración a través de la virtualidad es la última expresión de lo que en Sobre la fotografía (1977), Susan Sontag describe como “la impaciencia de EEUU con la realidad, el gusto por las actividades cuya instrumentalidad es una máquina”. Lo que siempre hemos encontrado difícil de admitir es que el mundo sigue un guión que no escribió. Esperamos que la tecnología no sólo manipule la naturaleza, sino que la posea, que sea una envoltura para un producto que puede ser consumido pulsando un interruptor de luz o un pedal de gas o un botón que disparo. Anhelamos

reprogramar la existencia, y las computadoras es el mejor medio para hacerlo. Nos gustaría ver este proyecto como heroico, como una rebelión contra la tiranía de un poder ajeno. Pero no es eso en lo absoluto. Es un proyecto que nace de la ansiedad. Detrás se encuentra el temor de que el mundo atómico desordenado se rebelará contra nosotros. Lo que Silicon Valley vende y compramos no es la trascendencia, sino el aislamiento. La pantalla proporciona un refugio, un mundo mediático más predecible, más manejable, y sobre todo más seguro que el mundo recalcitrante de las cosas. Acudimos a lo virtual porque las demandas reales son demasiado pesadas para nosotros.


“Usted y yo estamos vivos en este momento”. Esa historia de Wired – bajo el título “We Are the Web“- me fastidiaba tanto como el entusiasmo por el renacimiento de internet en el 2005. El artículo era irritante, pero también una inspiración. Durante la primera semana de octubre, me senté en mi Power Mac G5 y elaboré una respuesta. El lunes por la mañana, publiqué el resultado en Rough Type – un breve ensayo bajo el portentoso título “La amoralidad de la Web 2.0”. Para mi sorpresa (y, lo admito, placer), los blogueros abundaban alrededor de la nota como fagocitos. En cuestión de días, había sido visto por miles de personas y había brotado una cola de comentarios.


Así comenzó mi discusión -cómo debo llamar este fenómeno cuando hay tantas opciones: la era digital, la era de la información, la era de Internet, la era del ordenador, la edad conectada, la era de Google, la era emoji, la era nube, la era teléfono inteligente, la era de los datos, la era de Facebook, la era robot, la era post-humana. Entre más nombres usaba, más vaporoso parecía. En fin, esta es una era orientada a los gerentes de marca. Terminé por llamarlo el “Now” (ahora).
Fue a través de mi discusión sobre ese “Now”, una discusión que ha generado más de un millar de artículos en blogs, que llegué a mi propia revelación; sólo a una modesta y terrestre revelación. Lo que quiero de la tecnología no es un mundo nuevo. Lo que quiero de la tecnología son herramientas para explorar y disfrutar el mundo que tenemos ante nosotros con todas sus “cosas contrastantes, originales, restantes, extrañas”, como Gerard Manley Hopkins lo describió una vez. Quizás todos podemos vivir ahora dentro de Silicon Valley, pero todavía podemos actuar y pensar como exiliados. Todavía podemos aspirar a ser lo que Seamus Heaney, en su poema “Exposure”, llamaba “emigrantes interiores”.


Y acerca de aquel bisonte muerto. De aquel multimillonario con una pistola. Supongo que el simbolismo era bastante obvio desde el principio.

 

23 septiembre 2016
Original en inglés: The world wide cage
(Artículo publicado en Aeon.co. Traducido para Cubadebate por Dariena Guerra)

Publicado en Ciencia y tecnología
Martes, 20 Septiembre 2016 06:43

“Hoy llevamos la biblioteca a todos lados”

Mitra cuestiona los modos de enseñanza –basados en la memoria– y de evaluación –basados en el método– dominantes en el sistema educativo. Promueve la incorporación de las tecnologías informáticas al aula.

 

“Las personas que dirigen hoy el sistema educativo siguen pensado que cualquier cosa que tiene dos cables es tecnología, pero los niños no ven así el concepto y eso es un problema”, describió Sugata Mitra, uno de los principales investigadores sobre las tecnologías de la educación a nivel mundial. Mitra nació en la India hace 64 años, se graduó en el Instituto de Tecnología de Nueva Delhi y se doctoró en Física. Fue en Delhi donde realizó su experimento “El agujero en la pared”, que le dio fama internacional, cuando demostró que los niños, más allá de su conocimiento previo, podían utilizar correctamente una computadora sin que nadie les dijera cómo: les alcanzaba con observar para aprender. Mitra es crítico de los procesos educativos que excluyen las tecnologías del aula, pero también de los docentes que la utilizan sin su adecuado conocimiento. Actualmente dicta clases sobre tecnologías educativas en la Universidad de Newcastle, ciudad donde vive en Inglaterra.


“Lo que entendemos ahora por acceso a la tecnología es quién tiene acceso a internet y quién no. Después, la frecuencia con la que la usan. Existen tres categorías: las personas que no usan internet, las que la usan y no hacen mucho, y las que la utilizan las 24 horas del día. La gente que no tiene internet está decreciendo. De siete billones son dos billones los que no tienen acceso”, dice, en una entrevista con Página/12.


–¿Cómo se saldan las diferencias económicas en el acceso y el uso de las tecnologías?


–Si efectivamente hay acceso, no hay diferencia. El problema es socioeconómico. Es probable que las empresas de telecomunicaciones provean mucho menor ancho de banda donde hay menos gente, porque les interesa menos. Los gobiernos deben proveer donde las empresas no van a llegar.


–¿Hay resistencia a la tecnología en las escuelas?


–Sí, de tres tipos. Los que dicen no necesitar tecnología para enseñar, esos a veces tienen un problema de ego: el que no la necesita es porque es muy bueno, el problema es que hay muy pocos. Los que dicen saber todo acerca de la tecnología y no quieren recibir ayuda, pero sólo usan el PowerPoint pensando que eso es tecnología: son los más peligrosos, porque piensan que están actualizados, pero no. Y el tercer tipo, con el que más empatizo, son los docentes que saben que el sistema educativo tiene 200 años funcionando y, como no tienen tiempo para incorporar tecnologías a sus clases, no lo hacen: a este sujeto debe apoyar el gobierno, sacándole carga horaria para que pueda incorporar tecnología en la enseñanza.


–¿Por qué dice que la educación es invasiva?


–El viejo modelo militar-industrial asume que uno llega vacío a la escuela. Entonces el sistema te desarrolla la mente y la inteligencia, como si la mente fuera una máquina industrial, pero sabemos que no lo es. Por eso es invasiva, se apropia de la mente.


–¿Qué le critica al actual modelo de enseñanza?


–Se da por sentado que memorizar es igual a saber, pero no tiene por qué ser así. La otra premisa que no se cuestiona es que se necesita saber una cantidad de datos por si los necesitás algún día. Eso tiene su base en la idea de que no podés llevar con vos la biblioteca a todos lados, pero es un error, un concepto antiguo, porque hoy sí tenemos la capacidad de llevar la biblioteca a todos lados. Es casi una creencia que, si buscás todo el tiempo datos en tu biblioteca digital, tu cabeza esta vacía. Es una concepción peligrosa, porque cuando uno busca algo está aprendiendo. Sucede que muchas cosas se buscan sólo una vez. El sistema educativo hoy intenta amontonar todo en los primeros 17 años, pero la verdad es que la educación se expande a lo largo de toda la vida.


–¿Cuál cree que sería el mejor método para comprobar el conocimiento?


–Estamos trabajando en eso, tengo parte de la respuesta. Hay que concentrarse en el trabajo productivo por encima del método. Un ejemplo: si le pedís a alguien que te haga el desayuno, pero la evaluación es que describa cómo lo prepara, una persona que no sabe probablemente fracasaría. Pero si el examen es que traiga un desayuno que preparó, y lo hizo rico, no me interesa cómo lo hizo. A eso me refiero con el producto final y no con el proceso.


–¿Por qué se tomó siempre el proceso como lo más importante?


–Son hipótesis sobre las que seguimos elaborando. Si vas en un barco a un lugar que no conoces, y necesitás averiguar latitud y longitud, debes saber el método exacto, tenés que saber hacer ese cálculo. Ese mundo es relativamente nuevo, existe hace 150 años y exige saber el método, no había un rango de métodos. Esa sociedad creó un método de evaluación donde lo importante era el proceso, así funcionó muchos años el mundo.


–¿El método que usted pregona es superador del anterior modo de enseñanza?


–A veces estoy confundido con ese tema. Es una cuestión de flexibilidad de qué método se usa bajo qué circunstancia.


–Antes de realizar el experimento que relata en el libro El agujero en la pared usted vivió una situación similar con su hijo. ¿Dónde está la racionalidad de que quien utilizó mejor el objeto nuevo fue quien tenía menos conocimiento previo?


–El propósito de esa anécdota es para decir dos cosas: que los niños aprenden mirando, cosas complejas inclusive. Mi hijo sólo veía cómo yo utilizaba la computadora, pero un día yo no sabía qué hacer y él me orientó. La enseñanza en la actualidad no toma eso en cuenta.


El descubrimiento de Sugata Mitra fue probado en muchos países, con chicos de diferentes sectores sociales, algunos que asistían a la escuela y otros que no. Todos arrojaron resultados muy similares, que los niños aprendían rápidamente observando e interactuando entre ellos.


–¿Esto es extrapolable a la educación superior?


–Tal vez con adultos se obtengan mejores resultados, pero hasta el momento no se hizo nada. Cuando evalúan hoy a un ingeniero civil le preguntan cómo hacer un puente sobre tal río. El nuevo sistema de evaluación le diría cómo haría para averiguar qué tipo de puente hay que construir sobre este río. Ya no es cómo lo harías, sino cómo averiguas cómo hacerlo.


–¿Por qué?


–Un ingeniero que se graduó en la UBA hace varios años hoy tiene un conocimiento obsoleto, a menos que se haya actualizado. Su certificado ya no significa nada. Hace 150 años, 15 años no significaban nada, pero hoy es distinto. Yo me doctoré en Física hace 38 años, pero el 50 por ciento de lo que aprendí hoy sé que está mal. Si alguien usa ese título para hacer algo, quizá haga algo peligroso.


Antes de ponerse su boina e irse a comer un bife de chorizo a un restaurant de la zona, para después retornar a la sede del sindicato docente Fedun, donde brindó una charla para el nuevo Instituto de Investigación en Tecnologías y Aprendizaje creado por Aduba, Sugata Mitra contó que en Newcastle, hace algunos días, se cruzó con un chico al que le preguntó si le gustaba usar la tecnología. “¿Qué es la tecnología?”, le preguntó el chico. Mitra se quedó perplejo. “Hay un desfasaje muy grande –finalizó– entre quienes dirigen el sistema educativo y quienes asisten a las aulas.”

Publicado en Cultura
Sábado, 17 Septiembre 2016 06:52

Diez hechos sorprendentes sobre el cerebro humano

“Mi atención perseguía [...] células de formas delicadas y elegantes, las misteriosas mariposas del alma, cuyo batir de alas quién sabe si esclarecerá algún día el secreto de la vida mental...”


Así hablaba sobre las neuronas el científico español más importante, Santiago Ramón y Cajal.


Junto con Camillo Golgi, recibió el Premio Nobel en Medicina y Fisiología en 1906 por descubrir las neuronas y por formular teorías sobre cómo funciona el sistema nervioso.


Hoy por hoy, el trabajo de descubrir los misterios del cerebro continúa. Y es que, cuanto más investigamos sobre el cerebro humano, más enigmas se nos presentan ante nosotros.


Este poderoso órgano encierra una asombrosa complejidad en tan sólo un kilo y medio de peso y es el director de nuestro cuerpo, pensamientos y acciones.


Esta continuamente en marcha, consumiendo sus cien mil millones de neuronas hasta un 20% de nuestra energía. De hecho, con esa energía que genera podría iluminarse una bombilla de 20 vatios.


Esto es porque las neuronas intercambian a través de sus conexiones impulsos eléctricos y químicos a gran velocidad. Para hacerse una idea, el cerebro puede procesar hasta 10 elevado a 27 bits por segundo.


Dejando aparte todos estos impresionantes hechos, existen más descubrimientos sobre el cerebro que la ciencia brinda y son dignos de conocer.


1. En la tercera semana de gestación se producen 200.000 células al minuto


Sobre los 18 días de gestación, las células se ponen en marcha para comenzar a formar el sistema nervioso. En las primeras 20 semanas las neuronas van a empezar a nacer masivamente, produciéndose más de 200 mil cada minuto.
Posteriormente se van situando y organizando en distintas capas, creando poco a poco la estructura cerebral adulta.


2. Existe un mecanismo natural que mata las neuronas


Curiosamente, al nacer el bebe tiene el mismo tamaño cerebral que el adulto y posee muchas más neuronas de las que necesita a lo largo de su vida.


Este proceso de muerte neuronal se conoce como “apoptosis”. En el nacimiento se tienen el doble de neuronas de las que realmente se van a utilizar. Una vez que alcanzan sus lugares correspondientes y empiezan a conectarse entre sí, las sobrantes e innecesarias se eliminan poco a poco.


3. Hay partes del cerebro que se desarrollan más rápido que otras


El crecimiento del cerebro no es lineal. Al contrario; tiene picos de más y menos crecimiento según las distintas etapas de la vida.


Primero se desarrollan las áreas dedicadas a reacciones más simples que permiten la supervivencia, por ejemplo, las que manejan los sentidos. El tacto es el primer sentido que se desarrolla.


Más adelante van evolucionando las zonas que se encargan de tareas más complejas, como el área prefrontal del cerebro que se vincula con el autocontrol, la resolución de problemas, la reflexividad, la toma de decisiones...


Por otra parte, la complejidad de la corteza cerebral se correlaciona con el desarrollo de conductas progresivamente más elaboradas (Roselli, 2003).


De hecho, esta parte del sistema nervioso es la que más tarde finaliza su desarrollo, creciendo hasta los 21 años de edad o más. Sin embargo, también es la que primero se deteriora con el paso del tiempo.


Así, las distintas regiones de la corteza cerebral se desarrollan en momentos diferentes: primero las áreas sensoriales y motoras primarias, y luego las áreas de asociación parietales y frontales.


Un método para medir el avance del sistema nervioso es su peso: a más peso, más desarrollo.


4. El ambiente en el que se vive puede modificar el cerebro


Está claro que si de pequeño una persona crece en un ambiente lleno de experiencias, juguetes, libros, música, etc. (un ambiente enriquecido) va a aprender más cosas, lo que se refleja en un mayor desarrollo de su cerebro.


Estos tipos de ambientes provocan un aumento de las conexiones neuronales del cerebro, manteniéndolo estimulado y activo. Sin embargo, si en el entorno no hay recursos es posible que el sistema nervioso no alcance todo el potencial deseado.


5. Algunos acontecimientos pueden provocar la muerte de neuronas


Durante la vida o tras alguna lesión cerebral, algunas neuronas mueren. Esto ocurre por diversas causas, por ejemplo: el estrés, el tabaco, abuso de drogas o fármacos, dormir poco o ciertas enfermedades neurológicas.


Un adulto promedio puede perder en situaciones normales de 10.000 a 50.000 neuronas cada día (O’Connor, Wells & Applegate). Lo patológico es perder muchas más de manera continuada, como ocurre en la enfermedad de Alzheimer.
Lo cierto es que nunca más vuelven a nacer otras neuronas nuevas, sólo las que ya existen se organizarán de la mejor manera que puedan para compensar la pérdida. Esta capacidad del cerebro para cambiar adaptándose al medio se denomina plasticidad neuronal.


No obstante, en las últimas investigaciones se ha descubierto que nacen nuevas neuronas en algunas partes del cerebro como el bulbo olfatorio. Esperaremos más estudios científicos para confirmarlo.


6. El cerebro procesa y almacena lo aprendido durante el sueño


Este es uno de los motivos por el que dormir bien es fundamental. El cerebro aprovecha este momento en el que no llegan estímulos del exterior para afianzar lo aprendido durante el día.


Hay numerosos estudios que confirman esto. Por ejemplo: después de aprender cosas nuevas, se tiene más cantidad de sueño REM (la etapa en la que se sueña). Por otro lado, también se ha demostrado que si no se duerme lo suficiente, los recuerdos no se almacenan tan bien como deberían.


7. El cerebro no puede sentir dolor


El cerebro puede interpretar el dolor en otras partes del cuerpo, pero, una herida directamente en este órgano no provoca dolor alguno.


¿Por qué ocurre esto? Porque el cerebro no contiene nociceptores, también llamados receptores del dolor.


Muchos neurólogos se han valido de esto para intervenir en pacientes con lesiones y para la investigación con animales. Así, pueden estimular ciertas partes del cerebro pasando corrientes eléctricas, o registrar su actividad mientras los sujetos están despiertos sin que sufran.


8. El cerebro posee las neuronas de la empatía


Las neuronas espejo se activan al intentar predecir lo que otra persona va a hacer, o al hacer suposiciones sobre lo que está sintiendo.


Por ejemplo: cuando observas a alguien haciendo un movimiento, en el cerebro se activan las mismas áreas que esa persona está activando para realizarlo. Eso sí, es una activación muy leve que no llega a ser suficiente para ponerse en marcha y hacer el mismo movimiento.


Gracias a estas neuronas las personas se pueden hacer una idea de cómo se encuentran los demás.


9. No se utiliza solo el 10% del cerebro


Está claramente demostrado que esta afirmación es falsa.


Siempre se usa el 100% del cerebro en todo momento, sólo que según las tareas que se estén llevando a cabo se activan algunas áreas más que otras.


Una prueba de que esto es sólo un mito son las lesiones cerebrales. Supongamos que no se utiliza el 90% del cerebro: si esto es verdad, una lesión cerebral no afectaría a las capacidades físicas y mentales. Sin embargo, esto no es así. Cualquier lesión cerebral por localizada que sea siempre da lugar a algún déficit en alguna de las habilidades.


Una segunda prueba convincente es lo observado en las técnicas de neuroimagen. Aun utilizando diferentes métodos para ver la actividad cerebral, no se han encontrado todavía zonas del cerebro que estén inactivas, a no ser que los tejidos estén dañados.


10. El cerebro utiliza un 20% del oxígeno del cuerpo


Una muestra de la importancia del oxígeno para el sistema nervioso es que sólo 5 minutos de su privación provocarían lesiones cerebrales.


De hecho, mueren neuronas cuando el cerebro recibe menos oxígeno del que necesita. Esto ocurre por ejemplo en fumadores o personas con apnea del sueño.


Por otro lado, el bostezo también está relacionado con el oxígeno y el cerebro. Según parece, bostezar puede ser una señal de que el cerebro necesita oxígeno. Cuando alguien bosteza entra una gran cantidad de oxígeno con el objetivo de mantener el funcionamiento adecuado del cuerpo.

 

nuevatribuna.es | Lifeder | Cinta Martos Silván 16 de Septiembre de 2016 (17:34 h.)
________________________________________
Referencias
- Ramón y Cajal, S. (1923). Recuerdos de mi vida, Capítulo VII. Centro Virtual Cervantes.
- Rosselli, Mónica. (2003). Maduración Cerebral y Desarrollo Cognoscitivo. Revista Latinoamericana de Ciencias Sociales, Niñez y Juventud, 1(1), 125-144. Retrieved September 16, 2016, from http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S1692-715X2003000100005&lng=en&tlng=es
- O’ Connor B., Wells C. y Applegate, T. (2015). Health: You and Your World: Brief. Edition Total Health Publications
- Agustín Pavón, C. (18 de marzo de 2015). De Cajal y Golgi: el descubrimiento de la neurona. Obtenido de Investigación y Ciencia: http://www.investigacionyciencia.es/blogs/psicologia-y-neurociencia/30/posts/de-cajal-y-golgi-el-descubrimiento-de-la-neurona-11023
- List Of Things That Kill Brain Cells: The Death of Neurons. (s.f.). Recuperado el 16 de Septiembre de 2016, de Mental Health Daily: http://mentalhealthdaily.com/2014/03/01/list-of-things-that-kill-brain-cells-the-death-of-neurons/
- Martos Silván, C. (s.f.). 50 Interesantes Curiosidades sobre el Cerebro Humano. Recuperado el 16 de septiembre de 2016, de Lifeder: http://www.lifeder.com/curiosidades-cerebro/
- Marina, J.A. (2011). El Cerebro Infantil: la gran oportunidad. Ariel, Barcelona.

Publicado en Ciencia y tecnología

¿Alguna vez se han preguntado cómo saben los perros y los gatos hacia donde sopla el viento? Los investigadores encontraron que esta capacidad se debe, en parte, a los bigotes.

"La mayoría de los mamíferos tienen bigotes organizados en filas y columnas regulares en las mejillas. Los mamíferos marinos, como la foca común, pueden utilizarlos para rastrear las corrientes marinas", afirmó Yan Yu, estudiante de doctorado de la Universidad Noroccidental y uno de los autores del artículo publicado en Science Advances, de Estados Unidos.

"En los mamíferos terrestres, se sabe muy bien que los bigotes pueden estar involucrados en el sentido del tacto. Pero nadie ha examinado si los mamíferos terrestres también podrían utilizarlos para sentir las corrientes aéreas", señaló.

Por consiguiente, Yu y sus colegas investigaron el papel de los bigotes en la capacidad de los mamíferos para sentir la dirección del viento al colocar cinco ratas de edad similar entrenadas para ubicar la fuente del viento desde un abanico particular en una mesa circular.

Pasos de la investigación

A lo largo de la circunferencia de la mesa, cinco aficionados ubicados a la misma distancia fueron colocados en un semicírculo y prendieron al azar un ventilador para soplar aire a través de una misma "puerta de inicio" localizada al otro lado de la mesa.

Una rata tenía que correr desde la puerta hacia el ventilador que soplaba el aire y bajar por un agujero del tamaño de una rata en frente del abanico. Todos los agujeros conducen a un túnel debajo de la mesa, donde la rata era recompensada por elegir el abanico correcto.

Después de que las ratas realizaron la tarea con un éxito de cerca de 60 por ciento durante 10 días consecutivos, los investigadores les cortaron los bigotes y analizaron los cambios en el comportamiento.

Los resultados mostraron que retirar los bigotes redujo en cerca de 20 por ciento promedio el desempeño de los roedores.

Publicado en Ciencia y tecnología
Sábado, 27 Agosto 2016 11:41

Elogio al bibliotecario público

Elogio a esa mujer u hombre que silenciosos deambulan entre estantes y libros, día tras día, semana tras semana, año tras año. Elogio a ese bibliotecario público que quizás llegó al oficio por accidente y hoy ha descubierto una pasión de vida, ama de verdad su oficio y se entrega con todo a él. Elogio a esa persona que abre puertas a jóvenes, niños y adultos para que se aventuren al fabuloso mundo de la lectura, a que descubran que las utopías son posibles y los sueños proyectos realizables. A esa bibliotecaria que no es guardiana sino anfitriona; que propicia a que muchas personas encuentren su vocación de escritor, de simple lector, de investigador, sociólogo, científico, médico, historiador, ingeniero o maestro. Elogio a ese bibliotecario que no es egoísta con sus tesoros, que los comparte generosamente; que vive entre libros —pero también entre personas—; que cuida de ellos, los mima, los limpia y los restaura, que propicia la ágil circulación del saber. Ser bibliotecario es realizar uno de los más antiguos oficios del mundo, uno que ha sido desempeñado por personajes tan famosos como los hermanos Grimm, como los papas Nicolas V y Pío XI, por Benjamín Franklin y Mao Tse Tung, por Golda Meir y Giacomo Casanova, por Goethe y por Lewis Carroll, por Rubén Darío, y también por León Felipe, Jorge Luís Borges, Mario Vargas Llosa y Stephen King, pero también, y quizás más importante, por miles de personas anónimas que no conocemos y cuyos nombres no quedaron registrados en los anales de la historia, pero que sin lugar a dudas dejaron huellas profundas en la formación y educación de millones de personas al recomendar el libro preciso, en el momento preciso, por rastrear un libro perdido, por recuperar uno que amenazaba ruina, por ubicar el tomo perdido entre las estanterías para que el usuario pudiera leerlo, ansiosamente y con deleite, y que además. Al momento del contacto humano, entregan no solo el libro sino una sonrisa. Elogio a todos los bibliotecarios públicos, y también a los de bibliotecas privadas, claro está, a los de grandes colecciones pero también, y en especial, a los de las pequeñas bibliotecas de provincia, en donde se prestan menos de cuatrocientos libros en un semestre, pero que para esos lugares es una cifra considerable; elogio a esos bibliotecarios, hombres y mujeres, que con su oficio logran sustraer a la juventud de otras distracciones que no redundan en nada positivo para la educación de ella y más bien, con su amoroso oficio, inculcan el amor por la lectura. A todos ellos rindo homenaje.

Publicado en Edición Nº227

La cooperación es considerada un elemento clave que separa a los humanos de otras especies animales, pero nuestros primos cercanos, los chimpancés, también pueden trabajar en equipo, según un estudio publicado el lunes.

De hecho, los chimpancés son cinco veces más propensos a cooperar que a rivalizar, y encuentran los medios para desalentar a los haraganes, señala una investigación publicada en Proceedings, de la Academia Nacional de Ciencias estadunidense (PNAS). "Dado que la razón conflicto-cooperación es muy similar en humanos y chimpancés, nuestro estudio muestra sorprendentes similitudes entre las especies y da una nueva visión sobre la evolución humana", señaló Malini Suchak, principal autora del estudio y profesora asistente de comportamiento animal, ecología y conservación en el Colegio Canisius de Buffalo.

Estudios anteriores mostraron que los chimpancés eran poco inclinados a colaborar, pero fueron trabajos desarrollados en laboratorios.

Esta vez los expertos intentaron recrear el hábitat natural de estos animales, al poner a 11 chimpancés en una zona con vegetación y cerca de un aparato con cuerdas que podían utilizar para obtener recompensas.

Pero para obtener estas gratificaciones, los chimpancés debían trabajar en grupos de dos o tres, aunque podían escoger a sus compañeros de equipo.

Pese a que empezaron a competir unos contra otros, comprendieron rápidamente que sería mejor cooperar y durante 94 horas de pruebas los investigadores constataron 3 mil 656 actos de cooperación.

En contraste, también mostraron 600 interacciones de rivalidad, cuando algunos chimpancés robaron o intentaron robar las recompensas sin haber ayudado a obtenerlas, empujaron a otros o comenzaron a pelear.

Algunos enfrentaron estas formas de competencia al "protestar directamente ante otros" o negarse a trabajar en presencia de un compañero perezoso, estrategia conocida como "evasión", que también usan los humanos, señaló el estudio.

En otras ocasiones, los chimpancés dominantes intervinieron para detener a los ladrones, lo que los científicos denominan castigo infligido por un tercero, comportamiento también humano. "Les dejamos la libertad de utilizar su propia estrategia con la finalidad de hacer respetar el orden, y resulta que ellos son muy buenos para evitar la competencia y favorecer la cooperación", subrayó Suchak.

Los resultados de la investigación deberían conducir a la comunidad científica a reconsiderar hasta qué punto la cooperación es un modo de supervivencia en el mundo animal, estimó Frans de Waal, coautor del estudio, experto en primates y profesor de sicología en la Universidad de Emory.

"Se ha vuelto común en la literatura la afirmación de que la cooperación humana es única. Esto es bastante curioso porque las mejores ideas que tenemos de la evolución de la cooperación vienen directamente de los estudios en animales", observó De Waal.

"El mundo natural está lleno de cooperación, desde las hormigas hasta las ballenas asesinas. Nuestro estudio es el primero en mostrar que nuestros parientes más cercanos saben muy bien cómo desalentar la competencia y la pereza. ¡La cooperación gana!".

Publicado en Ciencia y tecnología
Jueves, 18 Agosto 2016 06:16

“El amor es el mellizo del dolor”

El reconocido psicoanalista argentino radicado en París relata en diálogo con Página/12 su relación con Lacan, de quien fue discípulo y traductor al español. También se explaya sobre la función del psicoanalista y los pacientes. El amor y su dualidad en los hombres y en las mujeres.

 


A los 28 años, el doctor Juan David Nasio (1942) obtuvo una beca de la Embajada de Francia en la Argentina para estudiar en la escuela de Jacques Lacan en París. Había un “pequeño” problema: el joven psiquiatra y psicoanalista y su mujer, que era enfermera, no sabían pronunciar ni siquiera “bonjour”. Pero el doctor Nasio quería tener la oportunidad de su vida y no estaba dispuesto a dejar pasar el tren del futuro. En aquellos tiempos (década del ‘60), la obra de Lacan todavía no estaba traducida al español. Nasio, que estudiaba marxismo para criticar a Melanie Klein, solía frecuentar la esquina de Talcahuano y Tucumán, donde se vendían los libros del agente literario Guillermo Schavelzon. Gracias a un amigo suyo –que sí sabía francés–, le llegó a sus manos un ejemplar de Para leer Marx, de Louis Althusser, quien citaba a un psicoanalista: Jacques Lacan. Y pensó: “Hay un autor marxista que cita a este psicoanalista. Yo, que quiero criticar a Melanie Klein, voy a investigar quién es este señor”. Cuando fue una tarde “al zaguán de Schavelzon”, le preguntó: “¿No hay nada de este Lacan? ¿Cómo hago para comprar sus libros?”. El agente literario le mencionó que había un artículo en la revista Cahiers pour l’Analyse. Así nació su interés y su conocimiento por Lacan. Con los años, Juan David Nasio revisaría nada menos que la traducción de parte de la obra de Lacan al español. Pero eso también tiene su historia.


El 1º de septiembre de 1969 Nasio y su mujer llegaron a París. Durante cuatro meses estudiaron el francés con la rigurosidad que imponía la situación: nueve horas por día. En diciembre de ese año, cuando ya se defendía con el idioma, se animó a pedirle una cita a Lacan y éste se la concedió. Fue el comienzo de una relación que perduraría en el tiempo. Nasio presenció los históricos seminarios, sentado siempre en la primera fila de un recinto donde no cabía ni un alfiler: siempre estaba repleto por una multitud de ochocientos asistentes dispuestos a escuchar a uno de los dos nombres esenciales en la historia del psicoanálisis.


Un día, el propio Lacan se comunicó con Nasio. Le consultó si conocía un libro. “No, pero está escrito: La lectura estructuralista de Freud, en español”, le contestó. Lacan, enfurecido, le comentó que esos eran sus escritos y que los habían traducido mal. “Es innoble, no acepto una cosa así. Estoy muy enojado. Y debe haber muchos errores adentro. ¿Usted puede mirarlos?”, lo desafió. Sin dudar, Nasio le dijo que sí. Al día siguiente, le señaló: “Hay muchos errores por página. El que se encargó de este trabajo es un gran traductor y poeta, pero él creyó que usted es un poeta. No lo ha traducido como un científico ni como un psicoanalista teórico. Hay siete u ocho errores por página”. Lacan le propuso encargarse de corregirlo. El joven psiquiatra y psicoanalista aceptó bajo tres condiciones: “Primero, que si tengo dudas pueda venir a preguntarle y me ayude. Segundo, yo quiero que mi nombre aparezca con el suyo: quiero que si hay correcciones usted dé mi aval. Y tercero: yo tengo una beca, no trabajo y me gustaría saber si es posible que el editor me pague por este trabajo”. Así fue como Juan David Nasio llegó a convertirse en el traductor de la obra de Jacques Lacan al español y, con los años, continúa siendo uno de los más respetados psicoanalistas contemporáneos. “Tuve clases particulares de lujo y, a veces, le llevaba problemas en los textos que no existían para que él me hablara y me explicara. Era una maravilla. Tuve una suerte excepcional”, reconoce en diálogo con Página/12.

–Usted señaló que Lacan tenía sus enojos y suele decirse que era un hombre muy distante. ¿Cómo era con usted en el trato cotidiano?

–Muy cordial, muy correcto. No puedo decir nada malo. Yo lo respetaba mucho. Hubo un momento en que mis colegas me decían: “Andá a analizarte con Lacan”. Y yo no quise.

–¿Por qué?

–Hay que imaginar el ambiente, que era de mucha dependencia de esa figura mayor. Todo el mundo se iba a analizar con Lacan, pero yo ya me había analizado en la Argentina. No necesitaba hacerlo. Pienso que el análisis tiene que nacer porque uno se pregunta cosas sobre sí mismo y porque necesita compartirlas con otro, preguntarle al otro e interrogarse a sí mismo delante del otro. Yo no necesitaba eso. Entonces, no me analicé con él, pero sí hice supervisión. Con Lacan supervisé seis años todos los lunes a las 11 de la mañana. Yo quería esa distancia y él también. Por una cosa que escribí una vez, él llegó a decir que no estaba de acuerdo “con un amigo”. Me sentí muy tocado. Y para él también era muy importante que yo no me dedicara a ser uno más en el gran número de personas que estaban como discípulos. Yo era un discípulo de Lacan, pero no era dependiente ni un fanático suyo.

–Además, ya habían creado una relación distinta de analizante-analizado...

–Exacto. Había una relación. Nos hemos visto en la casa de campo y habremos cenado cuatro veces solos. Es impresionante haber cenado a solas con Lacan, uno al lado del otro con los papeles encima. A mí me elegía la comida, yo no lo hacía. El hacía los pedidos al mozo en francés.

–¿Cuál es, según su visión, la importancia de Lacan en el psicoanálisis moderno?

–Lacan ha sido una revolución de la obra freudiana. Y muchos psicoanalistas argentinos y no argentinos no estarían donde están si no fuera por él. Yo no estaría aquí si no fuera por él, por ejemplo. El ha sido un gran maestro. No fue el único, pero fue un gran maestro. Hay que tener una idea simple y clara del movimiento planetario del psicoanálisis. Primero, estuvo muy fuerte en Viena, y luego fue a Berlín, que llegó a ser una escuela muy importante. Todos los psicoanalistas estaban en Berlín en el 30. Era una maravilla. Además, ahí se analizó Angel Garma con Theodor Reik. Garma pasó por Berlín y cuando fue a París lo convencieron de que fuera a la Argentina porque estaba la guerra en España. El, que ya conocía este país porque había venido con sus padres, viajó nuevamente y fundó el psicoanálisis argentino. Entonces, primero estuvo Viena, luego Berlín. Cuando llegó la guerra, la mayoría de los psicoanalistas eran judíos, tuvieron que escaparse de Berlín y se fueron a Nueva York. En el 40 y pico el psicoanálisis era Estados Unidos. Allí había unas escuelas maravillosas, muy criticadas por Lacan, pero había gente con mucha reflexión. Muchos de los autores se fueron a desarrollar a Estados Unidos en los 50. Luego, se desplazó el movimiento y hubo otra escuela muy importante como Londres, con Melanie Klein. Londres tomó una fuerza muy grande e influenció a los psicoanalistas argentinos porque en ese momento el mundo psicoanalítico argentino era kleiniano. Eran buenísimos teóricos y han hecho mucho para que hoy estemos acá y ustedes me entrevisten.

–Usted nombró distintas ciudades, pero hay dos que fueron determinantes en su vida, como Buenos Aires y París. Se suele decir que son las ciudades psicoanalíticas por excelencia. ¿Coincide?

–A fines de los 70 y comienzos de los 80, París iba a ser el centro del psicoanálisis mundial. Y para esa época comenzó a desarrollarse el psicoanálisis lacaniano en la Argentina. Mencioné Viena, Berlín, Nueva York, Londres, París y Buenos Aires. Y hoy la Argentina y Francia son los dos países donde el desarrollo del psicoanálisis es el más importante.

–¿A qué atribuye ese fenómeno?

–Hay varios factores. Primero que nada, en la Argentina tenemos una cultura muy europea. Cuando empecé a estudiar iba a una librería francesa de Viamonte y Florida, que ahora no existe más. Y empecé a leer a Althusser y Sartre. Es una maravilla la influencia de Sartre en la Argentina. Los argentinos siempre hemos sido muy abiertos. Con Melanie Klein se comían los libros ingleses y luego nos comíamos los libros franceses. Por eso se creó esta importancia. No sólo la intelectualidad sino también el espíritu nacional argentino eran de gran apertura. Y sobre todo la cultura era muy abierta a lo que pasaba en ese momento en Francia y en Inglaterra.

–¿Cree que la función del psicoanalista debe ser la de un interlocutor de la palabra?

–El psicoanalista no es sólo un interlocutor de la palabra sino que es un interlocutor que tiene la emoción del otro. Yo trabajo mucho con la emoción. La palabra es muy importante porque nombra la emoción, pero hemos puesto tanto el acento sobre la palabra que muchas veces dejamos de lado la importancia de la emoción. El psicoanálisis es ante todo una terapéutica. Freud decía que el psicoanálisis es una teoría, un método de investigación y un tratamiento. Para mí son las tres cosas y pongo el acento en el tratamiento.

–Usted escribió El libro del dolor y del amor, que incluye dos palabras que muchas personas las ven como antagónicas. Sin embargo, también es cierto que hay dolor en el amor. ¿Cómo evalúa desde el psicoanálisis esta dualidad?

–Pienso que el amor es el mellizo del dolor. Es como el hermafrodita, que es hombre y mujer. Yo diría que el dolor y el amor van juntos como el hermafrodita. Son dos componentes en una sola unidad.

–¿Por qué?

–Porque el amor es atarse, es una ilusión que nos ata. Y, a partir del momento en que yo me ato porque creo, ocurre que esta unión no puede ser eterna: algún día voy a perder este objeto al que me ato. Lo pierdo porque muere, porque se quiere ir y me deja, lo pierdo porque yo mismo me enfermo. Esta unión siempre está ligada al dolor de perder. El amor es unir y el dolor es el sentimiento de la desunión. A partir del momento en que alguien ama a su perro, a su mujer o a sí mismo, inclusive, necesariamente va a haber momentos en que va a perder: el perro va a enfermarse, su mujer puede irse con otro o morir. Yo me quiero a mí mismo y hay momentos en que puedo estar mal conmigo porque he hecho un acto que no es acorde y del cual me siento culpable. No lo digo yo sino Freud. Dijo que de todas las cosas que nos hacen sufrir la causa más frecuente de sufrimiento es amar, porque a partir del momento en que amo corro el riesgo –y se va a dar– de perder.

–Usted dijo que en el amor los hombres fracasan por miedosos y las mujeres por eternas soñadoras. ¿Por qué cree eso?

–Me lo enseñaron mis pacientes y lo resumí en esa fórmula. Hay tantas mujeres solas porque los hombres somos miedosos. Una paciente me dijo: “Doctor, ¿qué pasa?, ¿dónde están los hombres?”. Y yo le contesté: “Mire, están los homosexuales, los casados, que usted no quiere”. Ella volvió a preguntarme: “¿Y el resto?”. Entonces, le señalé: “Y... el resto somos miedosos. Usted sueña con la unión y el hombre tiene miedo a la unión”. No quiere sentirse prisionero, tiene horror de la prisión. Es un cobarde. En cambio, las mujeres sueñan.

–¿Por qué el hombre es un cobarde?

–Porque nosotros tenemos el pene. La imagen más hermosa es cuando el futbolista se pone en la barrera cuando un contrario va a patear un tiro libre y con las manos se cubre los genitales. Esa es la imagen del hombre. Por el sexo que tenemos, por la psicología del hombre que somos, nos preocupa cuidar la fuerza. A las mujeres no les importa cuidarla. Les interesa la fuerza, pero en el fondo lo que más les interesa es el amor, ser amadas y el hijo. El hombre dice: “Yo quiero ser el jefe, no quiero perder plata, quiero tener el poder, que se me respete, que no se me humille”. Son todas cuestiones masculinas del poder. Ellas quieren ser amadas, que no las abandonen, que las aprecien. Y, además, el día en que a una mujer la quiera un hombre, va a querer ser la única, la exclusiva reina, que no haya más nadie que ella para ser amada. Y esa diferencia viene, a mi entender, del cuerpo y del deseo, porque el deseo femenino está muy ligado al cuerpo de la mujer. Y el deseo masculino está muy ligado al cuerpo del hombre. Nosotros tenemos un pene y penetramos. Y sentimos placer en penetrar. La mujer tiene placer en ser penetrada, con actividad, no hay ninguna pasividad. Es el placer de venir al otro, llamarlo que venga hacia ella y que entre en ella. Son dos mundos diferentes. No puede haber la misma psicología. Es imposible. Estoy totalmente en desacuerdo con la teoría de los géneros que dice que la diferencia entre el hombre y la mujer es una cuestión cultural. No, no es cultural, es una cuestión física ante todo. Y la psicología y el inconsciente vienen con el cuerpo.

–En relación a mundos diferentes, usted trabajó también en el análisis de niños y adolescentes. ¿La labor del analista es más difícil que en el caso de los adultos o es más bien un mito?

–He hecho una especie de escala: el paciente más difícil es la pareja, porque hay que estar muy atento, no hay que tomar partido, los dos tienen que sentir que el psicoanalista es alguien que les hace bien. En segundo lugar, lo más difícil es el adolescente porque no habla. Como digo: no sabe identificar los sentimientos. Ustedes y yo sabemos cuándo sentimos rabia. Yo siento rabia, sé que es rabia y la nombro. El adolescente siente pero no sabe lo que siente. No identifica la sensación ni el sentimiento. Por eso es que no habla. Después de la pareja y el adolescente, el paciente más difícil es el psicótico; luego, el bebé (porque viene con la mamá) y el niño. Justamente con el chico de cuatro, cinco o seis años hay que estar muy atento. Es muy difícil porque uno tiende a jugar con él. Y no hay que jugar. El juego es un pretexto, pero hay que estar total y permanentemente concentrado en lo que el chico ve como sufrimiento o que hace que esté ahí presente que, por supuesto, está ligado a los padres. Y en la escala de las dificultades está en última instancia el adulto.

–¿Cómo explicaría desde el psicoanálisis que ese pasaje llamado adolescencia es uno de los momentos más creativos y, a la vez, de los más dolorosos?


–Así es. También lo digo en un libro que la adolescencia es una de las etapas más dolorosas de la existencia porque estamos perdidos, no sabemos encontrar el lugar, el camino que nos lleva. Estamos tanteando. Y, al mismo tiempo, es muy creadora, porque es una etapa en la que tenemos muchas veces una energía extraordinaria, maravillosa. Es una etapa con mucho dolor, creativa y es también fraternal porque es en la adolescencia donde aprendemos a tener el compañero, la compañera y a descubrir que para ser nosotros hace falta el otro.


–¿Cómo explica la frase de Lacan: “Hay que desangustiar al paciente pero no desculpabilizarlo”?


–Es complicada esa frase. Hay que hacer que el paciente esté lo mejor posible. Hay que desangustiarlo. Ahora, si “no desculpabilizarlo” quiere decir darle la libertad de que lo que hizo está bien, no: si eso es desculpabilizar no hay que hacerlo. Hay que entender primero que la culpa es una angustia. Y hay que recordar que la angustia es un estado, un sentimiento desagradable frente al anuncio, a la amenaza de un peligro. La culpa es una forma de angustia, la amenaza de que haya un peligro de tratarse mal a uno mismo. El peligro es que uno se trate mal y que diga: “Pero, ¡sos una porquería!, ¿Cómo pudiste hacer eso?”. La culpa es una forma de angustia frente a la crítica del superyó contra el yo.

Publicado en Ciencia y tecnología
Martes, 16 Agosto 2016 19:05

Contra las categorías

Toda la educación y la cultura de la civilización occidental no es otra cosa que la pasión por etiquetar el mundo, la realidad y el universo. Por ello mismo no sabe nada de movimiento, cambio, dinámicas.

 

Es un muy acendrado comportamiento. Ya desde que Aristóteles lo estipulara en uno de los varios textos dedicados a la lógica, se convirtió en costumbre y norma pensar con categorías. Incluso alguien como Kant —quien sostenía que desde Aristóteles la lógica no había cambiado nada— piensa en los temas y problemas que le interesan en términos de categorías. Sólo que las suyas son distintas.


Pensar en términos de categorías significa, literalmente, etiquetar el mundo, la realidad, a los otros. Existen muchas maneras de comprender a las categorías, tales como esquemas, tipos, o clases.


El conflicto para ver y comprender el mundo puede ser explicado en términos bastante elementales. Se trata de establecer si vemos lo que conocemos, o bien si conocemos lo que vemos. La inmensa mayoría de los seres humanos sólo ve lo que ya conoce. Esto es, reduce lo nuevo que ve a esquemas, conceptos, imágenes y modelos explicativos ya establecidos y experienciados. Son muy pocos, porque es verdaderamente difícil, aquellos que se dan a la tarea de conocer aquello que ven.


Existe una sutil distinción en inglés, que no aparece como tal en español. Se trata de las distinciones entre tres tipos de categorizaciones: tagging, pigeon–holing, y categorizing. Los tres significan, literalmente, etiquetar. Esto es, comprender y explicar el mundo y la realidad en esquemas, compartimientos, clasificaciones. Que es precisamente aquello en lo que consistía la filosofía aristotélica: un sistema de pensamiento de clasificaciones. Ulteriormente, claro, de jerarquías.


Si la antropología enseña que cada cultura se comprende así misma como el centro del universo, por derivación, cada cultura define al resto del mundo a partir de sus propios esquemas de pensamiento. Al fin y al cabo, el concepto mismo de cultura es conservador, en toda la línea de la palabra. Abogar por la importancia de las culturas es una manera, digamos, de ser un conservador progresista. En el siglo XVI había un mote para esto: el despotismo ilustrado.


El pensamiento que se funda en, y que trabaja con, categorías es tradicionalmente pasivo con los criterios de autoridad. Al fin y al cabo, siempre existe alguna autoridad que determina qué son y qué no son, qué pueden ser y qué no, las cosas. A pesar de que Aristóteles mismo argumentara en contra de los argumentos ad hominem y ad auctoritatem. Que no son los argumentos que se fundan en una autoridad, sino, más exactamente, aquellos argumentos con los que la autoridad está de acuerdo.


Y autoridades existen muchas y en todos los órdenes. Precisamente por ello es extremadamente difícil pensar contra las categorías. Todo ha terminado por convertirse en un atavismo. Al fin y al cabo el sentido común cree y trabaja con etiquetas, esquemas, tipos y clases de todo orden.
Stuart Kauffman es un biólogo con un enorme prestigio entre la comunidad científica. E incluso entre la parte más inteligente de la comunidad empresarial. Al fin y al cabo, el prestigio es algo radicalmente diferente a la autoridad. La buena ciencia no trabaja, en absoluto, con principios o criterios de autoridad. Por eso la buena ciencia es escasa y difícil.


Pues bien, Kauffman acaba de publicar su más reciente libro: Humanity in a Creative Universe (Oxford, 2016). Se trata de uno de esos muy raros libros que abordan el entronque entre ciencia y civilización. Pero no es este aquí el foco de interés.


Becario de la muy prestigiosa Becas MacArthur (“Genius Fellowships”), autor de artículos y libros de enorme impacto en varios órdenes, y con varios premios y reconocimientos, Kauffman —un hombre que ya comienza a hacerse algo grande (tiene a la fecha 76 años)— cobra la fuerza y la lucidez para plantear la necesidad de reconocer que la historia de la que provenimos merece una segunda mirada. En consecuencia, no hay que agachar enteramente la cabeza ante gente como Descartes, Kepler, Galileo, Newton, Laplace, Einstein, Bohr y Schrödinger, de un lado, o Darwin, Adam–Smith o Locke, de otra parte, por ejemplo. Todos ellos tienen el defecto de habernos enseñado a pensar con categorías. Y las cosas no resultan ni ha resultado afortunadas en varios dominios, desde entonces.


Extrapolemos. Quien de verdad piensa, piensa sin categorías, algo que va en contra de la mejor tradición de la civilización occidental. Por el contrario, quienes piensan, abierta o tácitamente en función de tal o cual categoría, propiamente no piensan, y solo siguen, sin saberlo, creencias y doctrinas. Al fin y al cabo la obediencia siempre ha resultado más cómoda, y el ejercicio de la autonomía del pensamiento ha conllevado confrontaciones y riesgo.


Cabe hacer una consideración que arroje una luz indirecta al respecto. En la Grecia antigua existían dos términos para designar el pensar. De un lado, en la Grecia arcaica, se trataba del nous (cuya verbo era el noein, y el correlato objetual era el noema). Posteriormente, con la llegada del período Clásico de la Grecia antigua, el pensar se asimila al conocer, y ambos se designan indistintamente como logos (cuyo verbo es el legein). Cabe adecuadamente traducir al primero como intuición, y al segundo como conocimiento racional basado en la palabra. La historia subsiguiente es el desplazamiento del nous por el logos, gracias a esa historia que se deriva de Platón y de Aristóteles. El resto es historia conocida.


La libertad de pensamiento y la libertad del espíritu pasa, y en muy buena medida se funda, en la capacidad de libertad con respecto a esos atavismos de las categorías. Toda la educación y la cultura de la civilización occidental no es otra cosa que la pasión por etiquetar el mundo, la realidad y el universo. Por ello mismo no sabe nada de movimiento, cambio, dinámicas.


Kauffman hace una invitación sensata y bien argumentada a pensar lejos, muy lejos, de esa tradición de categorías, etiquetas y clasificaciones. Pero lo hace (¿se atreve?) cuando, al parecer, ya ha cruzado el mediodía y la tarde se acerca. Que es cuando la mayoría de científicos se atreven (¿logran?) a plantear desafíos. En este caso, desafíos civilizatorios.


Entonces vale recordar ese texto humorístico y brillante de Borges, y que Foucault repite al comienzo de Las palabras y las cosas: las mil y una formas de clasificar a la realidad. En ese libro maravilloso que es El libro de los animales fantásticos. Pensar contra la familiaridad de las cosas.

Publicado en Ciencia y tecnología
Martes, 16 Agosto 2016 07:45

Agroecología y revolución

 

Comer o no comer es la cuestión. Comer sano para vivir o comer para morirse. Dime qué comes y te diré quién eres. A lo largo de la historia las grandes hambrunas han provocado rebeliones y revoluciones, masacres y migraciones. El estómago exige comer, y los individuos y las sociedades deben responder a esa exigencia. Aun las grandes reflexiones filosóficas o las virtuosas creaciones abstractas dependen del estómago. En su genial obra El vientre de los filósofos, Michel Onfray mostró la relación ineludible entre el pensamiento filosófico y la comida: Rousseau y los lácteos, Nietzche y las salchichas, Sartre y los crustáceos, Marinetti y la carne de puerco.

 

Hoy seguimos viviendo una batalla culinaria. El choque de civilizaciones es también un choque de gastronomías. Las cocinas tradicionales, producto de un proceso de miles de años de experimentación agrícola y de manejo y preparación de los alimentos y sus combinaciones, deben enfrentar a la comida moderna que buscan imponer las gigantescas corporaciones y sus cadenas de producción, distribución y mercadeo. Cada semana nos lo recuerdan en esta páginas Cristina Barros y Marco Buenrostro en su columna Itacate.


Hoy, la modernidad dominada por el capital corporativo no sólo manda a la tumba a un millón de ciudadanos cada año a través del automóvil (datos de la Organización Mundial de la Salud), sino que enferma y envía al cementerio a decenas de millones mediante la comida convertida en alimentos industrializados, procesados, transportados a largas distancias y preservados mediante artificios químicos o genéticos, cuyos efectos apenas se conocen. Ser moderno es comprar en los supermercados mercancías alimentarias o vegetales y carnes provenientes de enormes factorías donde la vida de plantas y animales son manipulados mediante agroquímicos, hormonas y trucos genómicos (las fábricas masivas de alimentos reproducen los campos de concentración); también es saciar la sed tomando bebidas azucaradas, refrescos, jugos artificiales, líquidos estimulantes, incluyendo las alcohólicas. No serlo es adquirir los alimentos en mercados o tianguis tradicionales, de pequeños productores, confeccionados artesanalmente y traídos de los alrededores o de distancias cercanas.


Los estómagos y aun los paladares de la mayoría de los habitantes del mundo dependen de estas dos opciones contrapuestas. El movimiento agroecológico mundial ofrece hoy una tercera alternativa que parte de los sistemas alimentarios tradicionales y que exige sistemas de producción ecológicamente sanos de alimentos sanos, que no enfermen al planeta ni al ser humano, autosuficiencias locales y regionales, comercio justo y consumo ético y responsable.
Buena parte de los preceptos anteriores fueron discutidos por unos 800 participantes en el segundo Encuentro internacional sobre agroecología y economía campesina, que tuvo lugar hace unos días en la Universidad Autónoma Chapingo para celebrar los 25 años de su departamento de agroecología.


La actividad reunió a investigadores, profesores, estudiantes, organizaciones campesinas, periodistas, movimientos agrarios y ambientalistas. Asistieron además invitados especiales de Brasil, Guatemala, Venezuela, Haití, Colombia e India. La reunión culmina en cierta forma un proceso de más de dos décadas en que la agricultura orgánica en México pasó de 22 mil hectáreas en 1996 a más de 500 mil en 2012, el número de tianguis de alimentos sanos a casi 60 y las cooperativas agroecológicas, mayoritariamente indígenas, se multiplicaron por decenas, especialmente en el centro y sur del país.


El encuentro también lo enmarcaron los impactos desastrosos del sistema alimentario industrial que dejan a México en una situación de emergencia sanitaria con severos problemas de obesidad y sobrepeso, diabetes, enfermedades cardiovasculares y cánceres, y sin una política pública alimentaria. Como han señalado El Poder del Consumidor y otras organizaciones civiles, los gobiernos neoliberales se niegan a implementar una política que regule de manera rigurosa los alimentos que se ofrecen. Buena parte de los alimentos que se venden masivamente contienen venenos, sustancias peligrosas y hasta cancerígenas, como los colorantes y saborizantes artificiales, sin que quienes lo consumen dispongan de información para tomar decisiones. El etiquetado es tramposo o ilegible (usted requiere de una lupa para leerlo). No hay prácticamente en la oferta moderna de alimentos una gelatina, cereal, yogur, helado, bebida azucarada, golosina que no sea potencialmente dañino. Para colmo, sigue la amenaza aún vigente de la entrada de maíz y soya transgénicos. A la desnutrición de algunos se ha sumado la malnutrición de muchos.


Hoy la toma de conciencia social, ambiental y política, debe ser también una toma de posición alimentaria. En un mundo enfermo y que se enferma con lo que se come o se deja de comer se torna decisivo. La cruenta lucha por la vida es una batalla por alimentos sanos generados en cadenas sanas (producción, transporte y transformación) y bajo el paradigma agroecológico. El cambio viene por el estómago.

 

 

Publicado en Sociedad



La Universidad es una conquista social de singular importancia para la democratización del saber y su relación con la transformación social. Sin embargo, no es osado señalar que en el presente, presta un limitado aporte a los cambios sociales en su conjunto y mucho menos a los proyectos emancipatorios en América Latina y el Caribe. Más allá de destacadas, honorables y admirables figuras que trabajan desde sus espacios, la universidad comienza a ser percibida socialmente como una institución de titulación para acceder al campo laboral, distante del imaginario que había construido décadas atrás de espacio para soñar y pensar lo social, lo humano y el contrapoder.


Este no es un fenómeno atribuible sólo a las instituciones universitarias. En muchos lugares de la región, los Estados nacionales y sus instituciones parecieran mirar en sentido opuesto al horizonte que están dibujando sus pueblos. Este desencuentro es dramático y puede traer en el mediano plazo severos problemas de gobernabilidad en la región. Las dinámicas del pasado, los discursos de ayer, las respuestas que fueron efectivas cada día tienen mayores dificultades para empalmar con la agenda mínima ciudadana del presente. Es hora de pensar políticamente (con P mayúscula) sobre estos fenómenos, desde una perspectiva descolonial.


Y es que el proceso de colonización logró apropiarse del firmamento de espacios ciudadanos ocupando hasta las rutas de emancipación. La colonización cultural –la peor de todas porque domina las ideas y con ellas el mundo- pretendió y en muchos casos lo lograron, enseñarnos cómo es que era permitido y posible ser libres; es decir, han pretendido enseñarnos los límites y fronteras de la propia libertad. Lo académico no fue ajeno a ello, por el contrario fue y es aún hoy en día, epicentro de ese sostenimiento del orden colonial en las estructuras de pensamiento.


Cuando el esclavo libre, ahora colonizado –neo esclavitud- se atreve a pensar por sí mismo, atreviéndose a explorar, conocer, indagar, construir nuevos caminos para concretar su libertad, suele encontrarse en el peor de los mundos. Por un lado la más feroz rabia del colonizador y por el otro la burla/temor/incredulidad de los iguales, quienes colonizados culturalmente, quieren que otro les muestre como cambiar los cosas, pero no creen posible ser protagonistas del cambio, es decir de la nueva historia.


La universidad latinoamericana debe construir una nueva historia, que le permita romper con el velo cultural del colonizado atreviéndose colectivamente a repensarse en todos los planos, desde la forma de crearse y actuar en ella misma, pero también atreviéndose a cuestionar sus orígenes y pensar una nueva forma de parir y nacer. Revisar sus prácticas y procesos desde ese ejerció descolonizador, puede contribuir con el surgimiento de ese otro mundo no colonizado, alterno, donde pensar el mundo patas arriba sea sinónimo de cordura libertaria.


Al respeto Quijano, A. (2014) afirma que “al formular sus cuestiones en un espacio social abstracto, históricamente indeterminado, quienes así proceden no pueden evitar identificar a piori a esta cultura (o a esta sociedad y a este Estado) con la cultura (o la sociedad o el Estado). El contexto histórico social concreto se asume, pues, como dado, no cómo algo a cuestionar en el punto mismo de partida” (p.667).


Desde ese lugar de enunciación, me atrevo a plantear respecto a las universidades que los problemas que se evidencian y nos hacen siempre pedirle una y otra vez a ella: transformación ... transformación ... transformación universitaria tienen como punto de partida una falla de origen. Esta falla de origen, desde mi punto de vista, tiene que ver con el código genético con el cual se edifica la vida y el que hacer universitario. Falla de origen que se inicia en el propio momento de la fundación de las universidades. Falla de origen que se expresa en su concepción práctica, más allá de la definiciones teoréticas, al auto asumirse y ser aceptada por la mayoría de la gente, como una institución fundamentalmente para la docencia. El gen problemático de la estructura de vida universitaria se desarrolla por una perspectiva colonial de su existencia.


De hecho, las universidades en América Latina y el Caribe tienen sus orígenes en procesos coloniales, asignándosele desde sus comienzos la tarea de formar a la burocracia y los funcionarios que demandaba el orden imperial de dominación. Para Tünnermann (1996) la universidad colonial en América Latina y el Caribe procura resolver:

 

a) La necesidad de proveer localmente de instrucción a los novicios de las órdenes religiosas que acompañaron al conquistador español, a fin de satisfacer la creciente demanda de personal eclesiástico creada por la ampliación de las tareas de evangelización;


b) La conveniencia de proporcionar oportunidades de educación, más o menos similares a las que se ofrecían en la metrópoli, a los hijos de los peninsulares y criollos, a fin de vincularlos culturalmente al imperio y, a la vez, preparar el personal necesario para llenar los puestos secundarios de la burocracia colonial, civil y eclesiástica. Por otro lado, las dificultades de las comunicaciones, arriesgadas y costosas, aconsejaban impartir esa instrucción en las mismas colonias;

 

c) La presencia, en los primeros años del periodo colonial, en los colegios y seminarios del Nuevo Mundo, de religiosos formados en las aulas de las universidades españolas, principalmente Salamanca, deseosos de elevar el nivel de los estudios y de obtener autorización para conferir grados mayores. De ahí que las gestiones para conseguir los privilegios universitarios fueron con frecuencia iniciadas por estos religiosos de alta preparación académica (p.122)


Es decir, las Universidades en la región no fueron pensadas para el desarrollo de las naciones dominadas, ni para la formación de sus ciudadanos, mucho menos para el desarrollo de un conocimiento, ciencia y tecnología que les permitiera ser independientes. Las universidades en América Latina y el Caribe fueron arietes conceptuales de un conocimiento que reproducía el orden de dominación. No fueron universidades desarrolladas a partir de las necesidades de la gente y los requerimientos de sus sociedades, sino implantadas desde las naciones que se asumían conquistadoras y por lo tanto dueñas de los nuevos territorios.


El propio Tünnermann (1996) distingue dos modelos en las universidades implantadas: la de Salamanca y la de Alcalá de Henares, ambas de origen español. El modelo de Salamanca respondió a “la idea de una universidad al servicio de un “estado-nación”, concepto que recién surgía en España (siglo XIV)... Todo el edificio de la transmisión del conocimiento descansaba sobre la cátedra” (pp-124-125). Por su parte, la preocupación central de la universidad alcalaína fue la teología, material que sólo en épocas posteriores ocupó un lugar relevante entre los estudios salamantinos. Su organización correspondió más bien a la de un convento-universidad” (pp-124-125). Los modelos de Salamanca y Alcalá se desarrollaron sobre la base de la docencia, es decir como instituciones para impartir conocimiento.


Para Morles, Medina Rubio y Álvarez Bedoya (2002) en el proceso de construcción de la República, luego de alcanzar independencia nacional, la llamada universidad Republicana reemplazaría el modelo elitesco y eclesiástico imperante por uno más “dinámico, tolerante y científico (...) incorporando nuevas cátedras y laboratorios” (p.20), haciendo que las estructuras académicas se asemejarán bastante al modelo Napoleónico. Continúan estos autores señalando que “con el modelo napoleónico de universidad se afirma en Venezuela, desde el último cuarto del siglo XIX, el pensamiento positivista y evolucionista. El modelo napoleónico se basa también en la docencia, con un carácter más científico contribuyendo a la ruptura con el dogmatismo religioso.

 

Autores Galo Gómez, citado por D’Andrea, R. E, Zubiría, A y Sastre Vázquez, (2012) precisan respecto a la concepción Napoleónica de la universidad:


La Universidad Imperial creada en 1808 y organizada dos años más tarde, es algo muy distinto de lo que tradicionalmente se había entendido como Universidad. Es un organismo estatal, al servicio del Estado que la financia y organiza y que fija no sólo sus planes de estudios, su administración y el nombramiento de profesores, sino hasta la moral pública que ha de inculcar a sus discípulos: "Mi fin principal - declara el mismo Napoleón- al establecer un cuerpo docente es tener un medio de dirigir las opiniones políticas y morales". Una Universidad centralizada, burocrática y jerárquica. Es difícil encontrar algo más opuesto a lo que había sido la Universidad desde su origen" (Galo Gómez O., 1976, p.7)

 

Esta implantación no pasa desapercibida por parte de quienes se resisten a la dominación. Propuestas y modelos alternativos comienzan a surgir en todo el continente en el siglo XX, los cuales tienen una expresión clara y firme en El Manifiesto Liminar (1918) que fundamentó la reforma de Córdoba, en el cual se plantea:


Las universidades han llegado a ser así el fiel reflejo de estas sociedades decadentes que se empeñan en ofrecer el triste espectáculo de una inmovilidad senil. Por eso es que la Ciencia, frente a estas casas mudas y cerradas, pasa silenciosa o entra mutilada y grotesca al servicio burocrático. Cuando en un rapto fugaz abre sus puertas a los altos espíritus es para arrepentirse luego y hacerles imposible la vida en su recinto. Por eso es que, dentro de semejante régimen, las fuerzas naturales llevan a mediocrizar la enseñanza, y el ensanchamiento vital de los organismos universitarios no es el fruto del desarrollo orgánico, sino el aliento de la periodicidad revolucionaria.


Agregando:


Nuestro régimen universitario -aún el más reciente- es anacrónico. Está fundado sobre una especie del derecho divino: el derecho divino del profesorado universitario. Se crea a sí mismo. En él nace y en él muere. Mantiene un alejamiento olímpico. La Federación Universitaria de Córdoba se alza para luchar contra este régimen y entiende que en ello le va la vida. Reclama un gobierno estrictamente democrático y sostiene que el demos universitario, la soberanía, el derecho a darse el gobierno propio radica principalmente en los estudiantes. El concepto de Autoridad que corresponde y acompaña a un director o a un maestro en un hogar de estudiantes universitarios, no solo puede apoyarse en la fuerza de disciplinas extrañas a la substancia misma de los estudios. La autoridad en un hogar de estudiantes, no se ejercita mandando, sino sugiriendo y amando: Enseñando. Si no existe una vinculación espiritual entre el que enseña y el que aprende, toda enseñanza es hostil y de consiguiente infecunda. Toda la educación es una larga obra de amor a los que aprenden. Fundar la garantía de una paz fecunda en el artículo conminatorio de un reglamento o de un estatuto es, en todo caso, amparar un régimen cuartelario, pero no a una labor de Ciencia. Mantener la actual relación de gobernantes a gobernados es agitar el fermento de futuros trastornos. Las almas de los jóvenes deben ser movidas por fuerzas espirituales. Los gastados resortes de la autoridad que emana de la fuerza no se avienen con lo que reclama el sentimiento y el concepto moderno de las universidades. El chasquido del látigo sólo puede rubricar el silencio de los inconscientes o de los cobardes. La única actitud silenciosa, que cabe en un instituto de Ciencia es la del que escucha una verdad o la del que experimenta para crearla o comprobarla.

Por eso queremos arrancar de raíz en el organismo universitario el arcaico y bárbaro concepto de Autoridad que en estas Casas es un baluarte de absurda tiranía y sólo sirve para proteger criminalmente la falsa-dignidad y la falsa-competencia.

 

El grito de Córdoba es el más importante cuestionamiento hecho a la universidad desde la perspectiva de sus estudiantes. Los reclamos centrales se refieren a la forma y mecanismos de gobierno interno y de una u otra manera a la desconexión de la universidad con su entorno. En buena medida, el Manifiesto Liminar impulsa un modelo de universidad para un nuevo ciclo de proyectos de independencia nacional.


En el siglo XX la idea de investigación universitaria se fue deslizando progresivamente hacia los posgrados. Para Lucas Luchilo (2010), “en América Latina, el fomento de la formación de posgrado fue y es una de las funciones básicas asignadas a los Consejos de Ciencia y Tecnología, que se crearon a partir de la década de 1950. Desde esta perspectiva, se trata de instrumentos de política con alta legitimidad y en los que los países de la región han acumulado experiencia, tanto en el nivel de promoción como en el de ejecución” (p.14). Este auge se produce en medio del creciente influencia de las ideas de desarrollo nacional y regional, así como de la planificación auspiciadas, entre otras por la Comisión Económica para América Latina y el Caribe (CEPAL). Sus resultados en términos de crecimiento sectorial (posgrados) y de impacto se mostraron limitados. Posteriormente el neoliberalismo, en los ochenta y noventa del siglo XX, se encargaría de generar un proceso de vaciamiento de la investigación y los investigadores universitarios promoviendo su migración hacia centros independientes de investigación con fuerte financiamiento privado y ubicados en los países del centro capitalista.

 

El Mayo francés con sus críticas iniciales al Libro Blanco del Ministro Francés de Juventud y deporte François Missoffe, abren un capítulo especial que lleva a la juventud mundial a repensar el compromiso de la universidad con los más altos ideales de la humanidad. Pero la universidad siguió siendo una institución centrada en la docencia. Los movimientos de profesores universitarios planteando la urgente necesidad de una reforma de la educación superior se multiplicaron en el mundo en las décadas de los setenta y los ochenta del siglo XX.

 

Es importante detenernos brevemente sobre los resultados alcanzados en materia de investigación en la región. Lemasson&Chiapee (1999) señalan respecto a la investigación universitaria que “los resultados obtenidos no permiten hoy, con los desafíos contemporáneos que conocemos, concluir que están listos para enfrentar el porvenir de manera constructiva. Si el camino pasado, aunque con muchas diferencias nacionales, fue positivo, la necesidad de continuar con el cambio es imperativa y va a exigir una visión y una voluntad resueltas” (p.315). Más adelante, estos mismos autores afirman:


“Es fácil concluir que la única vía para asegurar la independencia a largo plazo, el desarrollo económico endógeno en nuevas esferas con un alto valor agregado y sistemas sociales más justos, es promover con urgencia las actividades de ciencia y tecnología como prioridades nacionales. Responder a esta urgencia significa que el momento de decisiones radicales ha llegado, particularmente respecto del papel de las universidades, las que constituyen en términos de recursos humanos actuales y futuros las instituciones claves del porvenir colectivo” (p.317).

 

Autores como Didriksson (2000) siguen apostando por el binomio clásico docencia-investigación. Seguramente Axel argumentará en defensa de esta direccionalidad –que no es una cuestión menor- que “la parte más dinámica del proceso [producción y transferencia de conocimientos ] se ubica en la relación entre la docencia y la investigación, y el curriculum desde la perspectiva de la creación de un valor económico: el conocimiento, y de un valor social: los trabajadores del conocimiento“ (pp. 32-33). En consecuencia, la universidad latinoamericana sigue pensándose desde la docencia como epicentro sobre el cual gravita el grueso de su actividad general, pero también particular de cada profesor(a). Es el círculo propio de una universidad pensada para aportar al papel asignado por el centro a la periferia, en el campo de la producción y transferencia de conocimientos. En este sentido, la llamada producción del conocimiento universitaria, no es otra cosa que la adaptación de premisas generales al contexto de países dependientes y neocoloniales.

 

El emerger del neoliberalismo en el mundo, en el marco de la globalización económica y la mundialización cultural, retan el pensamiento respecto a qué modelo de universidad demandan las nuevas formas de acumulación y producción capitalista puestas en marcha. Desde los discursos de resistencia y alternativos se concentraron fuerzas contra la privatización de la educación y fue precario el debate a nivel del público en general. Las polémicas respecto al presente y futuro de las universidades, sin neutralidad pero mucho más allá de la diatriba ideológica, fueron impulsadas en buena medida por instancias internacionales como la CRESALC, hoy convertido en IESALC UNESCO.

 

En los noventa del siglo XX la UNESCO plantea la necesidad de convocar a una Conferencia Mundial sobre la Educación Superior que repensara la universidad a escala planetaria, pero también como un espacio de reencuentro con la academia de la recién desmantelada URSS. Los documentos que circularon con carácter previo y las propias conclusiones de la I Conferencia señalaron preocupaciones muy especiales respecto a la eficacia de la universidad existente, la calidad de sus dinámicas y procesos de aprendizajes, el impacto de las NTIC y la cultura global en las dinámicas universitarias. Esta conferencia, al igual que la segunda (2008) fueron precedidas por sendas Conferencias Regionales (CRES). En cada uno de estos espacios se evidenció la urgencia de repensar a la propia universidad y los límites de los procesos de reforma interna.

 

El año 2018 se cumplen 20 años de la primera Conferencia Mundial de educación Superior y coincide con los cien años del grito de Córdoba. Pensamos que es un excelente momento para reanimar, retomar y reimpulsar el debate sobre la educación universitaria. En esta dirección recibimos con alegría el anuncio hecho este 15 de Junio de 2016, en la propia ciudad y universidad de Córdoba, respecto al lanzamiento de la Tercera Conferencia regional de educación Superior (CRES) en la ruta –aún no anunciada por UNESCO- de la III Conferencia Mundial del sector. En hora buena celebramos este anuncio como oportunidad de oro para reabrir y relanzar los debates por esa otra universidad posible.

 

La Universidad para los proyectos de desarrollo nacional, de independencia y para la construcción de sociedades libres, democráticas, justas, igualitarias y, en permanente cambio tiene que ser una universidad pensada desde una perspectiva del Sur. Boaventura de Sousa Santos (2008) nos habla de pensar lo nuevo con lo nuevo, porque

 

“no puede enfrentarse lo nuevo contraponiendo lo que existía antes. En primer lugar, porque los cambios son irreversibles y en segundo lugar, porque lo que existió antes no fue una edad de oro, o si lo fue, lo fue solamente para la universidad y no para el resto de la sociedad, y en el seno de la propia universidad, lo fue solamente para algunos y no para otros. La resistencia debe involucrar la promoción de alternativas de investigación, de formación, de extensión y de organización que apunten hacia la democratización del bien público universitario, es decir, para la contribución específica de la universidad en la definición y solución colectiva de los problemas sociales, nacionales y globales” (p.30)

 

Para Aboites. H. (2011) “este cambio requiere una transformación de la mentalidad universitaria, las estructuras de gobierno, los mecanismos de acceso, la reglamentación y la organización académica, que deben ajustarse a las nuevas demandas y necesidades de acceso, formación y profesionalización que tiene la actual población joven y estructuralmente excluida, pero también a las necesidades de un momento de tránsito al posneoliberalismo como es el actual”. (p.273, en Bonilla, L y Segrera, F. [2011]. Educación universitaria para el siglo XXI. Ediciones CIM/OPSU, Caracas. Venezuela)

 

En la perspectiva que invitan Boaventura y Aboites, nos atrevemos a pensar la universidad del siglo XXI, el presente y el futuro inmediato, en tres momentos: el primero las universidades que se están creando o se van a crear, segundo las universidades que inician procesos de transformación y tercero, las universidades que permanecen inamovibles. En este artículo me referiré sólo a las primeras, esperando poder abordar los otros dos casos en próximos trabajos.

 

Estoy convencido que crear universidades sobre la lógica estructurante de la docencia con complementos de investigación y extensión –independientemente que se digan vinculadas- es un ejercicio colonial, que reproduce el modelo de conocimiento, formación, indagación y acción en lo social, propio, desde y para la dominación. Trataremos pedagógicamente de ir explicando paso por paso esta afirmación.

 

La universidad fundada en cátedras, escuelas, facultades está pensada en buena medida para reproducir el llamado “conocimiento de punta” en las distintas áreas. En esa orientación, por ejemplo, en la sociología, la medicina o la química surgen textos, contenidos curriculares, paradigmas, discursos, resultados que pasan a ser de uso común en los países de la periferia capitalista. A estos se les suele asociar al llamado “conocimiento de punta”; cuando lo cierto es que estas producciones son sólo el “conocimiento liberado para consumo académico masivo” por parte del modo de producción . Desarrollos de ello, lo constituye el tan cotidiano internet de hoy, que pasó décadas siendo utilizado por el llamado complejo industrial-militar antes de que fuera conocido por todos nosotros; evidentemente la tecnología comunicacional “de punta” que debe estar usando ese mismo complejo hoy en día debe ser revolucionariamente distinta a la que usamos cotidianamente. Muchos otros ejemplos surgen en el campo de la genética, la medicina o la neurociencia. De hecho, la mayoría de las investigaciones más importantes realizadas en el 2015 –como en años anteriores- se refieren al cerebro humano, sus usos y potencialidades las cuales aún no forman parte de ese “conocimiento liberado para consumo académico masivo”. Entonces lo que se enseña en el modelo basado en la docencia es solo el cascarón del conocimiento de vanguardia.

 

Argumentaran los defensores de este modelo que la investigación autóctona esta llamada a reducir esta brecha. Esto tal vez sea cierto en términos teórico-conceptuales pero la realidad o la empírea nos dice a diario que la inmensa mayoría de la investigación que se realiza en las universidades está asociada a trabajos de ascenso en el escalafón universitario o de interés muy particular. Con ello no pretende solapar o desconocer la meritoria labor que realizan algunos investigadores en casi todos los campos de las ciencias, pero a decir verdad esta es por lo general una labor muy particular y excepcional y no característica del sistema.

 

Los neoliberales usan esta verdad y realidad para asignarle la mayor cuota de responsabilidad al respecto, al personal docente universitario, eximiendo de culpas al sistema, los gobiernos nacionales, los mecanismos de conducción de la educación superior y mucho más a la propia concepción universitaria. El neoliberalismo educativo, interesado en la privatización educativa a inventado ranking, modelos de evaluación de eficiencia docente, sistemas de clasificación de la investigación, protocolos de reconocimiento de resultados de pesquisas, etc. que sólo terminan certificando los procesos de adaptación del conocimiento liberado por los centros de investigación que sustentan el modelo de producción del capitalismo del siglo XXI.

 

Pero lo que ya resulta inocultable, es que la universidad basada en la docencia con sus complementos de “investigación” y “extensión”, no le resultan útil ni al capitalismo, ni al socialismo en el siglo XXI -desde una perspectiva “neutra” de carácter nacionalista- pero si al modelo de globalización económica y mundialización cultural que impulsa a escala planetaria el neoliberalismo que implica una nueva ruina de las naciones de la periferia en beneficio de las del centro. Es decir, el modelo de universidad, basada en la docencia se ha convertido en un mecanismo de perpetuación de la dominación.

 

No es la primera vez que este debate se abre y las propuestas de solución han sido variadas, desde cacarear una reforma universitaria que se elabore por todos democráticamente –lo cual no ha sido garantía alguna de romper el círculo de la dominación- pasando por modelos organizacionales que terminan queriendo convertir a las universidades en Ministerios, altamente burocratizadas antes que en centros de generación de conocimiento. Pero nadie se atreve a cuestionar los paradigmas, conceptos y procesos sobre los cuales se crean nuevas universidades; por el contrario todos los dispositivos legales y de trámites están montados para repetir una y otra vez el modelo. Área de conocimiento de la nueva universidad a crear, facultades, carreras, programas de formación, cátedras y/o unidades curriculares con variados diseños funcionales terminan pareciéndose cada vez más las unas a las otras.

 

Esto se debe a que la genética epistémica de uno u otro intento tiene una misma raíz: la universidad basada en la docencia. Más allá de cualquier meta discurso innovador, en la mayoría de los casos cualquier iniciativa fenece cuando se concreta en carga de docencia en el aula, de actividades administrativas, de planeación de clases, de asesoría de tesis, etc. del profesor universitario; allí mueren las ilusiones.

 

El desafío doble entonces reside en desarrollar investigaciones nacionales, regionales y locales que permitan ir rompiendo el círculo de la dependencia mediante conocimiento necesario para el desarrollo nacional a la par de ir disminuyendo la brecha de varias décadas existente entre conocimiento de vanguardia y conocimiento reproductor que se suele trasmitir en las universidades de los países de la periferia. Todo ello a la par que se forman los ciudadanos calificados para los proyectos nacionales de independencia económica, tecnológica y cultural.

 

Las universidades son parte integral de un país de una región geopolítica, no son islas a la deriva en un mar abierto, ni un Estado dentro del Estado. La necesaria autonomía universitaria en ningún momento puede significar una desconexión orgánica de las casas de estudios superiores con los proyectos nacionales de país. Por ello considero que el primer pensamiento proto universitario es el de identificar cuáles son los problemas centrales de un país; una vez identificado los 10 o 20 problemas prioritarios para el desarrollo nacional, verificar si alguna universidad de las existentes tiene el perfil para abordar su estudio, análisis y propuestas de solución.

 

De no existir, por ejemplo, en el área del petróleo, pensar primero en el diseño de un Centro Nacional de Investigaciones Petroleras –siguiendo con el ejemplo- que se dedique a estudiar los temas vinculados a esta campo, desde una perspectiva transdiciplinaria, es decir desde los procesos técnicos de producción hasta los operativos de comercialización, pasando por la geopolítica del petróleo hasta la arquitectura financiera para la estabilización de los ingresos producto de las fluctuaciones de precios. Y aquí el pragmatismo de gestión puede no siempre coincidir con las premisas ontológicas, epistemológicas o conceptuales del debate académico, porque se van a requerir estudios disciplinares, multidisciplinares y transdiciplinares en cada caso.

 

Centros de Investigaciones de este tipo, con una plantilla de investigadores con salarios equivalentes al promedio internacional mínimo estándar o más, pueden ser acusados por los conservadores o por los radicales del igualitarismo a ultranza, de elitescos. Pero en ciertas etapas de la historia de las naciones libres y de avanzada se ha requerido y requiere conformar una élite generadora de conocimiento, cuya teleología de constitución es la democratización del mismo y el mejor uso con fines sociales.

 

Centros de investigación de este corte, produciendo resultados concretos luego de cinco, diez o quince años de investigación según sea el caso y la complejidad de los estudios que abordan debieran abrir estudios de postgrado, Doctorados, post doctorados, maestrías, especializaciones y cursos de alto nivel donde se socialice los procesos y resultados de investigación a la par de ir formando, mediante la lógica de equipos de investigación abiertos, el personal docente que trabajaría en el pregrado. Se trataría de invertir la ruta de los procesos de docencia desde el posgrado hacia el pregrado, entendiendo los posgrados no como profesionalizantes, sino como dinámicas de investigación y construcción / validación de discurso científico alternativo. En consecuencia, las nuevas universidades deberían ser paridas por centros de investigación y desde ellos.

 

En consecuencia, serían investigadores con treinta horas mínimas de trabajo semanal investigativo quienes darían un máximo de 8 horas de docencia en la futura universidad. Esta integración investigación-docencia asociada a la validación del impacto social del conocimiento emergente haría posible dar un salto en tecnología, ciencias, conocimientos, técnicas y procedimientos que posibilitarían avanzar en desarrollos nacionales que fundamenten económica, tecnológica y políticamente procesos de autentica independencia nacional.

 

Esto crearía otra serie de problemas, propios de lo nuevo que se crea a los cuales no hay que temerles, sino por el contrario abordarlos dado el impacto de lo nuevo que se construye. Algunos de ellos, como el reconfigurar el concepto de la carrera docente universitaria, el tamaño de la universidad, su vinculación con contextos, el financiamiento, la cobertura, entre otros. En los próximos artículos intentaremos abordar nuestra perspectiva sobre cada uno de ellos, además de plantearnos la reflexión y el debate respecto a cómo alinear las universidades existentes en un esfuerzo tan dialécticamente distinto a la génesis de las mismas, como el que estamos planteando.


A cualquier colega que diga que es posible hacer lo mismo con la universidad fundada sobre la docencia, tendríamos que pedirle que -no como excepción sino como generalidad- muestre donde se está dando esta haciendo lo mismo con el modo colonial viejo, basado en la docencia como epicentro. A los innovadores que han logrado muy buenas definiciones en reglamentos y estatutos universitarios sobre el papel de la investigación deberíamos pedirles que después de por lo menos una década, necesario seria tener resultados de gran impacto para mostrar.


La única forma de eliminar la falla de origen de la universidad es generando una nueva forma de creación del mundo universitario, ya no desde el conocimiento reproductor sino del creador, no desde la dominación sino de la liberación. Se trata de atrevernos a romper con el molde colonial respecto a cómo se construye una universidad. Eso implica dejar de pensar como los dominados que tienen temor de explorar una nueva ruta que no sea la que el amo les enseñó. Creemos pues una universidad a partir de los procesos de investigación, sepultemos la vieja universidad atrapada en la camisa de fuerza de la docencia, construyamos una pedagogía desde el aprendizaje por descubrimiento.

 

 

Lista de referencias:


Bonilla-Molina, L (2001). Gerencia, investigación y Universidad. Ediciones Iesalc. Caracas Venezuela

Bonilla-Molina, L (2015). Calidad de la educación: ideas para seguir transformando el sistema educativo. Ediciones Fonacit MPPE. Venezuela

Bonilla, L y Segrera, F. [2011]. Educación universitaria para el siglo XXI. Ediciones CIM/OPSU, Caracas. Venezuela

D’Andrea, R. E, Zubiría, A y Sastre Vázquez, (2012). Reseña histórica de la extensión universitaria. Mimeografiado

Dridiksson, A. (2000). La universidad de la innovación: una estrategia de transformación para la construcción de universidades de futuro. Ediciones IESALC UNESCO. Caracas Venezuela

Lemasson, J.P y Chiapee, M. (1999). La investigación universitarias en América Latina. Colección respuestas. Ediciones IESALC UNESCO. Caracas. Venezuela.

Lucilo, L. (2019) Formación de posgrado en América Latina: políticas de apoyo, resultados e impactos. Ediciones EUDEBA, Buenos Aires, Argentina.

Manifiesto Liminar: disponible en http://www.unc.edu.ar/sobre-la-unc/historia/reforma/manifiesto
Morles, V., Medina R., E. y Alvarez B., N. (2002). La Educación Superior en Venezuela. Ediciones IESALC. Caracas, Venezuela.

Quijano, A. (2014). Cuestiones y Horizontes: Antología esencial de la dependencia histórico-estructural a la colonialidad/descolonialidad del poder. Colección Antologías. Clacso. Buenos Aires. Argentina

Sousa Santos, Boaventura (2008). La universidad del siglo XXI. Ediciones CIM. Caracas. Venezuela.
Tünnermann Bernheim, C. (1996) Breve historia del desarrollo de la universidad en América Latina, publicado en La Educación superior en el umbral del siglo XXI, Caracas: Ed. CRESALC, 1996, pp-11-38

 


[i] Especialmente en casas de estudios superiores como la Universidad Central de Venezuela a mediados del siglo XIX.

[ii] Contenido de los corchetes es mío para contextuar adecuadamente la cita

[iii] En este trabajo partimos del principio que todo conocimiento es primero usado, probado, implementado o desechado por las diferentes expresiones del modelo capitalista globalizado, previamente a su liberación en el mercado de consumo académico.

Publicado en Ciencia y tecnología
Página 1 de 9