Miércoles, 15 Abril 2015 06:19

El cerebro de la rata se parece a Internet

¿Reproduce Internet la estructura funcional del cerebro humano que lo generó? Es una pregunta intrigante y pertinente porque, al menos en la rata de laboratorio, el mapa de las conexiones entre neuronas resulta ser una combinación de las famosas muñecas rusas que se introducen una dentro de otra (las matrioskas) y la estructura de la red de redes, Internet. Eso han concluido científicos de la Universidad de California del Sur tras una ardua labor de integrar cuatro décadas de datos disponibles sobre las conexiones neuronales relacionadas con el conocimiento en la corteza cerebral de los roedores.

El cerebro de las ratas de laboratorio se parece lo suficiente al mucho más complejo cerebro de los humanos (también mamíferos) como para proporcionar datos interesantes y se realizan experimentos imposibles en humanos, por lo que resulta más fácil de estudiar.

"La corteza cerebral es como un mini Internet", explica Larry Swanson, autor principal del trabajo. "Internet tiene innumerables redes locales que se conectan con redes regionales mayores y finalmente con los nodos que forman su red troncal. El cerebro funciona de forma parecida".


Esquemáticamente, dos redes locales forman el núcleo de la corteza cerebral de una rata: una controla la visión y el aprendizaje, entre otros aspectos, y otra está relacionada con el funcionamiento del organismo, como los músculos y los órganos. A éstas dos redes las envuelven, como una concha o una matrioska, otras dos, una relacionada con el olfato y otra en la que se recoge y procesa la información de las otras tres.

Los científicos estudiaron 16.000 informes publicados sobre miles de conexiones entre axones confirmadas en laboratorio en el cerebro de la rata y hallaron que 73 regiones de la corteza cerebral se pueden agrupar en estos cuatro módulos. Los módulos están interconectados de forma asimétrica, lo que indica, según Swanson, que existe una base genética para algunos flujos de información en el cerebro.

Además de los cuatro módulos, los investigadores hallaron nodos, centros muy interconectados cruciales para el tráfico neuronal que relaciona las redes locales. Trabajos anteriores indican que estas regiones, cuando sufren daños, son causa de enfermedades neurodegenerativas y epilepsia, señala la citada universidad. El estudio, que se publica en la revista Proceedings, ha sido revisado por el prestigioso neurocientífico Fred Gage. La base de datos resultante se puede consultar de forma gratuita.
Este trabajo se engloba en la llamada conectómica, la especialidad de los que hacen conectomas, mapas de las conexiones entre las neuronas del cerebro. Es una nueva forma de de contemplar el cerebro que va más allá de lo visible para entrar en la función, al elaborar un mapa de conexiones relacionada con el conocimiento. El conocimiento emerge supuestamente de la actividad neuronal en esta complicada red, modulada por la aportación de información externa recogida por los sistemas sensoriales, que dirige el comportamiento voluntario mediante el control del sistema motor. Mover un solo dedo al teclear para acceder a una página de Internet en un dispositivo electrónico, por ejemplo, es el resultado de todo este proceso.

"Los resultados son un punto de partida para compilar el conectoma del sistema nervioso de los mamíferos que puede llegar a revelar nuevas correlaciones entre los estudios de genomas completos y los de conectomas, lo que llevaría a nuevos conocimientos sobre la arquitectura celular subyacente al conocimiento", afirman los investigadores.

"Tener un mapa de conexiones del cerebro nos permitirá relacionar en ambos sentidos los estudios en animales y en humanos. Podemos tomar las hipótesis derivadas de estudios del cerebro humano con técnicas no invasivas y verificarlas experimentalmente en animales, y los descubrimientos derivados de los estudios en animales probablemente tengan analogías con los humanos", señala Swanson. En la misma universidad existe un centro de neuroimagen y bioinformática que dispone de la mayor colección de tomografías y resonancias cerebrales humanas del mundo, lo que permitirá avanzar en esa línea de investigación.

Publicado en Ciencia y tecnología
Viernes, 06 Febrero 2015 16:41

Suéltame pasado

Google dejó de mirar al pasado y ha puesto su mira en el futuro, orientándose hacia campos como la robótica y la biotecnología. Ya no quiere organizar la información del mundo ni volverla accesible; el conocimiento, según la empresa, pasó a ser cosa del pasado.

 

Misión, visión y valores de la empresa: es lo primero que aconsejan tener claro a cualquiera que quiera lanzarse al mundo de los negocios. Suena tan tonto como un programa de 12 pasos. Pero funciona igual de bien.
 Hace 14 años Google definió su misión: "Organizar la información del mundo y volverla universalmente útil y accesible", que, conjugada con el lema informal de la compañía –"No seas malvado"–, era una dupla insuperable.
Google es una de las compañías más ricas y poderosas del mundo, pero quizás como ninguna otra su grado de maldad o bondad está en perpetua discusión. Hay una legión de entusiastas a quienes decididamente les importa un rábano si Google es buena, mala o neutra, si respeta o no la privacidad de sus usuarios, cómo maneja la publicidad en su página o los criterios de ranqueo de los resultados de su buscador. Simplemente entonan el coro pospolítico "Si no te gusta, no lo uses", "Google es una empresa" (el énfasis es de ellos), o el conmovedor "¿Pero quién me va a querer espiar a mí?".

 

Otro grupo, decididamente menor, se preocupa por lo que hace Google con sus datos, por el poder que acumula la empresa y por el efecto que tiene en la sociedad toda. Google, mientras tanto, se mueve frecuentemente en una zona gris, en la que los buenos anuncios (la encriptación de las búsquedas) son inmediatamente ensombrecidos por otros que revelan intenciones menos loables (mayor accesibilidad a los términos de búsqueda que llevan a una página si se pone publicidad que si no), por sólo nombrar dos de los muchos ejemplos de avances y retrocesos en temas de seguridad y transparencia. Lo que es indudable es que lo que Google hace de bueno, por pequeño que sea, tiene una difusión y repercusión inmensas (el anuncio en agosto del año pasado, de que las páginas encriptadas ranquearían más alto en el buscador, por ejemplo), mientras que lo menos bueno, incluso aunque implique el silencioso abandono de aquella "misión" de hace 14 años, pasa desapercibido.


Sobre finales de 2014, Larry Page había admitido que la misión de Google estaba desactualizada y que probablemente necesitaran cambiarla. Entrevistado por el Financial Times, Page dijo: "Estamos un poco en territorio desconocido y tratando de darnos cuenta de cómo usar todos estos recursos y tener un impacto mucho más positivo en el mundo". Lo que resulta claro es que Google, definitivamente, dejó de mirar al pasado y ha puesto su mira en el futuro, orientándose hacia campos como la robótica y la biotecnología. Ya no quiere organizar la información del mundo ni volverla accesible; el conocimiento, según la empresa, pasó a ser cosa del pasado. Y sin importar cuán espectacular haya sido el fracaso de proyectos como el Google Glass y otros por el estilo, parece bastante claro que la idea de mejora de la humanidad que tiene Google es el camino del cyborg.


Sin embargo, ese abandono de la misión original dista de ser evidente para el usuario común, que se va dando cuenta poco a poco de los cambios. Por ejemplo, en 2011, de pronto desapareció la aplicación Timeline, que permitía filtrar los resultados del motor de búsqueda por fecha de publicación. En 2013, Hummingbird, el nuevo algoritmo de Google, apuntaba a mejorar los resultados de las búsquedas ya no por palabra clave, sino mediante preguntas, privilegiando las páginas con información nueva o reciente y orientadas más a la conversación que a la escritura.


Ahora, Andrew Baio y Jessamyn West han hecho un buen resumen de ese silencioso abandono del pasado por parte de Google en sendos artículos para Medium.com. En "Never Trust a Corporation to do a Library's Job" ("Nunca le confíes a una corporación el trabajo de una biblioteca"), Baio detalla el fin o la decadencia de proyectos como Google Groups, Google Books y Google News Archive (destacando, de paso, el trabajo de Internet Archive, esa página gloriosa que a menudo viene a salvarnos con su Wayback Machine), mientras que Jessamyn West escribe la –a menudo hilarante– historia de cómo Google dejó de amar a los bibliotecólogos y archivistas.


Y es que Google abandonó hace rato al ratón de biblioteca por el ratón de laboratorio, al mismo ritmo que la información iba quedando cada vez más y más enterrada.

Publicado en Ciencia y tecnología

En el mundo impera, rampante, la banalidad y la trivialidad. En ciencia es exactamente aquello que en su momento Th. Kuhn designara como ciencia normal; esto es, ciencia para gente promedio y estándar.



Existen serias dificultades cuando se hace ciencia en general, o también en la vida y la convivencia con otros, o la comprensión y las posiciones de cada quien ante las cosas, por ejemplo. Con seguridad, la más sensible de esas dificultades consiste en distinguir aquello que los filósofos llaman "el ser", de "la apariencia". Así, por ejemplo, quién es el verdadero amigo, y quién semeja serlo; quién nos quiere de vedad y quién pretende; en quién podemos confiar y quién nos quiere engañar. Numerosos otros casos pueden mencionarse sin la menor dificultad.


Aquí, quisiera considerar el que posiblemente puede ser el más difícil de los problemas en la vida como en ciencia. Que es distinguir lo trivial de lo no–trivial.


Lo que impera en general en la vida cotidiana, en la política, la comunicación social, la academia y en ciencia son afirmaciones triviales. Esto es, lugares comunes, saberes circulantes, investigaciones epidemiológicas, y demás. En la base de ello se encuentra una ley postulada y demostrada por la psicología: a medida que aumenta el auditorio disminuyen los niveles de comprensión.


Para no mencionar que la cultura en general es, por definición, conservadora. De suyo, la cultura y todos los mecanismos, dispositivos, aparatos, prácticas y saberes constitutivos de la misma no están para cambiar el mundo, sino para mantenerlo, para conservarlo.


Ya algún autor francés ha dedicado prácticamente toda su obra al estudio de la banalidad. Sin olvidar, jamás, justamente ese ícono histórico que es el estudio de H. Arendt sobre la banalidad del mal: aquellos funcionarios medios y grises en el Estado y en todas las organizaciones e instituciones que por eficientes y eficaces son capaces de cometer las peores atrocidades, sin inmutarse: pues están actuando conforme a las normas.


En el mundo impera, rampante, la banalidad y la trivialidad. En ciencia es exactamente aquello que en su momento Th. Kuhn designara como ciencia normal; esto es, ciencia para gente promedio y estándar. El hombre mediocre, dirá con lucidez y tino, ese ensayista argentino eximio que es José Ingenieros.


La banalidad y la trivialidad anclan en el sentido común —aquel que un filósofo francés denominara el más universal y común de todos los sentidos.


Ejemplos de trivialidades son el empleo, el trabajo y la existencia con afirmaciones universales, implicaciones directas, uso de herramientas y enfoques conocidos. Esto es, el empleo de cuantificadores universales del tipo "todos", "ningún", "siempre", "nunca", y demás. El uso de inferencias directas e inmediatas que lo que hacen es afirmar preconcepciones, argumentos de autoridad, ausencia de crítica y de reflexión. Y el recurso a herramientas de diverso tipo que son conocidas y empleadas por todos o la mayoría.


Por su parte, en contraste, son ejemplos de no–trivialidades: afirmaciones particulares o singulares, implicaciones paralelas, indirectas y otras semejantes, y creación de nuevas herramientas y aproximaciones. Esto quiere decir, el trabajo con especificidades, particularidades determinadas, casos singulares que van en contravía de los cuantificadores universales. Es entonces el trabajo con las significaciones y los alcances de las particularidades. Asimismo, se trata del trabajo con inferencias o consecuencias bastante más sutiles y elegantes, tales como las homologías, los contrastes y otras que constituyen, notablemente, el trabajo de las lógicas no–clásicas. Y finalmente, sin ser prolijos, el trabajo de creación de nuevas explicaciones, distintos puntos de vista, herramientas menos conocidas o en boga, y demás.
La distinción entre lo trivial y lo no trivial constituye exactamente la tarea de una educación crítica, reflexiva, independiente y no–doctrinal. Esta distinción puede ser igualmente vista como el distanciamiento con respecto a cualquier ciencia y disciplina normal. ¿Qué es ciencia normal? Kuhn mismo lo resuelve de una manera simple y elegante: todo aquello que funciona. Punto.


En las esferas de la cultura y las artes, pero también y ante todo en la vida misma, la distinción entre lo trivial y lo no trivial radica en el distanciamiento con respecto a toda esa ingeniería social consistente en objetivos, estrategias, medios, fines, recursos, cronogramas y demás. Esto es, un pensamiento normativo y algorítmico. En otras palabras, se trata de destacar la capacidad del juicio propio, el rechazo de argumentos de autoridad sin importar su origen o "dignidad". Históricamente, podemos recordar el argumento ilustrado de Kant: "atreverse a saber por sí mismo", en fin, "atreverse a pensar por sí mismo", por ejemplo. Otros ejemplos y traducciones en la historia son posibles y necesarios.
El progreso en el conocimiento —como en la vida misma— estriba en el esfuerzo y la capacidad de reconocer los ámbitos, dimensiones y tiempos de la trivialidad y la banalidad para alejarse rápida y radicalmente de ellos. Algo que se dice fácilmente, pero que es difícil llevarlo a cabo.


Al fin y al cabo la fuerza de la masa (Elías Canetti), de la Iglesia, del Partido, de la Institución y demás consiste exactamente en eso: en ser una fuerza. Una fuerza unificadora y generalizadora, excluyente y exclusivista.
Hacer ciencia —en el sentido al mismo tiempo más amplio, fuerte, incluyente y radical— es una tarea extremadamente difícil. Y existen disciplinas en donde ello es aún enconadamente más dificultoso. En contraste, hay campos en donde la organización social del conocimiento facilita el cambio y la innovación. Pero de todas, el mayor de los obstáculos consiste en el imperio de lo común y generalizado, que es lo trivial y lo banal mismos.


Por lo demás: ¿sentido común? No hay que olvidar que en la historia todos los regímenes más excluyentes y violentos, más verticales y agresivos han sido partidarios siempre del sentido común. Y que es contra ellos que se han levantado figuras que han significado una bisagra, una inflexión, en la historia del avance del conocimiento; o de la vida.

Publicado en Ciencia y tecnología
Martes, 20 Enero 2015 15:03

Las manzanas podridas de la revista Time

En Oldboy la novela gráfica de Garon Tsuchiya (1947- ) y Nobuaki Minegishi ( ), su personaje central Joe Doucett es secuestrado durante 10 años y retenido en el piso siete y medio. Su único contacto con el exterior son sus carceleros y un destartalado televisor. Un día es liberado y despierta en el mundo real, una década después de su aislamiento.

Como Doucett a veces nos auto encerramos en una burbuja y creemos que nuestra realidad, es la del resto de habitantes del planeta. Al contrario, de lo que ha ocurrido en Venezuela, los sistemas educativos del mundo han vivido en el último décimo y medio de siglo, la mayor ofensiva conocida contra la educación como derecho humano fundamental. Para comprenderlo mejor necesitamos hacer un poco de memoria histórica.


Educación para todos y todas


La educación para todos y todas es en gran medida un aporte de la revolución bolchevique (1917) a la sociedad mundial. La revolución liderada por Lenin (1870-1924) y Trotski (1879-1940) le demostró al mundo que con voluntad política y compromiso social de un gobierno, se podría llevar -como lo hicieron con Rusia- a un país prácticamente sin escuelas, a ser una nación con expansión permanente de la matrícula y cobertura para todos y todas, independientemente del origen social de su población.


Una vez finalizada la segunda guerra mundial, la educación se convirtió en la bandera y la esperanza de la humanidad para evitar otra conflagración mundial. El éxito soviético en la materia se redimensionó. En consecuencia, en la arquitectura institucional derivada de Bretton Woods (1944) -especialmente la recién creada Unesco (1945)- acoge este clamor y comienza a trabajar en construir consensos entre los Estados nacionales para masificar la educación, eso sí, conforme al nuevo modelo productivo industrial, que a partir de ese momento tiene como eje los EEUU. El discurso oficial al respecto está referido al hecho que la educación constituye el camino para garantizar la paz mundial.
Rápidamente el capital trasnacional y las burguesías nacionales se dan cuenta de las implicaciones financieras y presupuestarias de esta orientación, considerando a la educación para todos y todas como un coste y no como una inversión social. A partir de ese momento -casi desde los propios orígenes de la Unesco- el capital inicia una ofensiva planetaria para frenar este logro de la humanidad. Esta acometida tiene múltiples aristas, de las cuales en este artículo destacaremos sólo siete (7) de ellas, aparentemente aisladas pero que forman parte de un mismo corpus de elitización de la educación y subordinación a los intereses del mercado.


1. La despedagogización de la educación


La primera de ellas, la despedagogización de la educación. La pedagogía con cada uno de sus componentes y elementos posibilita una interpretación de la totalidad educativa como hecho político, desde la especificidad concreta del aula y sus interrelaciones con la realidad social histórica. En este sentido, la educación adquiere una potencia revolucionaria pues no solo tiene una epistemología que vincula lo local con lo global como totalidad sistémica, sino que entiende la dialéctica entre contexto, centros educativos y transformación de la realidad. Esto convierte a la pedagogía en una profesión subversiva para el capitalismo de la postguerra y más aún en su etapa neoliberal. La pedagogía es contraria a la premisa de fragmentación de la realidad y la acción de sumisión que demanda el modo de producción capitalista, especialmente desde Bretton Woods.


Para el capitalismo del llamado nuevo orden mundial, era evidente que tenían que actuar en consecuencia y ello implicaba romper la pedagogía como profesión con perspectiva transdiciplinaria y convergente. Para ello desarrollaron la estrategia desarticuladora de las "modas educativas".


A partir de los años 50 del siglo pasado, progresivamente se comienza a dejar de hablar de pedagogía como totalidad sistémica y esta se sustituyó -en marcos temporales concretos- por énfasis en uno u otro de sus componentes. Así vivimos la moda del didactismo que enfatizó en enseñar técnicas de enseñanza. La didáctica, uno de los componentes de la pedagogía se desmembró de su árbol de conexión para convertirla en simple tecnología de uso. La perspectiva taylorista hace ver el aula como un taller de ensamblaje en el cuál al maestro le corresponde "fijar" contenidos en la mente de sus estudiantes. La justificación conceptual de esta orientación es que la didáctica constituye la esencia del acto educativo. Paradójicamente, la mayoría de los Ministerios de Educación de la región, gobernados en ese entonces por gestores obedientes al nuevo orden imperante no crearon direcciones de didácticas en su estructura, pero tampoco de Pedagogía. Era evidente que esa era una operación política para romper con la centralidad pedagógica, encubierta con buenos cursos de tecnología de la enseñanza.


Esta moda tuvo corta duración, pues muchos docentes comprometidos con su trabajo y norte teleológico, no solo "transferían" conocimientos sino que promovían reflexión y pensamiento crítico en el aula a través de "materias" que eran más o menos comunes en la época, como historia de América, historias nacionales o formación ciudadana.


Los muchachos seguían pensando mucho y el foco de la rebeldía enlos sesenta estaba en buena medida en las aulas. Parafraseando el refrán popular venezolano diríamos que al capitalismo "se le escaparon las cabras del corral". Para la lógica de los capitalistas, eso había que cambiarlo sin perder la ruta de la desarticulación de la Pedagogía. En el imaginario colectivo esta época se conserva como el periodo en el cual los maestros mejor sabían enseñar.


Vino la época de oro de la planeación –por cierto heredada de la planificación soviética que el capitalismo intentaba domesticar para los fines del libre mercado- con la creación del Ilpes (1962- ) y la moda fue entonces la planeación. Se organizaron cursos, talleres y programas de formación en servicio, no sólo del propio organismo de planificación sino también por parte de la OEA , que posteriormente replicarían la Cresalc y las oficinas regionales y nacionales asociadas a Unesco. Fue la época de esplendor de instituciones como el CIER o el Mácaro que además servían de anfitriones a educadores de los países de la región.


La didáctica dejó de ser el centro y el énfasis fue la planificación en formación: (a) de los equipos de planificación de los Ministerios de Educación, (b) de supervisores centradas en el cumplimiento de metas y la fundamentación de requerimientos o necesidades de los sistemas educativos y, (c) de directivos de los centros escolares para desarrollar las estrategias asociadas a las metas. Aunque inicialmente separadas la moda de la planeación se asocio en un segundo momento a la moda de la formación de supervisores y directivos escolares. La pedagogía comenzaba a verse difusa, confundida con didáctica o planificación de la actividad educativa. Conceptualmente se justificaba, señalando ahora que la planeación era el centro de la actividad educativa y hacia converger a todos y cada uno de los componentes de la "vieja" Pedagogía. En el imaginario colectivo esta época se conserva como el periodo en el cual los sistemas escolares contaban con buenos directores.


Agotada la moda de los objetivos concatenados con metas y resultados, se generó el desarrollo de la moda por los materiales instruccionales que posibilitaron el desarrollo de una poderosa industria cultural escolar de los contenidos y los negocios de tecnología para el aula florecieron. El foco de la mirada parcial, que desvaloraba la pedagogía como esfuerzo interpretativo global, era ahora cercano al aula. La pedagogía comenzaba a ser un rompecabezas roto, cuyo lenguaje de armado parecía heredado de la Torre de Babel.


Luego vino la moda de la evaluación, derivada de los resultados que mostraban las estadísticas de prosecución y deserción escolar en los sistemas educativos nacionales. La culpa no fue de la desarticulación de la pedagogía ni de la precaria inversión pública para alcanzar las metas educativas, ni del impacto de la creciente incorporación femenina en el mundo del trabajo con horarios prolongados que la obligaban a estar todo el día fuera del hogar, sino de la evaluación. El debate fue entonces la dicotomía expresada entre evaluación cualitativa versus evaluación cuantitativa. Esta moda coincidió con el emerger de corrientes de izquierda que comenzaron a criticar y a hegemonizar el discurso respecto a las ciencias, el método científico y lo cuantitativo. Se creó a mi juicio, una falsa dicotomía entre quantum y cualidades singulares.
En otro artículo espero poder desarrollar los riesgos del discurso anticientífico en la escuela como obstáculo real al desarrollo de una ciencia al servicio de los más pobres y de los explotados, pero eso -aunque relacionado- en este momento es "harina de otro costal".


Como de costumbre, desde el poder se genera una apropiación de ideas y resemantización de su orientación, respecto a lo que de manera progresista surge desde la izquierda. Así la evaluación cualitativa emerge como progresista y las ponderaciones numéricas como retrogradas; nos sumergimos en un debate en el que –a mi juicio- perdimos la noción de integralidad y cada quien se atrinchero en posiciones irreconciliables.


La moda de la evaluación cualitativa vino acompañada de varios elementos sobre los cuales me referiré en otros artículos, y que llevados a sus últimas consecuencias se expresaron así: (a) el aprendizaje no depende de nadie, es una construcción social de cada individuo –entonces para que profesionales de la docencia- , (b) la ciencia no explica a la sociedad -desvalorando el propio papel de las ciencias sociales-; (b) multidisciplinariedad como antítesis del conocimiento alcanzado por la ciencia; (b) subjetividad como negación de la objetividad, entre otros. En el periodo de la moda de la evaluación cualitativa se popularizaron seudopedagogías que parecían más modelos de auto ayuda que reflexión seria, por supuesto siempre barnizados con lenguaje progresista. Esta experimentalidad sin método, estas prácticas de ensayo y error permanente por supuesto que afectaron el sector de la educación en la que más se experimentaba: la de los pobres. Fue una época en que algunos señalaron que la escuela había muerto y que, por ejemplo, no era necesaria la fijación de conceptos -desde la teoría y praxis- para poder adentrarnos en el análisis crítico.


Finalmente desembarco en los ochenta -para quedarse por un largo periodo- la moda del currículo. Moda por capítulos: currículo por objetivos, currículo por contenidos, currículo globalizado, currículo problémico, currículo transdiciplinario, currículo por competencias desplazaron a la pedagogía como dinámica integradora y los curricologos se convirtieron en los nuevos profesionales de la educación.
Esta moda comienza a ser desplazada en el presente por las modas de las pruebas estandarizadas como eje vertebrador de la educación, diseñadas por los organismos económicos internacionales como el coordinado por Andreas Schleicher (1964- ) desde la Ocde y cuyos resultados son interpretados, entre otros, por especialistas del BID como Emiliana Vegas. Hoy es urgente e impostergable la recuperación de la unidad y la centralidad pedagógica, no sólo como posibilidad cierta de resistencia desde la educación sino como rearme profesional para frenar los ataques contra la educación como derecho humano fundamental.


2. La desvalorización social y profesional del docente


La segunda arista fue y es la desvalorización social y profesional de los docentes. La despedagogización tiene un capítulo especial en el ataque a la profesión docente y los docentes como líderes sociales. En las últimas 6 décadas la profesión docente ha recibido a escala planetaria todo tipo de ataques, disparados desde distintos lugares y francotiradores, pero facturados casi todos en el gran capital.
El primer ataque lo hallamos en la desprofesionalización del educador y su ubicación como técnico calificado, con lo cual se le despojaba de la autoridad del conocimiento para orientar la transformación de las sociedades, para opinar y reflexionar sobre asuntos generales, del cual habían sido envestidos por su papel estelar en las independencias nacionales, la lucha por los derechos sociales y humanos, las resistencias anticapitalistas y el ecologismo. Por supuesto el maestro como líder social resaltaba la noción subversiva para el orden dominante, de la educación como un hecho político.


Se procuraba reducir al maestro(a) y profesora(or) a un rol instrumental estrictamente escolar. En el caso de Venezuela esta ofensiva tuvo un especial desarrollo a partir de la ruptura de Luis Beltrán Prieto Figueroa con AD y la creación del MEP cuya base social en gran medida estuvo conformada en un principio por maestros(as) y profesoras(es). Para AD era urgente desacreditar la militancia crítica de los maestros y desarrollar un modelo clientelar y de sumisión instrumental de los maestros al modelo de democracia representativa; tarea que sólo lograron cumplir parcialmente.


El segundo ataque se ubicó en la línea directa de confrontación que tenían los educadores con los gobiernos respecto a sus condiciones salariales y de trabajo. Se fueron cerrando uno a uno los foros de debates educativos para concentrar la imagen social de la relación entre gobiernos y maestros en la lucha gremial, publicitando desde el poder especialmente los temas salariales. Eso procuró cambiar la percepción social del maestro como líder social y profesional solvente a la de "lochero", ó "pesetero", solo interesado por el tema de sus salarios.
Las discusiones por las contrataciones colectivas fueron prolongadas el mayor tiempo posible, para obligar al magisterio a ir a conflictos huelgarios, que a la par eran denunciados por los aparatos mediáticos -tanto del gobierno como del sector privado- como exigencias elitescas de un sector que quería colocarse por encima de los demás profesionales y que además privaban a los niños y jóvenes de la educación en los periodos de conflicto.


La partidización –no su politización- de los gremios educativos atándolos al carro del clientelismo en la otorgación de cargos y asensos de jerarquía docente contribuyeron a minar la imagen del docente.


La proletarización de los docentes permitió a una franja importante su repolitización pero sumió en el desconcierto y el "sin sentido" profesional respecto a su trabajo, a otra franja no menos significativa.


La pérdida del poder adquisitivo del docente en el mundo en las últimas décadas varió según la región y el tipo de gobierno que eligieran los pueblos. La percepción social comenzó a ser que la profesión docente era un oficio de sobrevivientes. En muchos pueblos se popularizó la frase: "esta más pobre que un maestro de escuela".


La desvalorización del rol social del docente y el desconcierto que generó entre el magisterio el caos epistémico al fragmentarse la pedagogía en partes y modas, posibilitaron que el capitalismo lograra propinar con ello un certero golpe estratégico al propio concepto de la educación como derecho humano fundamental.


El tercer ataque fue dirigido a la carrera docente generando una constante de modificaciones en sus programas de estudio; eso sí garantizando la desaparición de temas centrales como la formación en historia de América, además de una profunda devaluación de las historias nacionales, así como la desaparición de la historia de las ideas pedagógicas en el mundo, la región y el país, aún más en las localidades.


Si me preguntan cuál fue el resultado sustantivo de la operación política de las fuerzas contrarias a la educación como derecho humano en la formación de docentes en este periodo (1950-2010), tendría que decir sin ninguna ambigüedad que lograron afectar el corazón de su actividad, es decir la capacidad de enseñar a enseñar.


El cuarto ataque a la profesión docente, resultó en un titánico esfuerzo por generar una matriz social y discursiva que señalara que cualquiera pueda ser profesor, independientemente que tenga título profesional o no. En Venezuela ello tuvo su máxima expresión en la resolución número 1 del Ministerio de Educación en la década de los noventa, amparada en la premisa que hacía falta docentes para cubrir las demandas de ampliación de la cobertura escolar. Si cualquiera podía enseñar ¿para qué invertir fondos públicos en el sostenimiento de escuelas o facultades de educación que "no implicaban, ni aportaban" ningún capital profesional específico y concreto? En consecuencia cada día se desprestigiaba más la pertinencia de una carrera docente como tal.


Ello fue acompañado de ideas aparentemente progresistas, como aquellas que sin ton ni son señalan "que nadie enseña a nadie, ni nadie aprende con otro", que le restan autoridad profesional, moral y social al educador. En la misma orientación se señaló que nadie puede llamarse maestro sino facilitador o dicente, que aún con la mejor de las intenciones, sus resultados prácticos resultaron funcionales a la desvalorización del maestro en la ruta para aniquilar a la educación como derecho humano y permitir que muchos Estados nacionales eludieran con distintos subterfugios buena parte de sus responsabilidades en esta materia. A nadie se le ocurre decir que un médico o galeno puede ser llamado de manera distinta a cómo históricamente se le denomina a su profesión, sin que ello afecte la identidad y autoestima profesional. Entonces, ¿Por qué el docente tendría que ser la excepción? ¿Por qué entonces es parte de una operación de subvaloración social de su trabajo?


Hoy sectores docentes, ONG progresistas y del sindicalismo organizado en la Internacional de la Educación -entre otras expresiones internacionales- que hoy pugnan por recuperar el orgullo de ser docente y el papel protagónico de los maestros en la transformación de los sistemas educativos. En Venezuela la consulta por la calidad de la educación estableció el desafío de la recuperación del protagonismo de los docentes en el hecho pedagógico pero también en el devenir de la sociedad.


En el presente, sectores de avanzada del magisterio y los docentes a escala mundial impulsamos el debate respecto a la urgencia de asignar un porcentaje del Producto Interno Bruto (PIB) y del presupuesto asignado a la educación a mejorar las condiciones de trabajo de los docentes(as) auspiciando la unificación internacional del salario del magisterio y potenciando su desarrollo profesional, estudio y superación permanente en la perspectiva de la agenda de Educación Para Todos (EPT) y los Objetivos de Desarrollo del Milenio (ODM).

3. Paradigma de la sociedad educadora


La tercera arista es el abandono de la obligación de los Estados nacionales con el desarrollo y sostenimiento de la educación. El neoliberalismo pretendió hegemonizar la idea y el concepto que la educación es una responsabilidad de las sociedades y las familias que debe ser apoyada en la medida de las posibilidades por los Estados. Esta propuesta procuraba romper con el concepto y la práctica del Estado Docente, es decir de los Estados como garantes y responsables de la educación para todos y todas. Gracias al papel de gobiernos progresistas y revolucionarios como el venezolano y de la resistencia de los pedagogos y educadores a nivel mundial esta idea no pudo ser implementada impunemente.


La Revolución Bolivariana se convirtió en un buen ejemplo de inversión estatal en educación. Sin embargo, en muchos lugares -nuevamente cubierto de un manto aparentemente progresista- el capitalismo globalizado continuo atacando, por ejemplo, proponiendo la sustitución de conceptos como centro educativo o escuela por el de "ambientes de aprendizaje". Si bien la educación popular -desde sus inicios- ha defendido que cualquier lugar es un espacio para la educación y el aprendizaje, la perspectiva capitalista de la educación "tomo prestada" estas premisas para viabilizar sus políticas de contrarreforma. La obligación del Estado en el sostenimiento del derecho a la educación tiene expresiones concretas en sus aportes para la construcción, dotación y el sostenimiento de los centros educativos; por lo tanto la idea de ambientes de aprendizaje nos lleva a su abandono y el emerger ya no solo de "universidades de garaje" en buena parte del continente, sino de "escuelas en contenedores" como recientemente lo hiciera el alcalde de ciudad de Buenos Aires, el tristemente célebre Macri.


4. Mercantilización de la educación


La cuarta arista la constituye la subordinación de la educación y los sistemas escolares nacionales a los intereses del mercado. La caída del muro de Berlín y el supuesto fin de la historia de Fukuyama (1952- ) tuvieron implicaciones directas en la educación. Si ya el relato socialista se consideraba obsoleto y el propio Estado de Bienestar Keynesiano comenzaba a desmantelarse, el mercado fue presentado como triunfador y por ende resultaba "lógico" atar los sistemas educativos a los vaivenes del la producción globalizada. Chávez y la Revolución Bolivariana les demostraron a Francis Fukuyama y los apologistas del capitalismo en educación lo equivocados que estaban.


Sin embargo, en casi una década previa al emerger de la nueva situación política en América Latina y el Caribe, sus preceptos lograron avanzar y aún permanecen, por ejemplo, en la certificación de carreras universitarias o de postgrados valorados desde el punto de vista de las relaciones entre las competencias curriculares y el perfil del egresado. Desde los planteamientos expresados en esta arista el mayor golpe propinado a la educación, como derecho humano lo constituye el progresivo abandono de las tareas para la formación de ciudadanía por parte de la educación y los sistemas escolares como lo veremos respecto a los sistemas de medición de la calidad.


5. Calidad educativa


La quinta arista la constituye la calidad educativa. La mayoría -por no decir la totalidad- de las contrarreformas educativas que se desarrollan e intentan implementar en los distintos sistemas educativos nacionales y locales del mundo hoy, suelen desembarcar con el discurso de la calidad. Los sistemas educativos golpeados, vapuleados y desestimados sus docentes, suelen presentar deficiencias que le sirven a quienes quieren privatizar la educación para construir consensos respecto a la necesidad de revisar la calidad educativa. La oposición educación pública versus educación regentada por el sector privado resulta ser una invariante de este discurso de contrarreforma.


Calidad educativa aparece entonces, asociada a los aprendizajes que requiere el modo de producción capitalista en la era del neoliberalismo globalizado: habilidades numéricas y lecto escritura para comprender instrucciones, manuales y realizar cálculo fragmentados, así como conocimiento sobre tendencias y hechos puntuales de las innovaciones científicas y tecnológicas. Desaparece el énfasis en la historia, la educación artística o la formación ciudadana al evaporarse la tarea escolar de construcción de ciudadanía.


El concepto capitalista de calidad educativa tiene su apogeo a partir del modelo ISO de las empresas en los ochenta, pero no es cierto que la izquierda pedagógica no tenga un discurso propio e histórico respecto a la calidad en educación. En este tema la izquierda pedagógica ha sido muy reactiva y ha abandonado la disputa sobre la calidad, práctica que a mi juicio debe corregir rápidamente como punto de referencia para el combate a las contrarreformas educativas.


La calidad educativa es un término polisémico. Desde una perspectiva emancipadora se refiere a la educación que los pueblos demandan y que los marcos jurídicos nacionales establecen como mínimo. Desde la perspectiva de los pueblos la educación debe servir para lo que dice servir –según los marcos constitucionales y las leyes específicas casi siempre muy progresistas- y sus políticas deben ser construidas con el mayor consenso social posible. Desde estas premisas la calidad tiene contextualización local y nacional, a partir de la cuál ir al encuentro de las dinámicas internacionales, nunca al revés. Un marco de referencia para esta perspectiva lo constituye el documento titulado "Informe Mundial sobre Calidad de la Educación: ¿en este debate de que estamos hablando? (2014)". (Ver link: http://www.aporrea.org/educacion/n259194.html)


6. Virtualización de la educación


El voltear y revisar un libro biográfico por leer me permite tomar aliento. Y es que el sincretismo de Paul Gauguin (1848-1903) expresado en su obra "¿de dónde venimos? ¿Qué somos? ¿A dónde vamos?" (1897) y especialmente "pechos con flores rojas" (1899) y "Otahi" (1893) alientan -poéticamente hablando- a continuar este oscuro recorrido por lo más sórdido del capitalismo, el ataque a la educación como derecho humano fundamental. Continuemos pues.


La sexta arista la constituye la presión por la virtualización de la enseñanza. Ante la revolución científico tecnológica -que ha implicado en algunos lugares del planeta el que un porcentaje importante de familias dispongan de internet, computadores, tablet y dispositivos electrónicos de acceso a la web- se comienza a hablar de la sustitución de la escuela por las clases virtuales en casa y la conversión de los espacios escolares en lugares de evaluación de lo que aprenda el niño y el joven con sus padres y familiares.


Esta propuesta denominada por el Banco Interamericano de Desarrollo (BID) como de pirámide invertida de la enseñanza -aunque ya la eliminó de su web de manera silente- es un nuevo ataque a la educación pública y el papel del Estado en su sostenimiento.


Si el aula es sustituida por la clase en casa a través de un aparato informático que trasmite la sesión escolar previamente grabada, por supuesto que ello abarata los costos en educación, pero también crea una barrera para las inmensas mayorías que aprenden socialmente, es decir junto a otros, con otros; amén de sus implicaciones en la construcción de ciudadanía.


Si bien estamos de acuerdo en el uso de las Tecnologías de la Información y la Comunicación (TIC) como apoyo en la educación inicial, básica y media, estamos en total desacuerdo con la sustitución total del papel socializador e integrador de la escuela y el rol del docente en los procesos de enseñanza-aprendizaje en estos niveles. No podemos permitir que con discursos aparentemente progresistas y generalizantes nos mareemos ante la vorágine virtual.


Así mismo celebramos y auspiciamos que estos momentos la educación virtual tenga creciente interés y presencia en la educación de postgrado y la formación permanente de los profesionales, lo cual es positivo y digno de replicar, sin que ello obvie el interés por compartir conocimientos que suele resultar en la creación de redes que posibiliten encuentros presenciales de los participantes.


7. Crisis permanente de los sistemas educativos nacionales


La séptima arista es la tendencia a la generación de una "sensación" socialmente aceptada de crisis permanente de los sistemas educativos como camino para avanzar año a año en contrarreformas educativas. Los resultados de las reformas o contrarreformas educativas nunca son evaluados de cara a la sociedad y cada día tienen menor duración; apenas acabamos de conocer una reforma y ya comienza a escucharse de otra en ciernes.


Esta tendencia tuvo sus orígenes en la crisis de la sociedad norteamericana ante los avances de la carrera espacial en su competición con la unión soviética. La justificación de los administradores educativos y las autoridades gubernamentales del norte, ante la ventaja que le sacó la URSS a los EEUU al colocar el primer satélite en el espacio, fue hablar de las bondades del sistema educativo ruso y cuestionar el funcionamiento del propio. A partir de ese momento, se estableció como regla discursiva de la plutocracia gringa el asignar al sistema educativo la responsabilidad de todos los problemas sociales, contribuyendo a cuestionar la importancia de la escuela y la inversión presupuestaria hecha en ellas. Esta tendencia se fue expandiendo progresivamente en la región y el mundo y hoy es un discurso oficial del sistema capitalista y sus gobiernos, para auto justificarse y para seguir implementando medidas que cercenen el derecho humano a la educación.


El caso Vergara o Los educadores como manzanas podridas


En ese contexto no debe extrañarnos la portada del 3 de Noviembre de 2014 de la prestigiosa revista Times, quienes para abordar su posición respecto al caso Vergara tituló: Manzanas podridas:"Es casi imposible despedir a un mal profesor". La revista Times aprovecha un caso específico para disparar contra todos los maestros al identificarnos con manzanas podridas.


Ello no podemos verlo aislado sino en el contexto del desarrollo de una de las más feroces operaciones de propaganda y actuación mediática, generada desde sectores financieros de la tecnología, las industrias editoriales y militares, entre otras -apoyados desde los gobiernos locales- para obligar al gobierno de Obama a impulsar una contrarreforma general del sistema escolar estadounidense.


Hagamos un brevísimo repaso a algunas de las ofensivas llevadas a cabo por el sector más conservador de la educación norteamericana en los últimos tiempos. Comenzaron con las críticas y resistencias a los estándares educativos, luego vino la campaña de descredito a educadores como William Ayers (1944- ), continuaron con la decisión del alcalde Chicago de cerrar decenas de escuelas que denominaba de bajo rendimiento pero que en realidad cobijaban a inmigrantes y población norteamericana de color, hasta llegar al capítulo de las manifestaciones en 2012 donde más de 10.000 maestros(as) y profesoras(es) protestaron por la negativa de la firma del contrato colectivo pero también en oposición a las políticas educativas neoliberales del alcalde Rahm Emanuel (1959- ).


En ese hilo conservador y de ensayo de contrarreformas surge el caso Vergara. En esta oportunidad y mediante la jurisprudencia que genera esta decisión, la corte habilita a los estudiantes para solicitar la destitución de un profesor que consideren de "mala calidad". En realidad fue una querella auspiciada y financiada por la derecha norteamericana y públicamente impulsada por David Welch, un empresario de Silicon Valley de 53 años quien durante los últimos años se ha concentrado en asociar el mejoramiento de los centros escolares al uso de tecnologías y a quien el Juez Rolf Michael Treu le concedió la razón. La derecha pedagógica le considera un héroe que dedica sus esfuerzos a mejorar el sistema educativo estadounidense. Pero en realidad lo que estaba en juego es el esfuerzo del capital trasnacional para romper con el concepto de estabilidad docente, última frontera que tiene para intentar eliminar la profesionalidad del magisterio en la ruta de eliminar el compromiso del Estado con la educación pública. Estas prácticas tuvieron un capítulo especial en la más reciente contrarreforma educativa mexicana que mediante la aprobación de pruebas de eficiencia a los maestros (as) en servicio hecho que borra de un plumazo la conquista magisterial de la estabilidad laboral. Esfuerzo que además empalma con la tendencia que refleja cada una de las aristas analizadas anteriormente.


En ese marco, la portada de la revista Time con su expresión de "manzanas podridas" -haciendo una supuesta analogía con el caso Vergara- lo que en realidad procura es generar una matriz contraria al reconocimiento social de los docentes que posibilita romper con la estabilidad de su ejercicio profesional. El titular de la Revista Time generó un amplio rechazo de sectores progresistas de la sociedad norteamericana y la reacción de la American Federation of Teachers (AFT) quienes iniciaron la recolección de firmas en repudio a esta tendenciosa portada. Más de 100.000 ciudadanos de Estados Unidos firmaron la carta que entregara la presidenta de la AFT Randi Weingarten al equipo editorial de la revista en Nueva York. Ello obligó a la revista a pedir disculpas pero significó otro capítulo de la ofensiva neoliberal contra la educación.

La otra mirada


Los pedagogos venezolanos debemos estar muy atentos a lo que ocurre en uno de los laboratorios sociales predilectos para los neoliberales en educación, la propia sociedad norteamericana. Acciones como las descritas evidencian que el capitalismo no tiene patria pero también nos permiten valorar los inmensos logros educativos alcanzados en estos 15 años navegando a contra corriente de los intereses de la agenda educativa del capitalismo en las primeras décadas del siglo XXI.

____________________
Docente- Investigador miembro del PEII Venezuela. Presidente de la Sociedad Venezolana de Educación Comparada (Svec). Directivo de la Sociedad Iberoamericana de Educación Comparada (Sibec). Miembro del Consejo Mundial de Sociedades de Educación Comparada, instancia consultiva de la UNESCO. Coordinador Internacional de la Red Global/Glocal por la calidad educativa. Autor de artículos en una veintena de páginas web a nivel internacional.

Publicado en Cultura
Miércoles, 14 Enero 2015 05:57

¿Quién era Alexandre Grothendieck?

En Grothendieck se combina la inteligencia, la imaginación, la osadía y la independencia y el criterio propio. Grothendieck fue a la vez un genio y un ser libre. Y esa libertad le valió una gran gloria, pero fue al mismo tiempo el precio que debió pagar.


Toda (gran) obra es el resultado (aleatorio) de tres grandes factores: a) la biografía —esto es la personalidad, la sexualidad, las emociones, las capacidades y las limitaciones de alguien—; b) el entorno social en el que nació, se desarrolló y vivió —así, por ejemplo, si vive en un país desarrollado o no, en contextos de paz o de guerra, el soporte familiar y de amigos y colegas—, y c) el momento histórico que le tocó vivir —por ejemplo, etapas de crisis o de desarrollo, apoyo estatal o privado a la investigación o no, etc.—. Desarrollar las imbricaciones, cruces, congruencias y vacíos entre estos tres grandes conjuntos constituye el objeto de un trabajo mayor.


Si se hiciera, caprichosamente, acaso, la lista de los principales matemáticos del siglo XX, sin la menor duda aparecerían D. Hilbert, S. Smale, A. Kolmogorov y P. Erdös, para no mencionar a N. Bourbaki. Los demás nombres que pudieran completar la lista sería seguramente ya una cuestión de menor unanimidad o consenso.


Pues bien, en la lista mencionada hay una figura que descuella, en más de un sentido, con luz propia: Alexandre Grothendieck (1928–2014). Grothendieck es la expresión que representa genio y autonomía —hasta la radicalidad.
Apátrida (esto es, literalmente, sin patria ni pasaporte durante la mayor parte de su vida), el genio que introdujo el análisis funcional y la geometría algebraica, fue la conciencia más lúcida y crítica, por consiguiente, del establecimiento científico francés al que denominó siempre como "corporativista". Según Grothendieck, el corporativismo en ciencia se caracteriza porque se ha estudiado en una famosa universidad, se ha hecho un doctorado en una famosa universidad, se es acogido por las figuras más descollantes de la intelectualidad, la cultura y la ciencia, y se tiene, por tanto, una posición confortable y cómoda. En el caso francés, esto hace referencia al Instituto de Altos Estudios Superiores, a la Escuela Politécnica, a la Academia Francesa de Ciencias o al CNRS, notablemente. Grothendieck no fue precisamente el ejemplo del corporativismo mencionado.


En Grothendieck se combina la inteligencia, la imaginación, la osadía y la independencia y el criterio propio. Grothendieck fue a la vez un genio y un ser libre —en toda la acepción de la palabra—. Y esa libertad le valió una gran gloria, pero fue al mismo tiempo el precio que debió pagar al final de su vida.


Los años dorados de Grothendieck giran alrededor del Instituto de Altos Estudios Científicos (IHES en francés), un instituto privado creado por L. Motchane en 1950. Cabe decir que el IHES fue establecido específicamente para R. Thom y A. Groethendiceck. Antes y después, la vida académica e intelectual de Grothendieck transcurre en universidades "de provincia", de menor calidad —comparativamente con el centro que es París— y al margen de las élites intelectuales y científicas de Francia; Francia, un país sempiternamente centralista (y que justamente por eso se inventó el derecho administrativo y todas sus consecuencias).


Los campos creados y en los que trabajó con originalidad Grothendieck incluyen, muy notablemente, el análisis funcional, geometría algebraica y teoría de números, los espacios de vector topológico, el álgebra homológica. Fue uno de los padres de la cohomología, la teoría de categorías y el análisis complejo, sin olvidar la teoría de esquemas, la teoría K —temas que si bien la mayoría de la gente desconoce, constituyen ejes, avenidas o filones que marcan a toda la matemática actual—. Hasta el punto de que, por ejemplo, como se ha dicho en varias ocasiones, ninguno de los famosos Problemas del Milenio —que son los siete o seis grandes problemas llamados "últimos" de las matemáticas— puede ser resuelto sin incorporar, por lo menos parcial o tangencialmente, los terrenos trabajados y abiertos por Grothendieck. La capacidad de trabajo de Grothendieck, aunada a su inmensa libertad de pensamiento y capacidad imaginativa, constituyeron ejes de una obra sólida y original.


En 1966 Grothendieck recibe la Medalla Fields (el equivalente al Premio Nobel en matemáticas). Antimilitarista convencido, renunció al IHES cuando se enteró que algunas investigaciones estaban siendo financiadas por los militares. Por lo demás, hay que decir que en la época, los profesores del IHES eran pagados de manera muy irregular. Pacifista inveterado (sus padres habían sido anarquistas), fue un crítico acérrimo de la guerra de Vietnam y del expansionismo militar de la URSS, fue siempre sensible a los temas delicados de pobreza y marginamiento social. Cosas, todas, raras entre los matemáticos en general.


En un momento dado hacia su época de madurez y crítica del establecimiento matemático y científico, se interesa por la biología, la física teórica y los acontecimientos en el orden social y político que representaron Mayo de 1968.
En 1970 decide retirarse de la vida académica y científica de Francia y el mundo, y posteriormente, en 1988, finalmente decide retirarse de toda la sociedad. Se traslada a los Pirineos y permanece en total aislamiento del resto del mundo hasta su muerte.


La importancia de la obra de Grothendieck estriba en el reconocimiento explícito de que ningún problema actual de punta en matemáticas puede ser resuelto sin atravesar por la obra de Grothendieck. Una obra difícil por lo técnica, sintética y original a la vez, en la que se debe mencionar sin duda alguna los Éléments de géometrie algébrique. Por otra parte, Récoltes et Sémailles es un texto único sobre las relaciones entre la vida y las matemáticas (de alrededor de 1500 páginas). Así, globalmente, se trata de una obra que emerge como condición de posibilidad para la comprensión y solución de numerosos otros problemas matemáticos. E incluso científicos.


Prácticamente todos los textos —libros y artículos— de Grothendieck se encuentran disponibles en http://www.grothendieckcircle.org, conjuntamente con los textos de sus seminarios y las biografías escritas sobre Grothendieck. Sin embargo, permanecen sin publicarse más de veinte mil páginas de sus escritos. El "Círculo de Grothendieck" constituye quizás el más sincero y apasionado de los esfuerzos humanos e intelectuales en torno a un científico —en general— para mantener su obra y su legado.


Finalmente, cabe decir que Grothendieck estuvo casado con M. Dufour y tuvo cinco hijos (tres de su matrimonio y dos de dos relaciones extramatrimoniales distintas).


Alexandre Grothendieck, una hermosa expresión de la complejidad de las relaciones entre la vida, la ciencia —en este caso las matemáticas— y el momento social cultural e histórico que le tocó vivir. Esto es, de la ausencia de correspondencias lineales y formales entre la vida, su ciencia y, en fin, su obra misma.

Publicado en Ciencia y tecnología

Nadie puede ser libre si no le conceden, reconocen y alimentan la capacidad de fantasía, que es, con seguridad, la capacidad misma de independencia y condición de la crítica.

 

La forma en que existen hoy en día la ciencia y la filosofía es como investigación. Quien por estos días no investigue, es un curioso, alguien con intereses intelectuales, en fin, incluso un amante de la lectura y las buenas discusiones. No más. Lo cual, desde luego, no es poco.
Ahora bien, la ciencia y la filosofía no se hacen sin buenas bibliotecas y hemerotecas; no sin laboratorios idóneamente dotados y experticia técnica; no sin el conocimiento de por lo menos un idioma extranjero y la participación en los circuitos correspondientes de conferencias en los que se habla y discute generalmente acerca de los más recientes desarrollos en cada campo; no sin computadores y oficinas decorosas, y ciertamente no sin asistentes de investigación, que muchas veces dispensan especialmente de las tareas mecánicas o administrativas.


Y, sin embargo, nada de ello define a un científico o filósofo por excelencia. Por el contrario, y muy radicalmente, nadie puede ser un filósofo o científico sin una estupenda capacidad de imaginación, fantasía, juegos ideatorios, con toda la libertad, sin constricciones de ningún tipo, y como juegos y experimentos llevados hasta el extremo. Frente al poder y la capacidad de la imaginación y la fantasía, todo lo demás es mecánica, técnica y destrezas. Incluso, lo cual es encomiable, puede ser mucho esfuerzo y trabajo, todo lo cual, fundamentales como son, resultan al cabo insuficientes.


El concepto de experimento mental aparece, sin embargo, apenas hacia 1812, cuando H. Ch. Oersted lo emplea en su sentido actual, y se convierte en una heurística de la investigación, con seguridad la más importante de todas las heurísticas. El concepto originario aparece en alemán y es un Gedankenexperiment. En lo sucesivo el término se emplea en prácticamente todos los idiomas mayores de occidente, incluido, desde luego, el español.


De hecho, los más importantes experimentos en la historia de la filosofía y la ciencia no son experimentos empíricos, físicos y positivos. Por el contrario, son, literalmente, experimentos mentales. Muy recientemente, por ejemplo, es conocido como el propio Einstein expresó que los más importantes de sus experimentos fueron justamente ideatorios, actos y procesos de la fantasía, gracias a los cuales pudo desarrollar su teoría.


Uno de los más famosos experimentos mentales de todos los tiempos es el gato de Schrödinger, un juego ideado por el físico austriaco como una forma de distanciarse del debate entre Bohr y Einstein (la personalidad misma de Schrödinger se corresponde con los juegos de fantasía, siendo él un hombre de sentido de mundo, extraordinario buen humor y conocedor del savoir vivre).


Es sabido que Galileo jamás se subió hasta el extremo superior de la Torre (inclinada) de Pisa y que sus estudios sobre caída libre y fricción fueron el resultado de experimentos mentales. Para no mencionar que, siendo un joven avezado, se aburría cuando sus profesores, todos jesuitas, llevaban a los cursos a orar a la iglesia. El joven Galileo prefería imaginar lo que sucedería si ese invento reciente, el reloj de péndulo, tuviera el péndulo más corto, o más largo. Esta clase de experimentos le permitirían a Galileo sentar las bases de la mecánica clásica, cuyo epítome sería la obra de I. Newton.


En filosofía, quizás el más famoso de todos los experimentos mentales es la paradoja de Zenón, o el burro de Buridano. Heurísticas maravillosas que alcanzaron una impronta fundamental en la cultura humana en general, y en ciencia y filosofía en particular.


Son numerosos los usos que tienen y pueden encontrársele a los experimentos mentales. Lo importante, con todo, radica en el reconocimiento expreso de que los programas de educación, en general, y en particular los programas de educación en ciencia y filosofía, casi jamás enseñan a realizar experimentos mentales –todos, hoy por hoy, preocupados por desarrollar competencias interpretativas y otra clase de nimiedades–, todas las cuales se encargan de arrojar sombras sobre la libertad de la fantasía y la imaginación.


Los experimentos mentales han sido igualmente reconocidos y trabajados como "pompas de intuición". Esa capacidad que es anterior y sobrepasa con mucho al análisis. La intuición, una capacidad innata en todos los seres humanos, pero que es deformada y atrofiada por el peso de una cultura eminentemente racionalista y analítica.


Sería interesante montar un curso ilustrando la historia de la filosofía desde la Grecia antigua hasta nuestros días, o también de la ciencia moderna y contemporánea consistente en experimentos mentales. La máquina de Feymann, la paradoja EPR (Einstein–Podolsky–Rosen), la habitación china (en filosofía de la mente y ciencias cognitivas), el demonio de Maxwell, y tantos otros.


La capacidad de soñar, de imaginar, de fantasear. Sin saber incluso qué resultará de ello, y ciertamente no a priori. La fantasía y la imaginación, tanto como la intuición, tienen eso de particular: que se oponen a cualquier mecanismo de control y de administración, en cualquier acepción de la palabra.


Formar en ciencia y filosofía consiste, ciertamente, en formar gente libre. Pero de todas las libertades, con seguridad la primera y más radical consiste en soñar, imaginar, fantasear. Por ejemplo, soñar mundos posibles, imaginar alternativas a hechos reales. La lógica de contrafácticos, por ejemplo, es conspicua al respecto. Una lógica que es de gran ayuda en campos como los estudios políticos, las relaciones internacionales y los análisis de sistemas administrativos, por ejemplo.


Nadie puede ser libre si le conceden, reconocen y alimentan la capacidad de fantasía, que es, con seguridad, la capacidad misma de independencia y condición de la crítica. Al fin y al cabo, la verdadera esencia de la ciencia y la filosofía estriba –como es de hecho ya el caso en las artes, la literatura y la poesía– en soñar posibilidades, imaginar espacios, tiempos, estructuras y dinámicas posibles. Todo ello en un mundo que olvidó soñar y que no le otorga espacios a la fantasía. Soñar lo posible, e incluso lo imposible mismo.

 

Publicado: Miércoles, 03 Diciembre 2014 22:28

Publicado en Ciencia y tecnología

Una técnica para hacer transparentes los animales de laboratorio, una pantalla para dispositivos móviles que corrige los defectos visuales y un wifi cargador para eliminar cables son tres de los diez avances actuales que podrían diseñar el futuro. Estas innovaciones, seleccionadas por la revista Scientific American, tienen un gran potencial si logran salir de los laboratorios y muchas también resultarían útiles en países pobres y contribuyen a proteger el medioambiente.

 

Ver cómo se diseminan y multiplican los virus por el cerebro o identificar los nervios periféricos para acelerar la investigación biomédica son algunos de los usos que tiene un animal de laboratorio convertido en transparente una vez muerto. Inspirada por la conocida exposición de cuerpos humanos plastinados, la investigadora Viviana Gradinaru se planteó algo parecido con ratones muertos y consiguió hacerlos transparentes, sustituyendo los lípidos de los tejidos por sustancias químicas y sustituyendo la estructura natural por otra artificial. Los tejidos son tan transparentes que se han conseguido detectar hebras individuals de ARN, dice Gradinaru. También se han podido aislar y marcar células cancerosas de una biopsia de cáncer de piel humano. Obtener mejores mapas de las redes neuronales es otra de las aplicaciones en marcha con esta técnica.


En el área de las aplicaciones de uso cotidiano se presenta una pantalla para dispositivos móviles de comunicación que corrige los defectos visuales del usuario, o sea, las gafas están en la pantalla, mediante una combinación de elementos físicos y programación. Se puede corregir la miopía, la hipermetropía, el astigmatismo y otros problemas de visión, introduciendo los datos del usuario, y se trabaja en un mecanismo de control en el propio teléfono que permita adaptarlo fácilmente a usuarios distintos.


Otra investigadora, Meredith Perry, confió en sus conocimientos para desarrollar una técnica que casi todos le decían que era imposible que funcionara. Es un transmisor de ultrasonidos, en fase de prototipo, que actúa como un altavoz direccional para concentrar en un punto en el espacio la energía mecánica del sonido, energía que un receptor piezoeléctrico conectado a un dispositivo electrónico convierte en electricidad. De esta forma se podrá prescindir de los múltiples cables y cargadores de los dispositivos móviles, afirma la inventora, y también reducir el peso de aviones, naves espaciales y otros vehículos que llevan aparatosos cables de potencia. Antes, se han probado técnicas similares basadas en la resonancia e inducción magnéticas, que funcionan pero tienen muy poco alcance. Los ultrasonidos, en principio, no plantean problemas de seguridad.

En este mismo campo de la energía, se plantea aprovechar la energía disipada en instalaciones industriales en forma de calor, la mayor parte a baja temperatura. Investigadores del MIT han conseguido recuperarla incluso cuando solo se alcanzan los 50 grados, aprovechando el efecto termogalvánico y la creciente eficiencia de los electrodos de las baterías. En el futuro, ven las paredes de las fábricas y las centrales eléctricas cubiertas de baterías que aprovechan el calor para producir electricidad. Mientras tanto, en Arabia Saudí, una diminuta pila de combustible bacteriana, alimentada con saliva, es la base de una interesante línea de investigación. La saliva alimenta las bacterias, que producen electrones, y la pila produce un microvatio de potencia, que es muy poco pero suficiente para alimentar diminutos chips de análisis y seguimiento de enfermedades como la diabetes. Ahora se está experimentando la integración de la célula en un riñón artificial, donde se alimentaría de los fluidos corporales del enfermo para mantener en marcha la máquina.


En biología, la técnica que más atención merece en esta selección es una herramienta para manipular el ADN en un genoma de forma muy precisa y rápida, que ya se está utilizando. Se llama Crispr y que sea tan fácil, rápida y barata está provocando preocupación en algunos sectores científicos por los riesgos que implica éticamente. Al igual que técnicas anteriores que provocaron el auge actual de la ingeniería genética, se basa en un profundo conocimiento de la biología, en este caso de los métodos de defensa de las bacterias frente a los virus. Una proteína utilizada como tijeras por una bacteria para destruir un virus atacante ha demostrado ser ideal para inutilizar genes o insertar material genético nuevo. Las aplicaciones posibles son infinitas. Un investigador ha conseguido eliminar en células humanas la infección por VIH (el virus del sida) e incluso inmunizar las células frente a futuros ataques del virus.


Las células también se pueden reprogramar o controlar con otros métodos, como lograr penetrar su membrana simplemente ejerciendo presión hasta que la deformación produce pequeños agujeros temporales por los que se pueden introducir proteínas, ácidos nucleicos y nanotubos de carbono. A nadie se le había ocurrido hasta hace poco, pero ya existen 16 chips diferentes con canales por los que circulan las células, canales que se estrechan hasta que la deformación permite acceder a su interior para múltiples procesos necesarios en los laboratorios.

En física, el Lego a escala atómica representa uno de los futuros grandes logros de la nanotecnología. Es consecuencia de la creación del grafeno, un material que consiste en una finísima capa de solo un átomo de carbono de espesor, obtenida a partir del grafito (el material de los lápices). Construir estructuras con bloques de grafeno y otros materiales monoatómicos, extraídos, por ejemplo, de la mica, es una tecnología que todavía está poco desarrollada porque presenta grandes dificultades. Se han conseguido ensamblar hasta cinco capas diferentes, y el conjunto resulta ser flexible y transparente. La imaginación no tiene límites respecto a las posibles aplicaciones. "El progreso humano siempre ha seguido de cerca al descubrimiento de nuevos materiales", afirma el premio Nobel André Geim, uno de los descubridores del grafeno.

La lista de avances se completa con un plástico ultrarresistente -llamado Titan- salido de los laboratorios de IBM, que además es reciclable. Es el tipo de material que se puede utilizar en aviones y automóviles y que la industria demanda de forma creciente. Y, finalmente, con una cámara de vídeo que puede detectar nanopartículas, con la misma resolución que los carísimos y complicados microscopios electrónicos. Se podría utilizar para leer mensajes de identificación codificados en todo tipo de materiales, desde un medicamento a un explosivo, por poner un solo ejemplo.

Publicado en Ciencia y tecnología
Lunes, 24 Noviembre 2014 17:53

¿Qué es la cohomología?

Pensar la cohomología significa pensar en términos de multiplicidades, cocadenas, cocliclos, cobordes, poniendo de manifiesto que lo apasionante del mundo no estriba ya únicamente en lo real o en lo posible.

 

Hay un rasgo apasionante, novedoso y, sin embargo, desconocido para la mayoría de las personas acerca de la ciencia de punta contemporánea. Se trata del hecho de que la buena ciencia de frontera no se ocupa ya única y principalmente por lo real, en toda la acepción de la palabra. Ni siquiera tampoco por lo posible en todas sus modalidades (lo hipotético, lo contingente, lo probable, y demás).
Además y, fundamentalmente, la ciencia de punta nos enseña a pensar en lo imposible. Esto es, en estructuras, en fenómenos, en comportamientos, en dinámicas imposibles. El capítulo que hace propia esta otra dimensión pertenece, en general, a las matemáticas, y en particular a la topología: se trata de la cohomología. Y el ámbito específico de trabajo se denomina las multiplicidades. Un tema matemáticamente muy sofisticado y, sin embargo, bastante natural.


Una multiplicidad es en matemáticas la cantidad de pertenencias de un miembro de un multiconjunto. En otras palabras, una multiplicidad es un espacio topológico que en escala micro, en los aspectos singulares, se asemeja a un espacio euclidiano, pero globalmente difiere por completo. En términos elementales: a escala micro puede ser considerado como una figura plana euclidiana —líneas, planos, círculos—, pero a escala global (como un todo) dista mucho de ser un espacio euclidiano.


El padre de la cohomología, en general, y del que es quizás el capítulo más importante, que es la cohomología de gavilla (sheaf cohomology), es el matemático francés Alexander Grothendieck (1928–2014), fallecido el 13 de noviembre pasado. Un auténtico genio. Algunos de los desarrollos más recientes en el tema corresponden a R. Penrose, quien ha trabajado justamente en la cohomología de figuras imposibles.
Vale recordar que las tres operaciones básicas que se hace con los objetos o con el espacio en topología son: torcer, estirar y comprimir. Derivativamente, existen funciones y tensores de torción y demás, correspondientemente.


La manera más básica de entender y de acercarse a la cohomología consiste en recordar que en matemáticas la teoría de homologías —que remiten ulteriormente a los grupos abelianos (en honor del matemático noruego N. H. Abel)— se encarga del estudio de grupos (o módulos) de acuerdo a un espacio topológico. Más exactamente, la homología contribuye a la clasificación de los tipos de espacios.


Pues bien, el aspecto verdaderamente apasionante es que existen, en matemáticas, infinitos espacios. Y cada geometría designa un espacio distinto. Así, tenemos la geometría euclidiana, las geometrías no euclidianas (Riemann y Lobachevsky), la geometría proyectiva, la geometría de taxis, la geometría hiperbólica, la geometría de fractales, y así muchísimas más.


Al respecto, es fundamental observar que en el universo y en la naturaleza coexiste una multiplicidad de espacios diferentes. Y entre ellos hay, incluso, espacios imposibles, formas y patrones imposibles, estructuras y comportamientos imposibles. Pues bien, la cohomología consiste en el estudio de grupos (abelianos) definidos a partir del estudio de co–cadenas, cociclos o cobordes (vale recordar que la teoría de catástrofes, desarrollada por R. Thom, nace a partir de los antecedentes de trabajo por parte del propio Thom en el tema del cobordismo).


La manera culturalmente más próxima de acercarse a la cohomología puede ser a través de la obra en xilografías y litografías de M. C. Escher (1898—1972). Escaleras imposibles, aves que se convierten en peces, la mano que dibuja a la propia mano, en fin, desviaciones, juegos, transformaciones de la percepción natural.


En efecto, si debemos a F. Bruneleschi (1377–1445) el descubrimiento de la perspectiva, lo que ello significa en términos culturales es que la burguesía, como clase social, introduce una nueva visión perfectamente distinta a las que había habido en la historia de la humanidad. La burguesía tiene "un punto de vista", "una perspectiva", un "punto de fuga", y todo eso es la perspectiva. Las cosas, el mundo, se ven desde un punto de vista en cada caso. En lo sucesivo, en contraste con el medioevo, por ejemplo, ya no habrá una visión desde ninguna parte o, lo que es equivalente, una visión de todas partes.


Pensar la cohomología significa pensar en términos de multiplicidades, cocadenas, cocliclos, cobordes, poniendo de manifiesto que lo apasionante del mundo no estriba ya únicamente en lo real o en lo posible. Sino en el descubrimiento, en el trabajo con, y en la pasión con lo imposible mismo.


Vale la pena subrayar esta idea. Si pensar bien es pensar en todas las posibilidades, y si quien piensa bien piensa en todas las posibilidades, dentro, al lado, complementarias, en fin a éstas está, se encuentra aquella dimensión jamás imaginada en toda la historia de la humanidad. La existencia, la tematización, la problematización misma de lo imposible. Podemos así decir que quien piensa bien piensa incluso en lo imposible mismo. Es exactamente en esto, queremos decirlo, que estriba el significado cultural y social de un capítulo técnico, novedoso y apasionante de las matemáticas: la cohomología.


Naturalmente que existe una variedad amplia de teorías cohomológicas. Lo maravilloso de todas ellas (teorías ordinarias de homología, teorías K, bordimos y cobordismo) es que se trata de desarrollos perfectamente recientes, de todos los cuales el más antiguo no lega a cincuenta años, al día de hoy.


Las matemáticas constituyen un campo singular en la experiencia humana. Frente al temor que irracionalmente despiertan —debido a pésimos educadores y muy malos medios de comunicación social—, hay que decir que las matemáticas de hoy no consisten en fórmulas, ecuaciones o reglas; sino, mejor aún, en el estudio de estructuras, y según lo que les suceda a las estructuras: si permanecen o si cambian; y si cambian, entonces se trata de saber si en el cambio siguen siendo las mismas o se transforman.


La abstracción de las matemáticas es sencillamente la capacidad de imaginar o de soñar tantas posibilidades como quepa fantasear. Y ver entonces qué sucede con ellas. Pues bien, en el espectro de las posibilidades hay una que la historia de la humanidad jamás había considerado: el encuentro con lo imposible mismo. Una de las últimas fronteras.

Publicado en Ciencia y tecnología

Investigadores de la NASA han logrado teletransportar información sobre el estado cuántico de un fotón, una partícula de luz, a 25 kilómetros de fibra óptica hasta un 'banco de memoria' en cristal.

 

El récord anterior en la fibra óptica era de 6 kilómetros. Este fenómeno complejo de teleportación cuántica podría tener implicaciones para la criptografía, que consiste en la transmisión de información de forma segura, incluidas las comunicaciones entre la Tierra y las naves espaciales.


"Podemos imprimir el estado de un sistema en otro sistema, incluso cuando los dos están muy separados," dijo Francesco Marsili, ingeniero de microdispositivos del Laboratorio de Propulsión a Chorro (JPL) de la NASA en Pasadena. "El uso de este efecto en las comunicaciones podría ayudar a la construcción de una red de comunicaciones espaciales intrínsecamente segura, es decir, canales de comunicación que no puede ser hackeados."


Marsili y sus colegas del InstitutoNacional de Estándares y Tecnología (NIST), desarrollan dispositivos que pueden detectar las partículas individuales de luz, llamados fotones desarrollados.

"Es difícil de detectar un único fotón, por lo que se necesita para hacer un detector sensible", dijo. "Aquí en el JPL, en colaboración con el NIST, hemos desarrollado el detector más sensible en el mundo."


Así funciona


¿Cómo funciona la teleportación cuántica? Es complicado, pero una analogía para el principio en que se sustenta puede ayudar: Digamos que hay dos personas, Alice y Bob. Alice quiere que Bob tenga un fotón que esté en el mismo "estado" que su fotón, que llamaremos fotón P.
En aras de esta analogía, vamos a pretender que el "estado" es un color, y el fotón P es amarillo. Una tercera persona llamada Charlie envía dos fotones entrelazados, fotón A a Alice y fotón B a Bob, que se comportan como si fueran parte de un mismo todo. Ambos de estos fotones se muestran en azul.

 

"En un sistema enredado, cada parte está conectada entre sí de una manera fundamental, de manera que cualquier acción realizada en una parte del sistema enredado tiene un efecto en todo el sistema enredado", dijo Marsili.


Los dos fotones de Alice, P, que es de color amarillo, y A, que es de color azul, "chocan". Alice mide los fotones como se aniquilan entre sí. Aunque P y A son destruidos en el accidente, se conserva el color amarillo de P. Debido a que los fotones A y B de fotones están entrelazados, el color amarillo es "teletransportado" a B. Pero con el fin de hacer que el fotón B se convierta en amarillo, como el fotón P era originalmente, Alicia necesita enviar a Bob dos bits de información a B mediante la manera "clásica" – por ejemplo, mediante el envío de pulsos de luz a través de una fibra óptica.


"Cuando Alice mide el estado de su fotón, los fotones de Bob cambian de estado también, como si se activara un interruptor", dijo Marsili. "Pero Bob no puede saberlo a menos que Alice le envíe los bits de información clásica". Bob no sabe que su fotón ha cambiado a amarillo sin esa información adicional.


El teletransporte cuántico no significa que alguien puede saltar de Nueva York a San Francisco instantáneamente, pero parece ciencia ficción en el sentido de que el estado de una partícula (fotón P) se destruye en un solo lugar, pero se reproduce en otro sistema remoto (fotón B ) sin que las dos partículas hayan interactuado nunca.


Otra pieza fundamental de esta historia es que Bob tiene un cristal específico, que sirve como un banco de memoria, para almacenar su fotón entrelazado y servir como destinatario del estado cuántico.


Los investigadores llegaron a la distancia récord de 25 kilómetetros entre "Alice" y "Bob" gracias a los detectores ultrasensibles desarrollados por el JPL y el NIST. "Llegar a esta distancia no habría sido posible sin esos detectores", dijo Félix Bussières en la Universidad de Ginebra, autor principal del estudio.


El teletransporte cuántico se puede utilizar para hacer que sistemas como cuentas bancarias sean más seguras a través de distancias más largas. Esto también es importante para la prevención de los ataques a los canales de comunicación en el espacio.
"Si te estás comunicando con sus astronautas en Marte, debes impedir que los hackers rompan el canal codificado y les den información falsa", dijo Marsili.


(Con información de Europa Press)

Publicado en Ciencia y tecnología

Cómo convertir la destrucción creativa en crecimiento neto


Las cifras alusivas al crecimiento económico (asumido como valor añadido de las labores humanas a la naturaleza que se supone mera materia prima) y de productividad (mayor producción de bienes y servicios por la labor humana en determinado período de tiempo), son entendidos hoy como signos y síntomas de buena salud económica. Crecimiento económico y productividad insomne son los dos sagrados mandamientos de la economía de mercado.


Los mencionados indicadores presentan al menos los siguientes tres crasos errores, a saber: i) suprema abstracción que permite introducir peras y manzanas, bienes y males, vicios y virtudes, en un solo costal; ii) supuestos de sospechosa ingenuidad, que permiten catalogar como crecimiento todo aquello que arroje la economía, aunque sea destructivo –como armas–, nocivo –como basura–, y banal –como inocuos lujos y dudosos servicios–; iii) ausencia de estudios cualitativos que permitirían dudar de calificar como crecimiento la extracción de minerales y energías del suelo, y también la redundante multiplicación de copias y modas.


En un mundo obsesionado con producir cada vez más y más rápido, para registrar más crecimiento y mayor productividad, es apenas sensato poner en duda la mayor salud económica al saber que se juzga como producción y, aún como progreso, las siguientes abominaciones: excedentes inocuos (modas, bienes y servicios que nacen de necesidades creadas); males y daños económicos (agotamiento de recursos no renovables cuantificados como crecimiento); congestión en las grandes urbes que en las cuentas se registra como incremento en la venta de gasolina y otros combustibles; contratación de más abogados y gendarmes como consecuencia de mayor criminalidad y conflictividad social; producción de bienes y servicios con obsolescencia programada, y de cosas y gentes condenadas a ser desechables.
El gran economista Schumpeter mostró que la economía de mercado es un proceso de creación destructiva; los mucho menos grandes econometristas y tecnócratas, con sus ciegas perspectivas cuantitativas se niegan, con sospechosa ingenuidad, a mostrar y a cuantificar el lado destructivo del mercado.


Sobre el significado de la biblioteca de Babel


Jorge Luis Borges mostró la redundancia de publicaciones y, con ella, la creciente trivialidad de los hallazgos que solo incautos o malintencionados pueden llamar "generación de nuevo conocimiento", y lo expresó magistralmente en su Biblioteca de Babel (1), así: "[...] Hace quinientos años, el jefe de un hexágono superior dio con un libro tan confuso como los otros, pero que tenía casi dos hojas de líneas homogéneas. Mostró su hallazgo a un descifrador ambulante, que le dijo que estaban redactadas en portugués; otros le dijeron que en yiddish. Antes de un siglo pudo establecerse el idioma: un dialecto samoyedo-lituano del guaraní, con inflexiones de árabe clásico. También se descifró el contenido: nociones de análisis combinatorio, ilustradas por ejemplos de variaciones con repetición ilimitada. Esos ejemplos permitieron que un bibliotecario de genio descubriera la ley fundamental de la Biblioteca. Este pensador observó que todos los libros, por diversos que sean, constan de elementos iguales: el espacio, el punto, la coma, las veintidós letras del alfabeto. También alegó un hecho que todos los viajeros han confirmado: No hay en la vasta Biblioteca, dos libros idénticos. De esas premisas incontrovertibles dedujo que la Biblioteca es total y que sus anaqueles registran todas las posibles combinaciones de los veintitantos símbolos ortográficos (número, aunque vastísimo, no infinito) o sea todo lo que es dable expresar: en todos los idiomas. Todo: la historia minuciosa del porvenir, las autobiografías de los arcángeles, el catálogo fiel de la Biblioteca, miles y miles de catálogos falsos, la demostración de la falacia de esos catálogos, la demostración de la falacia del catálogo verdadero, el evangelio gnóstico de Basilides, el comentario de ese evangelio, el comentario del comentario de ese evangelio, la relación verídica de tu muerte, la versión de cada libro a todas las lenguas, las interpolaciones de cada libro en todos los libros, el tratado que Beda pudo escribir (y no escribió) sobre la mitología de los sajones, los libros perdidos de Tácito [...]".


Bien. Ante la creciente división social del conocimiento en disciplinas y luego en fragmentos cada vez más irrisoriamente especializados al interior de estas, cada investigador expone hoy conocimientos o seudo-conocimientos, y mera basura informativa, de ínfimos y ridículos fragmentos: tiende a conocer el todo de lo ínfimo. Hoy aumenta frenéticamente el número de publicaciones y se reduce ostensiblemente el número de lectores para cada fragmento de ciencia especializada. Así las cosas, la manera más burda y racional (como la vía del menor esfuerzo), consiste en diseñar indicadores cuantitativos de crecimiento y productividad: se juzga el número de artículos y de libros que iluminados jueces académicos han ubicado en catálogos o bases de datos.


Lo preocupante hoy debería ser la publicación ad nauseam de artículos y libros, y quizás la única utilidad de las bases de indexación y los registros de producción bibliográfica sea la de constatar el exceso de escritura: los indicadores sólo captan cuánto y a qué velocidad un autor escribe pero dejan de lado lo esencial que es el proceso para digerir críticamente y dar el debate a lo producido. Y como aún los más famosos y creativos son presas de la redundancia, cada vez que muere un gran autor como F. Hayek, J. Buchanan, o A. Hirschman, los conocedores de su vasta obra se deciden a publicar un libro que condensa la esencia de los aportes de este tipo de autores.
Fantasía gringa que resulta superada por la realidad macondiana.


James Scott (2) imaginó que Condolezza Rice, la famosa exsecretaria de Estado, asumiría en el año 2020 la rectoría de la Universidad de Yale con la promesa de "[...] conducir una total reestructuración del profesorado utilizando las técnicas más avanzadas de gestión de calidad; técnicas perfeccionadas desde sus rudimentarios inicios en las Grandes Ecoles de París a finales del siglo XIX, encarnadas no solo en la revolución en Ford de Robert McNamara, y más tarde, en la década de 1960, en su trabajo en el Ministerio de Defensa, sino también en la revolución de Margaret Thatcher con respecto a la gestión de política social y de educación superior en el Reino Unido en la década de 1980; y refinadas por el desarrollo de la medición numérica de la productividad de los individuos y de las unidades en la gestión industrial; técnicas que el Banco Mundial haría evolucionar todavía más, y que las universidades del grupo Big Ten llevaron al borde de la perfección [...]".


Y vaticinando lo que se avecina como una aplastante certeza, este veterano profesor de Yale imaginó que cada profesor tendría por uniforme y registro de sus aportes (producción académica, productividad, frecuencia de citación y obsolescencia de sus investigaciones), una gorra que, en tiempo real, y a través de un visible y sonoro tablero electrónico diese tales datos segundo a segundo al público: clientes estudiantes, colegas rivales, y empleadores de la universidad.


A punto de cumplirse tres lustros de inaugurado el siglo XXI en el país donde nació uno de los grandes artífices del realismo mágico, legiones de científicos senior y junior están engendrando una nueva modalidad de indicadores de producción y productividad cognitiva –siguiendo las directivas del supremo órgano rector de la ciencia y tecnología.


El legado gringo, proyectado al resto del mundo, se basa en los conocidos campos de la informetría, bibliometría y cienciometría que hoy hace posible cuantificar la producción científica para poder determinar la productividad de los seres dedicados a la ciencia. Los avances de tales técnicas cuantitativas son apenas un signo de los nuevos tiempos: los calmados viejos cientistas acostumbraban a decir "publicar o morir", hoy los acelerados competidores que se creen productores de ciencia pueden perder su cargo, ver devaluado su título y aún fenecer por obsolescentes si dejan de cumplir dos sagrados preceptos: i) publicar el mayor número de artículos en revistas indexadas cada vez más exclusivas (de bases de indexación ultra-superiores), y otros productos (libros de investigación, consultorías académicas y comerciales, y artículos menores) cada semestre; ii) posicionar su oferta cognitiva en los más altos rangos de venta (dado que los productos no citados se consideran inexistentes entonces hay que lograr el mayor número de citaciones).

Los ingeniosos reguladores y auditores que en Colombia siguen la pista de la productividad del conocimiento científico han hecho un aporte sustantivo a tal técnica, el cual obedece a la siguiente pauta: no basta con publicar y con ser productivo en dicha tarea pues hay que demostrar que los productos cognitivos son completamente auténticos, para lo cual han de contar con el sello de fe pública que emite algún sagrado notario. Hoy todas las facetas y secuencias de la producción (el output científico) sólo existen en tanto se acompañes de toda clase de certificaciones y registros legales que prueben la buena fe de quienes hacen ciencia. Es de sospechar que en un mañana cercano todas las fuentes y etapas de los insumos de la investigación (el input científico) también deberán ser legalmente certificadas: aquello que no tiene el santo y seña de la legalidad y formalidad notarial no existe, aunque se trate de una realidad palpable.


Una de las presumibles consecuencias de tan notable avance en la informetría con registro notarial será la desaparición acelerada de aquellos científicos sociales ocupados de campos oscuros y tenebrosamente subterráneos: la informalidad, los actores ilegales, los mercados negros, los bienes y servicios prohibidos e ilegales, y también los grupos indígenas y campesinos que manejan sus propias normas comunitarias pues, una vez más hay que repetir: toda realidad que no tenga un registro legal no existe.


Y como si lo anterior fuese poco, el tiempo de los que investigan o creen investigar se extinguirá en las arduas y prolongadas tareas de registrar con un sello legal cada faceta del proceso investigativo, por trivial que esta pueda parecer. En un país donde el plagio, la copia y la falsificación no son eventos extraordinarios se reeditará la pesimista sentencia de Hobbes así: el hombre es un copión de su prójimo, y de todo productor de investigaciones científicas sospecharás que es un plagiario.

Notas

1. El conocido cuento aparece en Ficciones, con el sello editorial Alianza

2. Scott, James, Elogio del anaarquismo, Crítica, Barcelona, 2013

 

Publicado en Ciencia y tecnología
Página 1 de 5