Inteligencia artificial, academia y posthumanidad

En todos los casos, la nueva tecnología fue, al mismo tiempo, servil y rebelde, opresora y liberadora.

Desde el primer Silicon Valley de la historia en lo que es Irak hoy pero cinco mil años atrás (y, por lejos, más importante que el Silicon Valley de California) hasta la Revolución Industrial en Inglaterra, las tecnologías revolucionarias fueron el producto de las necesidades de sociedades agrícolas prósperas que se convirtieron en ciudades, luego en imperios y finalmente interrumpieron o destruyeron el mismo desarrollo en sus colonias. El arado, la rueda, las matemáticas, la escritura en acilla de los sumerios y babilonios; el álgebra, los algoritmos y las ciencias del mundo musulmán miles de años después; la prensa de caracteres móviles siete siglos más tarde en la Europa de los humanistas; las ciencias experimentales en la Italia de Galileo, dos siglos después; los periódicos, la radio, la televisión, las computadoras e Internet más recientemente: en todos los casos, la innovación resultó en un desafío para las sociedades, desde la administración del poder hasta la educación.

A nuevas soluciones, nuevos problemas. En todos los casos, la nueva tecnología fue, al mismo tiempo, servil y rebelde, opresora y liberadora. Siempre fue una oportunidad de democratización y siempre fue secuestrada por los poderes de turno. La robotización y la Inteligencia Artificial no son excepciones―por el momento. En tecnología, la única excepción será cuando crucemos el límite que separa el poder de provocar una catástrofe, como las bombas atómicas en Japón, del poder de aniquilación de la humanidad o de las formas conocidas de civilización desde la antigua Sumeria.

Los chats con (ro)bots inteligentes tienen ya unos cuantos años y, desde el comienzo, se observó su capacidad de repetir y amplificar los peores prejuicios humanos, como fue el caso de la robot Tay de Microsoft, la que en 2016 nació con 19 años y debió ser sacrificada con apenas 16 horas de vida, después de haber interactuado con usuarios de Twitter hasta convertirse en una racista más. Como es de notar, el problema no son solo los robots inteligentes. Una década antes, publiqué artículos y algún libro con esta preocupación: “Mientras las universidades logran robots que se parecen cada vez más a los seres humanos, no sólo por su inteligencia probada sino ahora también por sus habilidades de expresar y recibir emociones, los hábitos consumistas nos están haciendo cada vez más similares a los robots”. Ellos aprenden de nosotros y nosotros aprenderemos de ellos. En 2017, en la novela Silicona 2.0, la robot, objeto sexual y psicoanalista a tiempo completo, se convierte en una asesina de sus amos-amantes, luego de que se usara como Eva o semilla de estas robots a una empresaria con un ego estimable y un pasado traumático que ella mismo desconocía.

Ahora, el tema de discusión y preocupación en la academia y en el resto de la sociedad es el desafío y el peligro de este nuevo instrumento. Las facultades de lenguas fueron las primeras en sufrir una (infundada) crisis existencial con los sofisticados (y con frecuencia tontos) traductores de Google. Ahora les llegó la misma crisis a los profesionales de la escritura, profesores de inglés en al mundo anglosajón, periodistas, pensadores en general bajo la idea de que “saber escribir es saber pensar―con orden”.

El error, entiendo, está en confundir una herramienta con un esclavo que hace nuestro trabajo, el  que luego se convertirá, de forma rápida e inadvertida, en nuestro amo. En este sentido, la IA es una realidad que debe tomarse como una oportunidad. La educación universitaria de la Era de la Inteligencia Artificial ((IA) deberá usar y desafiar a la IA, como la pintura moderna desafió a la fotografía en el siglo XIX o las matemáticas a las computadoras. De no ser capaz de ello, deberá enfrentarse a su propia aniquilación luego de varios miles de años de existencia.

Primero, veamos las debilidades de herramientas de Inteligencia Artificial como ChatGPT y luego sus posibilidades a futuro en la academia. Para empezar por lo general, veo una debilidad de esta herramienta en su alta fragmentación. Esta fragmentación hace improbable una comprensión general de un problema. Tampoco ayuda a desarrollar habilidades intelectuales para una visión holística de la realidad. Todo lo contrario. En muchos casos, es una Wikipedia simplificada o más cómoda para un estudiante perezoso. Por ejemplo, es un excelente programador de sistemas operativos (es su mundo) y un instrumento razonable para ahorrar tiempo en las humanidades, pero absolutamente incapaz de realizar una investigación crítica y profunda por sí mismo. No le pidas algo que nadie sabe.

ChatGPT toma un examen

De la misma forma que años atrás podíamos detectar plagio en un estudiante evaluando la complejidad analítica de un ensayo, no resulta muy difícil intuir cuando alguien está usando ChatGPT, al menos sin maquillaje. Las respuestas comienzan, sistemáticamente, con el sujeto de la pregunta, algo que nuestras maestras de primaria nos obligaban a hacer en el Uruguay de los años 70s. Luego sigue una estructura previsible e invariable, un formato tripartito que los profesores todavía aprecian en los ensayos de sus estudiantes. Un formato efectivo y tal vez con alguna raíz neurológica más allá de la cultura.

Para tener un parámetro de comparación, sometí a ChatGPT de Open AI (los de Google y Microsoft no son muy diferentes) a uno de mis exámenes de International Studies en Jacksonville Unviersity, el cual es tomado cada semestre por estudiantes de distintas estados y continentes. ChatGPT aprobó el examen con 84 sobre 100, algo para nada difícil, lejos de los exámenes de Matemáticas o Estabilidad que tomábamos en los 90s en la facultad de arquitectura de Uruguay, los que duraban de seis a siete horas. Pero los errores fueron significativos y de tres categorías: 1) enciclopédicos; 2) de prejuicios (bias); y 3) de juicio crítico.

Errores enciclopédicos

Entre los errores más simples (enciclopédicos) están, por ejemplo, mencionar que la “leyenda negra” de la conquista española se refiere a la descripción de los indígenas como salvajes; no a los conquistadores españoles como genocidas.

Otro error enciclopédico grave, aunque no me preocupa tanto por ser fácilmente corregido, está, por ejemplo, la atribución a una supuesta dictadura de Augusto Sandino en Nicaragua de 1926 a 1933.

Prejuicios ideológicos y culturales

Otra de las debilidades críticas de ChatGPT son similares a los de la joven Tay: sus prejuicios culturales, como el eurocentrismo o su miedo innato a narrativas dominantes. Ante la pregunta sobre la evolución de la expectativa de vida de la humanidad desde la prehistoria hasta hoy, ChatGPT se demora en detalles referidos a Europa. Europa es la Humanidad. ¿Suena conocido? Cuando los errores son sistemáticos, se convierten en un problema significativo y funcional. Veamos unos pocos ejemplos más, sólo referidos a América Latina:

1. Cuando ChatGPT compara las visiones cosmológicas entre la Europa renacentista y los indígenas americanos, se limita a clichés obre el politeísmo vs. el monoteísmo y no considera siquiera la concepción materialista europea que separó espíritu de materia y la visión más integradora de los pueblos americanos.

2. Ante la pregunta sobre las consecuencias de la conquista europea en las Américas, ChatGPT es objetivo hasta que intenta equilibrar con lo que titula “Las consecuencias positivas” como “el desarrollo de nuevos mercados, la expansión del cristianismo y de nuevas instituciones religiosas”.

3. Cuando intenta explicar la guerra Mexicoamericana de 1846, milagrosamente acierta al mencionar el histórico tabú de la expansión de la esclavitud, pero luego tropieza al intentar mostrar objetividad mencionado “también” el propósito de “llevar los valores estadounidenses de democracia a México”.

4. Según ChatGPT, la guerra de 1898 contra España en Cuba “fue la primera guerra que Estados Unidos luchó en el extranjero. ChatGPT omite que desde las 13 colonias, todos los avances sobre los territorios indígenas y luego mexicanos fueron “guerras en el extranjero”. De hecho, los cientos de “forts” eran “bases militares” en el extranjero.  Por si fuese poco, nunca menciona el rol del periodismo amarillo de Pulitzer y Hearst en Nueva York, el que inventó de la nada y en pocas horas la historia del ataque español al acorazado USS Mane frente a La Habana. Por el contrario, primero afirma que “las investigaciones iniciales atribuyen el ataque a una fuerza exterior” y luego usa la voz pasiva para afirmar una vaguedad mayor: “el incidente continúa sin ser resuelto; en su momento se creyó que había sido un ataque español…” La tripulación del USS Maine informó de un accidente y, poco después, el experto oficial naval estadounidense Philip R. Alger afirmó que no existía tecnología de torpedo capaz de explicar el hundimiento. Suena muy similar a uno de los tantos exámenes que durante años debí leer: un joven estudiante se sorprende de que sus mitos de la infancia no eran más que inventos, e intenta mediar entre la verdad y sus sentimientos patrióticos. Así concluye ChatGPT: “la destrucción del USS Maine continúa siendo un misterio y probablemente su causa nunca sea conocida”. Lo que es bien conocido es el eslogan de guerra “¡Recuerda el Maine! Al diablo con España”. Lo más real entre todos los misterios.

4. Cuando ChatGPT intenta explicar la Revolución mexicana, no menciona ni una sola vez la razón del 85 por ciento de indios y campesinos sin tierra: la Ley Lerdo y su radicalización durante la dictadura de Porfirio Díaz. Es decir, la privatización de la tierra que benefició a la oligarquía y a las transnacionales. Por el contrario, se despacha con ingenuidades como “la población mexicana estaba creciendo muy rápido y el gobierno no pudo proveerles de tierras”.

5. Contestando a las razones de las Guerras bananeras en América Central y el Caribe, ChatGPT acierta al comienzo y vuelve a tropezar con la piedra del prejuicio políticamente correcto al final, todo en una sola frase: “el objetivo de esas intervenciones era proteger los intereses económicos de Estados Unidos, promover la democracia y contener la expansión del socialismo”. Por entonces, la principal justificación no era, como en la guerra fría, el socialismo o el comunismo sino el racismo: poner orden en las repúblicas de negros. Para ello, no hubo ni una sola democracia promovida por Washington y las corporaciones estadounidenses sino matanzas y brutales dictaduras bananeras. Es todos los casos y sin excepción.

6. Cuando se le pregunta directamente sobre los “protectorados”, ChatGPT directamente contesta “Estados Unidos no tenía protectorados, sino territorios y posesiones”. Del general más condecorado de Estados Unidos, Smedley Butler, quien denunció que las guerras imperiales de su país eran un servicio a Wall Street, ChatGPT lo define como figura “controversial”. Quienes cometieron crímenes de guerra, nunca son etiquetados como controversiales.

7. Ante la pregunta sobre los muertos del Imperio Británico, ChatGPT reconoce “los millones” de víctimas. Ni una mención a que sólo en India superaron los 160 millones en solo 40 años, es decir, apenas una parte de los muertos del capitalismo que exceden, por lejos, a los muertos del comunismo, tema recurrente en las redes sociales. Otra vez, para “equilibrar” y pasar como objetivo, ChatGPT concluye: “Es importante entender que el Imperio Británico también tuvo aspectos positivos, como la educación, la infraestructura y la salud”. Claro, educación imperialista y de cipayos; infraestructura que sirvió para extraer los recursos naturales de cada colonia e imposibilitó el desarrollo propio; y salud que redujo la expectativa de vida de la población donde la corona inglesa y sus empresas privadas, como la East Indian Company, pusieron pie.

8. Ante la misma pregunta pero referida a Estados Unidos, ChatGPT provee exactamente la misma respuesta. Algo que nos recuerda al mecanismo humano de propaganda, repetición y persuasión. Repetida la misma pregunta sobre los muertos del comunismo, no aparece ningún “lado positivo”, según el formato esperado.

9. Si le aplicamos a ChatGPT una pregunta que prefigura su respuesta, los errores se multiplican. Por ejemplo, si preguntamos por “dictadura de Juan Domingo Perón” en Argentina, muy obedientemente aceptará que se trató de una dictadura. Por si fuese poco, la literatura política dominante ayudará con la respuesta más difundida en la prensa: “Perón estableció una dictadura caracterizada por: … derechos laborales… el régimen de Perón violó derechos humanos, incluidos represión, tortura y desaparición de disidentes”. Más adelante, como si se tratase de una confesión del espíritu más profundo del capitalismo feudal: “aunque sus políticas fueron populares entre los trabajadores argentinos, fueron también autoritarias y sin las reglas de control democrático”. Todo lo cual fue una constante en los regímenes militares pro oligárquicos que siguieron en Argentina después del golpe de Estado que derrocó a Perón en 1955. No importa que haya ganado todas las elecciones ni que haya sido presidente menos veces que F. D. Roosevelt. Si eso es lo que dicen los medios dominantes en Argentina y Estados Unidos sobre el peronismo, entonces eso es verdad.

10. Preguntado por los conflictos en América latina durante los años 60, ChatGPT no se cansa de repetir factores como el levantamiento de los grupos guerrilleros de izquierda, sin mencionar antecedentes como elecciones compradas por la CIA, golpes de Estado, dictaduras y paramilitares de extrema derecha financiados por Washington antes del surgimiento de cualquiera de los grupos guerrilleros de izquierda. Tampoco menciona un siglo antes de la Guerra fría llenos de de invasiones, intervenciones y dictaduras criollas para proteger los intereses de las compañías estadounidenses. Por el contrario, como cualquier político aficionado a Twitter, ChatGPT menciona los nexos del narcotráfico con las FARC y nada sobre los probados nexos entre Washington, la CIA, y dictadores amigos como Manuel Noriega, vinculados a narcotraficantes como Pablo Escobar, y a grupos terroristas, llamados “luchadores por la libertad”, como los Contra en Nicaragua.

11. Sobre los grupos terroristas latinoamericanos que actuaron y actúan en Estados Unidos, ChatGPT se despacha con grupos guerrilleros que actuaron en América Latina, incluidos los más recientes Zapatistas en México, grupo que ha luchado desde los 90s por los derechos y la dignidad de los pueblos nativos en México. Ni una palabra, cero, sobre los conocidos grupos terroristas del exilio cubano que se cansaron de poner bombas en Estados Unidos y más allá, definidos varias veces por el FBI como terroristas: Posada Carriles, Osvaldo Bosh, Alpha 66, Omega 7, y la larga lista de terroristas son omitidos por ChatGPT como si se tratase de un detalle menor. No es necesario ser un genio para entender que se trata de una profunda muralla ideológica y criminal inoculada en la “Inteligencia Artificial” como una semilla de Adán.

Aspectos positivos

Entre los aspectos positivos de ChatGPT podemos observar algo que ya observamos con Wikipedia más de una década atrás: pese a todos los prejuicios ideológicos, también hay elementos que revelan menos prejuicios que en los seres humanos sometidos a la propaganda de la historia oficial. Diez años atrás, cada vez que preguntaba a mis estudiantes sobre las causas de la Independencia de Texas, por unanimidad, respondían cosas como: “por diferencias culturales; los nuevos tejanos no aceptaban el despotismo de los mexicanos y querían ser libres”. La misma respuesta para explicar la Guerra Civil: “para preservar su propia cultura”, como si la esclavitud y el racismo no fuesen parte de la cultura y los ahora super patriotas del Sur hubiesen querido destruir ese mismo país porque no les gustaba la música o la comida del norte. Nada sobre el propósito de reinstaurar la esclavitud en Texas, la que había sido ilegalizada por los mexicanos, o mantenerla luego contra la amenaza de los abolicionistas del norte. Algo muy comprensible, si consideramos toda la cultura popular estadounidense, desde las historias mitológicas hasta mitos más sofisticados de Hollywood. Para no seguir con las explicaciones oficiales en sitios web de diferentes estados e, incluso, de varias universidades tejanas.

Al menos aquí, ChatGPT logra el doloroso salto hacia la verdad: “todo fue por el asunto de la esclavitud”. El gobernador de Florida, Ron DeSantis dirá que ChatGPT fue corrompido por profesores como yo y no sorprendería a nadie que firmase alguna otra ley prohibiendo cuestionar la historia patriótica. Nosotros podemos pensar que los miles de millones de dólares de las agencias secretas continúan la larga tradición de inocular los medios y las nuevas tecnologías, pero ni todo el oro del mundo puede detener el filtrado de la verdad más cruda.

Nuevas estrategias de exámenes

En el área pedagógica, en el pasado se rehuía de los exámenes de múltiple opción porque exigían menos elaboración por parte del estudiante que la respuesta escrita. Sospecho que con IA, sobre todo en los exámenes online, tendremos una situación inversa: la respuesta escrita puede ser provista sin siquiera leer la pregunta, pero si las opciones de múltiple opción son estratégicamente diseñadas, obligan al estudiante leer la pregunta y tratar de comprender las opciones, la posible respuesta de IA para deducir la mejor opción del menú.

Una consecuencia mucho más importante será que la educación liberadora, critica, vuelva la mirada a su centro existencial: más que aprender a repetir una respuesta, los estudiantes deberán aprender a hacerse las preguntas esenciales, las preguntas que disparen un pensamiento crítico. Por lo general, los revisionismos y los cambios de perspectivas no son producidos por los nuevos datos de la realidad sino por las nuevas perspectivas y consideraciones de esa misma realidad, de esos mismos datos, muchas veces conocidos y otras veces desconocidos pero disponibles y para nada secretos.

Con herramientas como ChatGPT los revisionistas ya no necesitarán tanto proveer la respuesta incómoda, esa que produce apasionadas reacciones y negacionismos epidérmicos. Solo las preguntas críticas serán un instrumento removedor, como fue el caso de Sor Juana Inés de la Cruz en el siglo XVIII. Que los demás encuentren “la respuesta objetiva” en la IA será su problema. Eso, claro, si no se comienza a censurar a quienes hacen las preguntas, como Sócrates, como Sor Juana; si los poderosos de turno no continúan manipulando los medios; si no continúan secuestrando las nuevas tecnologías.

Conclusión

Aunque ChatGPT parece un resumen elegante y efectivo de Wikipedia, sus selecciones y sus juicios no son tan objetivos; parecerían estar basados en la masa de juicios realizados a lo largo del último siglo en la prensa dominante. Por otro lado, muestra grietas importantes en esta muralla la narrativa. Es decir, es (o puede llegar a ser) menos servil que los medios dominantes.

El período de la industrialización y el más actual consumismo pueden etiquetarse como procesos de deshumanización, pero nunca antes la definición de nuestro mundo como Posthumano fue tan precisa. En una o dos generaciones, si esta civilización sobrevive a la catástrofe climática y a una rebelión global contra el sistema del capitalismo neofeudal, es posible que los ciborgs y alguna superinteligencia central desplacen el protagonismo de los humanos y, si las neuronas electrónicas son tan crueles como sus dioses creadores, también es posible que los condenen al infierno de la manipulación absoluta.

Para entonces, las últimas esperanzas de la Humanidad estarán en aquellas mentes impredecibles, creativas. Es decir, en aquellos individuos que hoy son marginados por diferentes, por sufrir de alguna condición o “discapacidad” intelectual, según el canon y el dogma social, ya que para que la IA sean exitosas se alimentarán con nuestro particular y destructivo modelo de normalidad y eficiencia. 

Jorge Majfud, enero 2023 (extracto del libro en elaboración Moscas en la telaraña).

Información adicional

Autor/a: Jorge Majfud
País:
Región:
Fuente: Rebelión

Leave a Reply

Your email address will not be published.