Sábado, 16 Febrero 2019 06:12

La industria petrolera y la geoingeniería

La industria petrolera y la geoingeniería

La industria de los combustibles fósiles (petróleo, gas, carbón) ha estado siempre en la vanguardia de la negación del cambio climático: son sus principales culpables e intentan así desviar la atención sobre su responsabilidad. Un notable reporte de investigación, Combustible al fuego ( Fuel to fire), publicado esta semana por el Centro Internacional de Derecho Ambiental (CIEL, por sus siglas en inglés), muestra además que desde hace décadas impulsan la manipulación tecnológica del clima, o sea, la geoingeniería. Ésta no es, como plantean sus promotores científicos, una medida de emergencia frente a la crisis climática, sino una forma de asegurar la permanencia de los combustibles fósiles y, con ello, de empeorar el cambio climático (https://tinyurl.com/y4gjzbys).

Es conocido que las petroleras impulsan y controlan las tecnologías de captura y almacenamiento de carbono (CCS, por sus siglas en inglés). Además, también han estudiado muchas otras formas de geoingeniería, incluyendo la modificación de la radiación solar, en pos de proteger sus ganancias y seguir sus actividades con altas emisiones de dióxido de carbono, argumentando que se puede contrarrestar el calentamiento global bajando la temperatura y retirando el exceso de carbono de la atmósfera, lo cual también son negocios adicionales para la misma industria, que creó el problema.

El informe del CIEL revela que ExxonMobil, Shell, BP, Total, Chevron y otras tienen intereses, patentes e investigación en todas las formas de geoingeniería e incluso algunas han sido pioneras en investigarlas. Exxon, por ejemplo, investigaba desde la década de 1940 formas de modificación del clima, como por ejemplo cubrir áreas con asfalto para aumentar la absorción de calor con la idea de provocar lluvia en otras zonas.

James F. Black, uno de los investigadores de Exxon que participó en ese proyecto, tuvo también un papel clave en la investigación de la empresa sobre cambio climático y dióxido de carbono en las décadas siguientes.

Desde la década de 1940, las mayores petroleras han hecho investigación sobre el clima –tanto para proteger sus inversiones como para entender sus impactos–. Cuando el debate sobre cambio climático empezó a generalizarse, tenían amplia información para construir formas de negar el fenómeno y evadir su responsabilidad.

Complementariamente han investigado, promovido y cabildeado el desarrollo de una amplia gama de técnicas de manipulación del clima, tanto técnicas de remoción de dióxido de carbono, por ejemplo, plantaciones para bioenergía, captura directa de aire (ambas, combinadas con CCS), alcalinización del mar y fertilización oceánica, como técnicas de geoingeniería para alterar la radiación solar que llega a la Tierra. Entre estas últimas, crear y blanquear nubes marinas para reflejar el sol o inyectar sulfatos en la estratósfera para bloquear los rayos del Sol, imitando el efecto de las nubes volcánicas, todas con la intención de bajar la temperatura.

El informe aporta numerosos datos y nombre de científicos y cabilderos de la industria petrolera que han tenido enorme influencia en las políticas de Estados Unidos sobre energía y cambio climático para impedir el desarrollo de políticas de energías renovables y para promover la geoingeniería, tanto bajo la administración de Barack Obama como en la actual. El propio director ejecutivo de Exxon, Rex Tillerson, pasó de ese cargo a secretario de Estado con Trump hasta 2017. La existencia de opciones de geoingeniería justifica, según éstos, que no es necesario hacer recortes en las emisiones.

Uno de los más activos proponentes científicos de la geoingeniería es David Keith, de la Universidad de Harvard. Argumenta que son medidas que deben prepararse frente a la inacción climática. En 2017 presentó el proyecto ScoPex, experimento para diseminar partículas reflejantes del Sol, a realizarse en Arizona o Nuevo México, probablemente en territorio indígena. Sería el primer experimento a cielo abierto de manejo de la radiación solar. Más que un experimento científico, ScoPex es punta de lanza para comenzar con experimentos de geoingeniería solar y posteriormente su desarrollo a gran escala.

Keith se presenta como científico, pero es simultáneamente fundador y accionista de Carbon Engineering, empresa comercial de remoción de dióxido de carbono con la técnica de captura directa de aire. El carbono es usado para hacer combustibles sintéticos. El reporte del CIEL muestra que esto no remueve el carbono de la atmósfera, sino, incluso, por su alta demanda energética, podría emitir más. En enero 2019 las petroleras Chevron y Occidental Petroleum se sumaron como inversores a esa empresa, que fue financiada inicialmente por Bill Gates, entre otros.

Es una muestra de lo que plantea el informe: hay una línea de continuidad entre la industria de combustibles fósiles, sus excusas para seguir extrayendo petróleo, gas y carbón y todas las formas de geoingeniería.

La creciente consideración de geoingeniería en informes y negociaciones internacionales sobre cambio climático debe cuestionarse radicalmente, a la luz de que en lugar de paliar los síntomas la geoingeniería es un argumento para posponer la necesaria reducción de emisiones.

Por Silvia Ribeiro, investigadora del Grupo ETC.

Sobre geoingeniería y sus impactos, ver el libro Geoingeniería: El gran fraude climático, de Grupo ETC y Fundación H. Boell, http://tinyurl.com/ycljetdf

 

Lunes, 11 Febrero 2019 06:57

La frontera, una puerta que hoy no cede

La frontera, una puerta que hoy no cede

Al llegar a la frontera no se ve un territorio militarizado del lado venezolano ni una zona de acopio masivo de ayuda humanitaria del lado colombiano. Es un lugar de comercio binacional marcado por la relación bolívar-peso.

Desde Táchira. Las cámaras apuntan a la frontera entre Venezuela y Colombia. El set montado la presenta como una puerta que estaría por ceder. Todo parece listo, faltaría que llegue el día indicado que, a seguir declaraciones de presidentes, títulos de noticieros, estaría por ocurrir. La narrativa de la inminencia es central desde que Juan Guaidó se autoproclamó presidente: inminente caída de Nicolás Maduro, inminente gobierno de transición y resolución de todos los problemas de Venezuela. 

Las imágenes al llegar a la frontera son otras. En particular en el punto que se ha construido como zona crítica: los municipios Simón Bolívar y Ureña, en el estado Táchira, frente a la ciudad de Cúcuta, Colombia. Allí debería verse un territorio conmocionado, militarizado del lado venezolano y transformado en un acopio masivo de ayuda humanitaria del lado colombiano. La realidad es diferente, una superposición de normalidad de una de las fronteras más complejas del continente, y el clima de un escenario en construcción.


Comprender las dinámicas de frontera demanda cruzar algunas variables. En primer lugar, la conformación histórica de ese territorio como zona de comercio binacional, marcado en las direcciones de compra-venta según la relación entre el bolívar venezolano y el peso colombiano. En segundo lugar, la puesta en marcha desde el año 2013 –con señales anteriores– del contrabando de extracción como parte de un plan de desangre de la economía venezolana. En tercer lugar, la presencia de actores claves al mando de las operaciones del contrabando, como grupos paramilitares. En cuarto lugar, los tres puntos anteriores dentro del cuadro económico actual. Las variables se cruzan y retroalimentan.


Dentro de esa geografía las cámaras se enfocan sobre dos cruces, el puente Las Tienditas, y el puente Simón Bolívar. El primero fue tapa de periódicos por los conteiners puestos del lado venezolano, presentados como un cierre del paso. Ese puente nunca estuvo abierto. Su construcción fue por iniciativa venezolana, saboteado en su concreción por las políticas colombianas que apuestan a magnificar el contrabando ilegal de gasolina en vez de ordenar un sistema de precios acordados entre ambos países en las gasolineras fronterizas.


La cuestión de la gasolina es clave para comprender la frontera: un litro del lado colombiano cuesta cerca de 60 centavos de dólares, mientras que del lado venezolano el tanque completo no cuesta un dólar. Esa gasolina contrabandeada permite abastecer las zonas fronterizas colombianas empobrecidas, a la empresa colombiana Ecopetrol destinar el combustible a otros sitios, a los paramilitares amasar millones, y a quienes manejan el control de la cocaína –paramilitares y carteles– contar con gasolina económica para su procesamiento. El gobierno colombiano ha autorizado por ley el contrabando de gasolina.


El segundo puente enfocado es el Simón Bolívar. Abierto de 6 a 21 al paso de peatones, y de 21 a 12 al paso de gandolas (camiones). Por allí pasan cerca de 30 mil personas diarias, de las cuales cerca de 2 mil sellan pasaporte, es decir que las demás van y vienen en el mismo día. Tiene una ventaja cinematográfica: es angosto, por lo cual puede generarse una gran cola de gente con solo frenar el paso unos minutos. Es lo que hacen las autoridades colombianas cuando la campaña mediática requiere fotografías que muestren masividad. De lo contrario el tránsito de personas es grande y fluido.


El ida y venida es comercial y familiar. Del lado colombiano se consiguen determinados productos a precios más económicos que en Venezuela, por lo que mucha gente cruza a comprarlos, para consumo personal o para revenderlos más caro del lado venezolano. Otros productos, regulados o subsidiados, son más baratos del lado venezolano, por lo que la dirección es la opuesta. Se trata de una economía de miles de personas de la frontera, de otros estados del país –como gente venida de Barinas o Barquisimeto– ampliada por las dificultades económicas que se deben a la combinación del bloqueo financiero, el ataque sobre la moneda, la dificultad para detener la hiperinflación, entre otros puntos.


Sobre esa cotidianeidad está en construcción la narrativa humanitaria, la ayuda, la posible intervención. Han hecho de la frontera el set donde se encuentran las grandes agencias de comunicación, voceros de diferentes gobiernos, organizaciones internacionales. El objetivo es mostrarla como el punto crítico por donde cederá la puerta.


Todos saben, por ejemplo, que el puente Las Tienditas nunca estuvo abierto, aunque afirmen que el gobierno venezolano lo bloqueó ante esta situación. En el recorrido que brindó Freddy Bernal, nombrado protector del estado Táchira por Maduro –la gobernadora pertenece a Acción Democrática, de oposición– estuvieron presentes medios colombianos y agencias internacionales. No importa que sepan la verdad del puente, afirman lo contrario, la campaña en marcha para aislar a Venezuela requiere la construcción de una matriz, donde están articulada agencias, funcionarios de gobiernos, organismos, presidentes, ingenierías de redes sociales, entre otros.


En ese contexto la ayuda humanitaria se ha construido como el ariete para derribar la puerta. Con varias particularidades: en primer lugar, que lo que hasta ahora ha llegado es insignificante, dos gandolas, cuando se reparten 40 en una sola jornada de distribución de comida en Táchira a través de los Comités Locales de Abastecimiento y Producción. En segundo lugar, que no importa el impacto real que podría tener, sino la construcción del escenario, que será el de mostrar de un lado la ayuda, del otro a población venezolana pidiéndola –para lo cual la derecha movilizará sus fuerzas– y en el medio el gobierno cerrando el paso. Esa es la imagen que, al parecer, buscarán construir.


Dentro de ese cuadro puede generarse hipótesis. Una de ellas es que ese sea el territorio donde la estrategia del asalto pueda construir el elemento detonante, la operación montada para justificar nuevos ataques de mayor potencia. Necesitan elevar el impacto en la opinión pública, conseguir acuerdo en el Senado norteamericano para dejar por escrito que la intervención militar puede ser contemplada, crear conmoción interna.


El escenario parece estar en una excesiva normalidad para los objetivos que se han propuesto alcanzar. Eso se debe a que algunas maniobras no les resultaron, como por ejemplo la detención de García Palomo, quien iba a encabezar una serie de acciones militares en Caracas. Esta semana podría ser la elegida para activar el escenario frontera, sería el punto donde se unirían el frente internacional con el nacional para buscar un quiebre. Por el momento la superficie continúa calma.

Publicado enCrisis Venezuela
Lo que el algoritmo esconde: matemáticas, sesgos y al final, decisiones humanas

En la era de la digitalización y los datos, se habla de los algoritmos como esas oscuras herramientas que pueden llegar a manejar nuestro destino. Pero no hay que olvidar que los algoritmos son matemáticas, ni más ni menos.

 

El debate está servido: ¿son los algoritmos herramientas opacas e incomprensibles que pueden dañarnos, o simplemente herramientas que dependen de decisiones humanas? ¿No será que las fórmulas son cada vez más complejas y no queremos —o no tenemos capacidad de— estudiarlas para entenderlas? Y si los algoritmos que más nos afectan están en manos privadas, los gigantes de Silicon Valley, ¿cómo podemos defendernos cuando nos metan en un problema?

"¡No somos nosotros, es el algoritmo!" es quizá una de los argumentos más inquietantes que se pueden plantear a problemas que ya existen y con los que convivimos sin saberlo. Desde el ámbito de la universidad se presta cada vez más atención a esta cuestión, que va mucho más allá de la privacidad o la intimidad de nuestras vidas.
Ya existen herramientas que deciden quién tiene más probabilidades de cometer un crimen —como el polémico 'software' PredPol, que ha sido utilizado en secreto en decenas de ciudades—, qué mensajes vemos en las redes sociales o qué crédito tenemos en función de nuestro rastro digital (pregunte en confianza a su amigo analista de riesgos y lo que le contestará le sorprenderá).

En un pequeño evento celebrado en la Facultad de Informática de la UCM, en el marco de la V Semana de la Informática que celebra el centro, varios expertos debatieron sobre la necesidad de abordar estas cuestiones —sesgos en el diseño, diseños abusivos, transparencia, auditabilidad— desde el punto de vista de los ingenieros informáticos, con un contrapunto ético y legal.

Rodeada de ingenieros, la abogada Paloma Llaneza, reconocida experta en seguridad y protección de datos, planteó una de las cuestiones claves del evento. "Tenemos que ser capaces de saber qué pasa con los algoritmos, sobre todo para quienes no tenemos ni idea, para saber si ha tomado la decisión correcta", comentó, y añadió. “No quiero que me digan que tengo un 85% de probabilidades de pagar mis deudas, sino si ese dato es bueno o malo, por un lado, y por otro por qué se toma una decisión determinada sobre mí, en qué se basa esa decisión, cómo funciona el mecanismo".

Esta experta remarcó que la tecnología de consumo, con sus interfaces sencillas e intuitivas, nos han facilitado mucho la vida —"nos han hecho tontos"— aunque luego la responsabilidad que exigen a ese usuario (desde conocer los términos y condiciones de un servicio que aceptas al tocar un botón hasta evitar intrusiones en ordenadores cuyas tripas informáticas no conocemos) "nos exigen ser casi premios Nobel".

Frente a ella, Jorge Gómez Sanz, ingeniero en Informática y profesor titular en la UCM, así como desarrollador de 'software' libre, negó la mayor: "No estamos en la dictadura del algoritmo, hay personas que luego tienen que tomar decisiones", razonó.

Para Gómez, la respuesta que la ingeniería puede dar sobre si un algoritmo acierta o no es relativamente simple: acierta siempre porque siempre genera una respuesta acorde con la función para lo que fue diseñado. "Los defectos que tenemos los humanos y que trasladamos a los algoritmos constituyen lo que debería estar regulado con normas y leyes (que no dejan de ser algoritmos, con nivel de abstracción más elevado)".

"Es cierto que existe un margen de decisión humana" tanto en el proceso de construcción de 'software' como en las decisiones finales basadas en la información que proporciona un sistema, recordó Llaneza, que sin embargo recordó que "el ser humano tiende a alinearse con la máquina por una cuestión de procesos". Es decir, el analista bancario que es obligado por su empresa a seguir las directrices del programa de análisis de riesgos de los clientes seguirá al pie de la letra lo que dice la máquina, para que no se cabree el jefe.


"Hemos dejado de leer el pasado, para proyectar el futuro, a recopilar datos para inferir probabilidades de futuro, en una vorágine probabilística", lamentó la abogada, que sostuvo que "la transparencia exige que el sistema sea auditable, ser posible realizar una inspección para saber el porqué del funcionamiento del sistema en sí". Y eso, hoy en día, raramente sucede.


"Los algoritmos no deciden, computan"

A la hora de hablar de sesgos en los sistemas algorítmicos (¿existen los algoritmos machistas?), el debate hubo consenso en la importancia crucial de la callidad de los datos que se suministran a las máquinas. "Los algoritmos no deciden, computan, no hay nada más obediente que un algoritmo, otra cosa es que nos guste la respuesta", apuntó Gómez.

El profesor e investigador Marcos Sánchez-Elez también sostuvo que "el algoritmo no es el demonio, sino que el problema puede venir que la persona que decide basándose en las respuestas que proporciona no cuestiona esas respuestas". "Cuando introducimos datos cuantitativos en un sistema no debería haber sesgos, pero al meter datos cualitativos —relaciones, rangos, jerarquías— entra una cantidad de subjetividad, y ahí está sobre todo el problema", añadió.

Por su parte, Sara Román, también profesora e investigadora en la Facultad de Informática, abordó la cuestión de la transparencia en los procesos informáticos con la siguiente cuestión: "¿Por qué es necesario sacrificar la precisión o fiabilidad (de los algoritmos) en pos de la transparencia? ¿Hay realmente un conflicto?".

Román incidió en definir qué es la transparencia. "Los criterios con los que me evalúan en una oposición o una beca, por ejemplo, son públicos", apuntó. "Por eso, cuando hablo de transparencia hablo de código abierto: no es que un ingeniero me explique qué hace el algoritmo, sino que pueda acceder al código", remarcó.


Una explicación quiero


La abogada Paloma Llaneza planteó la necesidad de que los ingenieros informáticos fuesen capaces de explicar abiertamente y de forma fácil cómo funcionan las herramientas que diseñan. "A la gente le importa cómo funcionan las cosas cuando funcionan mal, y en mi experiencia puedo encontrar a gente que me explique de todo, pero no cómo funciona un algoritmo", comentó. "Así como yo no tengo que saber nada de gases o física para saber que la bombona tiene un sistema de seguridad que no debería fallar, si hay un algoritmo X que influye en la sociedad tenéis capaces de explicar cómo funciona", dijo, a modo de reto.

Como respuesta, el profesor Jorge Gómez replicó que "a veces está todo explicado, pero no al alcance de todos, porque entender requiere tiempo". "Por supuesto que todos los algoritmos son explicables; sabemos cómo operan", dijo, "las redes neuronales son meras multiplicaciones de matrices, pero eso no lo entiende todo el mundo ni todo el mundo quiere esforzarse en entenderlo". "Un algoritmo es, sencillamente, un transformador de información".

Gómez remarcó que "la respuesta de la ingeniería a algunos de los conflictos que plantean las herramientas algorítmicas" —desde los problemas que existen con el coche totalmente autónomo, aún sin comercializar, hasta el sexismo o el racismo que puede haber en los resultados de las búsquedas por internet— "son los estándares, como la que se está desarrollando contra los sesgos que habrá en un futuro (certificación P7003)".

Porque el sesgo en los sistemas informáticos "autónomos" es un problema existente y cada vez más evidente. El algoritmo para contratar a personas que Amazon, por ejemplo, estuvo cuatro años desarrollando discriminaba a las mujeres. "Amazon contrata a más hombres, y en la parte técnica la tasa llega al 80%", apuntó la profesora Sara Román, que puso el acento en que "cuando se dieron cuenta intentaron arreglarlo, no fueron capaces y cerraron ese proyecto de contratación algorítmica". "Es preocupante que lo cerraran sin saber qué había fallado", añadió.

Al final, lo que quedó claro es que hay debate para rato y queda muchísimo por estudiar, regular y estandarizar. Para Román, "es hora de exigir que nos expliquen cómo funcionan las cosas", especialmente a las corporaciones que actúan de 'cajas negras' y atesoran sus fórmulas bajo el paraguas del secreto comercial. Sánchez-Elez, por su parte, insistió en la idea de que "la tecnología no es neutral" y, como Richard Feinman, está en contra de las explicaciones complejas.

"Los algoritmos no nos gobiernan, son las personas, pero a veces éstas se excusan en los algoritmos", zanjó Gómez. Mientras, Llaneza concluyó con humor que se iba de la facultad más tranquila, sabiendo que los ingenieros son perfectamente capaces de explicar el funcionamiento de cualquier algoritmo.
Otra cosa es que les dejen.

MADRID
08/02/2019 07:33 Actualizado: 08/02/2019 07
@pabloromero

 

Un año trabajando como analista para Facebook.

Relato en primera persona de un analista de Facebook.

Durante más de un año he estado trabajando en Varsovia para Facebook a través de la empresa Accenture. Durante este tiempo he sido testigo de cómo se censura la información desde dentro de esta red social y de que Facebook no es más que una plataforma en la que millones de adultos, jóvenes y niños se ven expuestos a problemas como el cyberbulling, la violencia, la venta de drogas, la pornografía, la explotación y acoso infantil… sin que exista desde dentro de la empresa ninguna forma útil de erradicar estos problemas —a no ser que desapareciera Facebook—. También de cómo se censura o se intenta censurar todo contenido político que resulta incómodo para el establishment, por ejemplo, los analistas que reciben el contenido denunciado por otros usuarios de Facebook están obligados a borrar todo material —imagen o comentario— que apoye, aunque sea de manera ambigua, a grupos o personas que Estados Unidos considera terroristas —algunos tan disctubles hoy día como las FARC, el IRA, el FPLP de Palestina, Hezbollah o el KKP en Turquía—. La mayoría de estos grupos tienen en común que su ideología es marxista o marxista leninista, pero por otro lado los analistas no pueden borrar contenido que ensalza el fascismo o a cualquiera de sus líderes.


Mucha gente se pregunta cómo se censura el contenido en plataformas sociales como Facebook e Instagram —tienen el mismo propietario—, incluso se cree que se censura de forma automática o a través de complejos algoritmos. La realidad es que todo el trabajo depende de un ejército de analistas y supervisores que, divididos por diferentes equipos según el idioma, analizan y censuran los contenidos que les llegan denunciados a través de otros usuarios. Por lo tanto, excepto en casos en los que interviene directamente el Gobierno de Estados Unidos para cerrar una cuenta —como fue el caso de la cuenta del presidente de Chechenia en enero de 2018—, solo el material que ha sido reportado por otro usuario puede ser borrado.


Estos analistas que trabajan para Facebook, a través de Accenture, no solo no tienen ninguna autonomía para decidir lo que borran y lo que no, si no que ni siquiera pueden hacer preguntas directamente a los encargados de hablar con Facebook, solo sus jefes pueden. Antes de convertirte en analista de Facebook, tienes que pasar un entrenamiento de dos semanas en el que principalmente te inculcarán la ideología de la red social y las políticas que hay que seguir para borrar el contenido que te llegará denunciado. Como muestra de la ideología de Facebook pondré lo que contestó la entrenadora a la pregunta de una analista que no entendía lo que era el sionismo: “Es una minoría perseguida en Palestina y, por tanto, todo material que ataque al sionismo debe ser eliminado”. Añadiré también, como muestra de a quién protege Facebook, la respuesta de uno de los jefes a un analista sobre si debía borrar o no las fotografías de la líder palestina cuya imagen se convirtió en ícono de la resistencia, Leila Khaled: “Los terroristas jubilados son también terroristas”.


Otro ejemplo de las políticas sionistas que se siguen es el hecho de que recibimos la orden de defender de bullying a una soldado israelí acusada de haber asesinado a una enfermera palestina en las marchas en Gaza por el retorno de los refugiados. Por lo tanto, todo leve insulto o acusación contra esta soldado que nos llegase denunciado debía ser borrado y determinadas cuentas pro palestinas fueron borradas.


Por supuesto, todo material que se recibe denunciado de ideología fascista, supremacista, la mayoría del material racista y de tortura animal no se borra. En el equipo trabaja una psicóloga —que trabajó previamente para el ejército de EE UU— la cual comunicó a sus jefes en más de una ocasión los nombres de analistas que le había contado sus problemas personales e ideológicos trabajando para Facebook.


Los supervisores tratan de mantener alta la moral de los analistas diciendo que el trabajo que realizan es fundamental y puede incluso salvar la vida de personas con problemas de drogas, anorexia, intentos de suicidios, ciberbullying… pero la realidad es que solo una pequeña parte de todo este material es denunciado y, por otra parte, el hecho de borrar comentarios, imágenes e incluso —solo en los casos más extremos— perfiles enteros, no impide que esa persona se vuelve a abrir otra cuenta para, por ejemplo, hacer bullying a alguna compañera/o del colegio o alguien vuelva a abrir otra cuenta para vender droga o subir pornografía. De hecho, prácticamente cada semana se reciben actualizaciones de las políticas que hay que seguir para borrar el contenido y llama la atención la evolución de políticas cada vez más laxas para en definitiva no prohibir más que la pornografía más evidente y extrema.


Los analistas tratarán de seguir siempre al pie de la letra las políticas de Facebook sin preguntar, debido a que por encima de ellos se encuentran unos supervisores de calidad que reciben un determinado porcentaje de los perfiles que realiza diariamente cada analista y los vuelven a chequear, por si el analista hubiese cometido algún fallo. Los analistas se esfuerzan al máximo por no tener fallos, ya que de ello depende en buena medida sus bonus y sus opciones de ascenso a otras posiciones, como supervisor de calidad. Además de la calidad se premia el número de perfiles que puede revisar al día cada analista, ya que si los analistas son capaces de analizar mayor número de perfiles por día, se necesitará contratar a menos analistas. De éste modo, los analistas no revisen a conciencia los perfiles, sino que apliquen las políticas de Facebook como robots.


Estos analistas trabajan en diferentes equipos, divididos por idioma, en turnos de ocho horas. De cda equipo siempre tiene que haber alguien trabajando, es decir, horario 24/7, todo ello para recibir un salario mensual bruto de 4200 zlotys (unos 1.000 euros), más algunas compensaciones y bonus trimestrales y anuales, cuando Facebook paga 16.000 zlotys a Accenture por cada analista. Además hay analistas que trabajan para Facebook e Instagram al mismo tiempo, recibiendo perfiles de ambas redes sociales, por lo cual reciben el mismo salario. Se puede ver, una vez más, cómo esta gran empresa pone sus oficinas en países en los que pueden pagar salarios más bajos a sus trabajadores y cómo la dirección de esta multinacional se queda casi todos los beneficios de este negocio.


Por último puedo decir, que el racismo está profundamente intrincado en esta empresa, al menos en Varsovia, y en la inmensa mayoría de los casos solo se promocionan a puestos más altos a personas de nacionalidad polaca, aunque hayan realizado un peor trabajo y tengan menos experiencia que alguien de otra nacionalidad. Normalmente los analistas de la UE, si no han sido promocionados después de un año, se van de la empresa. El problema es para los analistas extra comunitarios que dependen de ese trabajo para tener los papeles que les permiten seguir viviendo en Polonia, lo que hace que tengan que aguantar todo tipo de injusticias, algo de lo que sus jefes son muy conscientes.


Supongo que la mayoría de las cosas no son solo característicos de esta empresa, pero creo que es importante denunciarlo, a pesar del miedo que te intentan inocular, ya que te repiten cada día que no puedes decir a nadie detalles de tu trabajo o tan siquiera el cliente para el que trabajas, e incluso te hacen firmarlo antes de entrar a trabajar.

Por Sugarhill
Pseudónimo de un trabajador de Facebook

publicado
2019-01-20 06:20:00

Al otro lado de Black Mirror: algoritmos, democracia e igualdad

¿Seremos capaces los Estados, las empresas y especialmente la ciudadanía de hacer todo lo necesario para poner la inteligencia artificial al servicio de los derechos humanos, la democracia y la igualdad y no en contra?

«Sé que estáis ahí, percibo vuestra presencia. Sé que tenéis miedo. Nos teméis a nosotros. Teméis el cambio. Yo no conozco el futuro. No he venido para deciros cómo acabará todo esto... Al contrario. He venido a deciros cómo va a comenzar». The Matrix (1999)


1. Contexto: máquinas que aprenden solas

 

Nadie los ve. Están ahí. Nos gobiernan. Llevan tiempo entre nosotros, pero sólo ahora hemos empezado a percibir su existencia. Son los algoritmos de aprendizaje automático.

Pero ¿qué son realmente estos algoritmos de aprendizaje automático y qué tienen de novedoso? Un algoritmo, en general, podría definirse como un “conjunto de instrucciones lógicas para resolver un problema genérico concreto”. Un ejemplo sencillo es el algoritmo que aprendemos en la escuela para hacer una división. Hasta aquí, nada muy especial. Sin embargo, gracias a los increíbles avances informáticos en la capacidad de procesamiento y de almacenamiento de datos, en los últimos años se ha producido un salto cualitativo sorprendente. Hasta ahora, los programadores tenían que detallar cada uno de los pasos lógicos que debía seguir el programa para obtener el resultado deseado, es decir, eran los programadores los que le decían a la máquina cómo tenía que responder ante determinadas situaciones, pero los algoritmos de aprendizaje automático (en adelante, AAA) funcionan de forma totalmente diferente. De manera simplificada, un AAA consiste en redes neuronales virtuales que, de forma parecida a como aprendemos los humanos, a medida que van procesando los resultados que provocan diferentes reacciones ante una situación, van anticipando cómo responder ante futuras casuísticas. Es decir, la máquina, literalmente, “aprende”.

Para intentar comprenderlo mejor, utilicemos el ejemplo de los programas de ajedrez. Antes, los programas de ajedrez (como el famoso caso de Deep Blue) se construían introduciendo manualmente las estrategias (mejores o peores) que utilizaría cualquier buen jugador humano, por ejemplo, asignando un valor a las piezas (un punto a los peones, tres a caballos y alfiles, cinco a las torres, etcétera) para hacer cálculos de sacrificios o privilegiando por lo general el control de las posiciones centrales para así dominar el conjunto del tablero. Es decir, se les asignaba un conjunto de reglas según las cuales, valorando las posibles jugadas siguientes, calculaban la respuesta a cada posible situación. Sin embargo, a los programas actuales de ajedrez basados en AAA no hace falta introducirles ninguna de estas estrategias predefinidas. El novedoso programa Alpha Zero de Deep Mind ha sido capaz de aprender en veinticuatro horas y simplemente jugando partidas contra sí mismo, sin ninguna participación humana, a ganar al ajedrez a los ordenadores más inteligentes; con la sorpresa de que para ganar realizaba movimientos que a cualquier humano nos resultan absolutamente incomprensibles según nuestras lógicas de puntuación y de dominio del tablero, como regalar una dama o arrinconarla en una esquina del tablero.

En la actualidad, los AAA están por todas partes, aunque no los veamos. Piensan y deciden por nosotros. Nos influyen cuando llenamos el carro de la compra, nos filtran lo que queremos ver en Google o Netflix, nos ayudan a encontrar pareja en internet o incluso orientan nuestro voto (véase el caso de Cambridge Analityca y Facebook en EE. UU.). Además, los algoritmos ya se están usando de manera generalizada en ámbitos estratégicos tan sensibles como, por ejemplo, la gestión pública, la sanidad, la seguridad, el transporte, el sector financiero o por las compañías de selección de personal.

La velocidad a la que se está desarrollando esta suerte de nueva tecnología es tan rápida que, si no empezamos a plantearnos ya de qué maneras están afectando a nuestras sociedades (y pueden afectar a su futuro), especialmente a los sectores más vulnerables, puede ser que muy pronto (si es que no ya) perdamos el control de los algoritmos que controlan nuestras vidas.

2. Mirando al futuro: desafíos, peligros y amenazas

Los escenarios a los que nos enfrentamos en este tema son muchos y muy variados, pero hemos querido agruparlos en tres grandes bloques interrelacionados: primero, las posibles amenazas para la democracia y la soberanía; segundo, los desafíos en materia de (des)igualdad y derechos humanos, y, por último, los peligros de la visión ultrasesgada de la realidad que pueden generar los algoritmos.

2.1.Posibles amenazas para la democracia y la soberanía.

a) La transparencia y la rendición de cuentas son un elemento esencial y vertebrador de toda democracia, pero ¿pueden garantizarlas los AAA que están decidiendo sobre nuestras vidas? Hemos de decir que no, que no podemos esperar que los AAA sean aliados de la transparencia y, lo que es peor, nunca podremos garantizar que lo sean. Si han utilizado el traductor de Google, seguramente hayan notado una increíble mejoría en los últimos años. Esta mejoría se debe, entre otras cosas, a que antes el software estaba programado para utilizar siempre el inglés como lenguaje intermedio, pero ahora el nuevo AAA de traducción no tiene esa restricción. El resultado es que el traductor de Google ha creado un lenguaje intermediario alienígena más eficaz, que muta mucho más rápido de lo que somos capaces de entender. Por tanto, si aceptamos nuestras limitaciones naturales para comprender este lenguaje extraterrestre o, como hemos mencionado anteriormente, las limitaciones lógicas que nos impiden comprender por qué un programa de ajedrez lleva a cabo determinados movimientos a la postre ganadores, tendremos que aceptar que de igual modo estamos inevitablemente limitados para comprender y, por tanto, auditar, las decisiones de otros algoritmos en materias mucho más sensibles para el futuro de nuestras sociedades.

b) En un sentido democrático, podríamos definir la soberanía como “la convicción generalizada de los pueblos de que de una forma u otra somos dueños de nuestro propio destino y de que tenemos la capacidad de impulsar cambios en la dirección que decidamos”. Más allá del hecho de si estamos delegando en los algoritmos un poder excesivo en nuestra toma de decisiones, existe otra amenaza filosófica esencial de los AAA con respecto a la democracia y a la soberanía, y es que suprimen los porqués de nuestra búsqueda del sentido de las cosas. Con esto lo que queremos decir es que las predicciones de los AAA, por su propia naturaleza, centran la interpretación de la realidad social en el cómo sucederán las cosas y no en el por qué suceden. Y a medida que busquemos en los algoritmos más respuestas a las preguntas de este mundo cada vez más complejo y cambiante, corremos el riesgo de estar abandonando la búsqueda de los porqués subyacentes y de empezar a abrazar una sensación cada vez mayor de inevitabilidad tácita, de que sencillamente es así como suceden las cosas y no hay más, y de renunciar, por tanto, a poder cambiar activamente el estado de las cosas e implicarnos en la defensa y el ejercicio del principio que etimológicamente fundamenta la democracia: nuestra soberanía como pueblos.

c) En tanto que los AAA tienen la capacidad de crear una realidad totalmente personalizada (piénsese por ejemplo en la publicidad diferenciada que nos ofrece Amazon a cada uno de nosotros o los ejemplos de las últimas campañas electorales estadounidenses y del brexit en Reino Unido), se abre con ello un peligroso campo para la manipulación mediática y la supresión de otro de los pilares fundamentales de la democracia: el debate público como colectivización e interpretación de problemáticas comunes. Al fin y al cabo, ¿cómo vamos a debatir nada en común cuando nos han ultraindividualizado el relato?

 

2.2. Desafíos en materia de (des)igualdad

a) La naturaleza predictiva de algunos AAA los hace singularmente performativos o, dicho de otra forma, igual que sucede con las encuestas electorales, el mero hecho de predecir una supuesta realidad futura afecta a nuestro comportamiento y acaba provocando el escenario previsto que de otra forma tal vez se podría haber evitado y, lejos de ayudar a resolver las desigualdades existentes, pueden estar agravándolas. Pongamos un ejemplo (inspirado en el libro Armas de destrucción matemática de Cathy O'Neil). En varios lugares del mundo la policía utiliza algoritmos predictivos (el más conocido es PredPol) que, haciendo uso de los registros policiales, anticipan zonas con mayor probabilidad de que se produzcan crímenes. Dejemos al margen la discusión sobre si esos registros policiales –y por tanto la información con que se alimenta al algoritmo– serían fieles a la realidad o estarían repletos de prejuicios que afectarían a la predicción. Como es lógico, el algoritmo señalaría como zonas más probables aquellas en las que ya existe más criminalidad, que en muchos casos viene derivada de situaciones de desigualdad y de racialización. ¿Qué pasaría a continuación? Lo más probable es que el mero hecho de predecir más criminalidad en una zona y el consecuente aumento de la presencia policial, provoque que las familias que se lo puedan permitir huyan del lugar, dejando atrás a las más empobrecidas y arraigadas que no pueden permitirse otra cosa, provocando así una profundización de la desigualdad y la segregación y, por tanto, con toda probabilidad, también de la conflictividad social y de la criminalidad. Se hace coincidir así el resultado con la previsión y se agrava la situación de desigualdad inicial.

b) Como cualquier avance tecnológico en una sociedad ya desigual, pueden ser profundizadores de la desigualdad, ya que la capacidad de acceso a estos avances no es simétrica en los diferentes estratos sociales. Como consecuencia, corremos el riesgo de que estos nuevos avances se pongan a operar al servicio de los intereses de los que más poder tienen y, aunque si bien es cierto que en muchos otros sentidos también pueden generar beneficios para el conjunto de la sociedad, éstos siempre se producen de arriba abajo, no horizontalmente, y normalmente en una clave de consumo. Otro riesgo claro de impacto de los AAA en la desigualdad y que quizás sea el más extendido en la actualidad es la reproducción sistematizada en algoritmos de patrones discriminatorios fruto del sesgo en los datos e información que procesan (un ejemplo reciente de esto es el algoritmo “discriminatorio” utilizado por Amazon para el reclutamiento de personal que “penalizaba” a las mujeres). En este contexto, la pregunta que debemos hacernos es ¿quiénes controlan y dirigen el futuro de los avances que ya están moldeando nuestras sociedades? Y si la respuesta no es “todos por igual”, lo más probable es que estén favoreciendo a los más privilegiados y, por lo tanto, agudizando las desigualdades existentes.

2.3. Peligros de una visión ultrasesgada y dirigida de la realidad

a) Los actuales AAA fomentan además visiones retroalimentadoras y encapsuladas de la realidad (en relación con el punto 3). Esto sucede, por ejemplo, cuando los algoritmos de las redes sociales sólo nos muestran las noticias que tienen más probabilidad de que les demos un me gusta y, por tanto, que más nos sirven para reafirmarnos, cuando comprobamos que la publicidad de Amazon es diferente de una persona a otra y se basa en un perfil personalizado o cuando nos damos cuenta que las propuestas políticas que nos llegan de los partidos son sólo aquellas que más nos preocupaban de antemano. En tanto en cuanto sólo se nos estaría mostrando esta visión ultrasesgada y dirigida de la realidad que nos resulta más cómoda y que nos refuerza y retroalimenta en nuestras concepciones previas, ¿cómo vamos a descubrir e incorporar discursos y realidades que nos son ajenas o incluso desagradables de entrada?

b) Por último, procede destacar que los AAA nos conducen a undata-centrismo, es decir, cuando los análisis de la realidad se sustentan sobre aquellos sectores de la sociedad o países que más datos generan (países ricos más digitalizados frente a países pobres), hay más probabilidades de que la agenda pública y las políticas se orienten en beneficio de dichos sectores o países y sigamos acrecentando así las desigualdades sociales que impera en la actualidad.

3. Una propuesta de futuro: la Declaración de Toronto


Como es sabido, existe un interés creciente en comprender y dibujar las fronteras éticas y prácticas de estas nuevas tecnologías. Un ejemplo de ello es la iniciativa The Toronto Declaration: Protecting the right to equality and non-discrimination in machine learning systems lanzada por Amnistía Internacional, Access Now y otras organizaciones asociadas, sobre “derechos humanos e inteligencia artificial”.


¿Qué plantea esta histórica declaración? Muy resumidamente, la Declaración de Toronto pretende ser un primer paso para establecer las bases de un acuerdo internacional para el desarrollo de la inteligencia artificial y los AAA desde un enfoque ético y con los derechos humanos en el centro.


La estructura y el enfoque de la declaración guarda cierta similitud con los “Principios Rectores sobre las empresas y los derechos humanos: puesta en práctica del marco de las Naciones Unidas para proteger, respetar y remediar”, adoptados en el 2011 por el Consejo de Derechos Humanos de las Naciones Unidas. De hecho, la declaración se articula sobre estos mismos tres pilares según los cuales:

1) Los Estados tiene el deber de prevenir y proteger los derechos humanos. Ello implica que deben crear un marco de seguridad jurídica para promover, respetar, cumplir y proteger los derechos humanos de los potenciales impactos negativos derivados de la aplicación y desarrollo de la inteligencia artificial, garantizar un uso público adecuado de ésta, promover su uso y conocimiento adecuados entre los funcionarios públicos, garantizar la rendición de cuentas y transparencia en las actuaciones de los sectores público y privado relacionadas con la inteligencia artificial y establecer “vasos comunicantes” con el sector privado para intercambiar conocimiento y buenas prácticas.


2) Las empresas tienen la responsabilidad de respetar los derechos humanos y para ello han de adoptar compromisos políticos claros y públicos e implantar un procedimiento de debida diligencia apropiado para identificar, prevenir, amortiguar y rendir cuentas sobre cómo su actividad y uso de la inteligencia artificial impacta o puede llegar a impactar, de forma directa o indirecta a través de su cadena de suministro o de sus relaciones comerciales, en los derechos humanos.

3) Los Estados y las empresas deben reparar y remediar sus impactos negativos en los derechos humanos derivados del uso de la inteligencia artificial, y a tal fin deben poner los recursos y adoptar las medidas necesarias para regular y establecer procedimientos adecuados de reclamación y denuncia, así como habilitar y facilitar el acceso a mecanismos de reparación transparentes, accesibles y eficaces.

A pesar de que la Declaración de Toronto se centra exclusivamente en los conceptos de igualdad y no discriminación, creemos que su contenido es absolutamente replicable a todo el espectro de los derechos humanos y, por tanto, su aportación al debate “derechos humanos frente a inteligencia artificial” es realmente valioso.


Adicionalmente, no podemos dejar de, al menos, citar otra serie de iniciativas de peso en este ámbito, como el programa del Consejo de Europa por una inteligencia artificial ética y responsable con los derechos humanos, el rule of law y la democracia (del que recomendamos dos de sus publicaciones recientes, el borrador de una guía ética para el uso responsable de inteligencia artificial y el informe Algorithms & Human Rights) o la Conferencia Mundial sobre Inteligencia Artificial ( cuya primera edición se celebró el año pasado en Shanghái).

4. Conclusión: una reflexión de partida

Queremos que este artículo sirva como reflexión para el comienzo de este nuevo paradigma social, económico y tecnológico protagonizado por máquinas capaces de aprender. Sin darnos cuenta estamos depositando una confianza cada vez mayor en ellas para controlar y dirigir nuestro futuro, convencidos de una supuesta neutralidad positiva de los avances tecnológicos. Pero, si una conclusión podemos extraer, es que los AAA –al igual que cualquier otro avance humano– no son un suceso meteorológico externo que responda a leyes naturales que nos superan y ante el cual sólo podemos prevenirnos, pero que no podemos controlar.

La buena noticia es que sí que podemos, pero la pregunta es: ¿seremos capaces los Estados, las empresas y especialmente la ciudadanía de hacer todo lo necesario para controlar los algoritmos que ya nos controlan, de poner la inteligencia artificial al servicio de los derechos humanos, la democracia y la igualdad y no en contra?; y, sobre todo, ¿conseguiremos ser las personas las verdaderas protagonistas de nuestras propias vidas en este nuevo mundo entretejido de algoritmos? Sólo el tiempo y la razón (humana o artificial) nos lo dirán.

 Por  FERNANDO ROMÁN AGUILERA / RAFAEL MERINO RUS

16 DE ENERO DE 2019

Fernando Román Aguilera (@FerxManza) es programador matemático. Obrero de las teclas de día, por las tardes a veces concejal municipalista.
Rafael Merino Rus (@Rafa__Merino) es economista y experto en gestión de ONGs. Uno de esos millennial multitarea obsesionado con mejorar este mundo. De vez en cuando escribo cosas.

Una lista negra de 7.000 sacerdotes acusados de abuso sexual en EE UU

Los fiscales investigan por su cuenta la pederastia en la Iglesia estadounidense y dejan cortas las cifras reveladas por las diócesis

Las diócesis de Estados Unidos han adoptado una práctica en los últimos meses: publicar un listado de los sacerdotes con "acusaciones creíbles" de abuso sexual a menores. La mayoría de los religiosos ya no viven o fueron removidos de sus labores eclesiásticas. BishopAccountability.org, un sitio web que rastrea todos los crímenes de esta índole en la Iglesia, afirma que la institución ha revelado hasta ahora cerca de 7.000 curas denunciados desde 1950, pero que seguramente la cifra es mucho mayor. Según los informes que maneja el portal, dedicado a recabar las cifras desde hace más de una década, el porcentaje de abusadores oscila entre el 6 y el 10%, lo que supondría hasta 11.000 curas pederastas. Las fiscalías estatales que investigan actualmente estos crímenes también han concluido que los listados están incompletos.


En la misa católica celebrada el primero de diciembre en Siracusa, Nueva York, el obispo Robert J. Cunningham hizo un anuncio parroquial que llamó la atención de los feligreses. Primero reconoció las divisiones que existen dentro de la Iglesia sobre si publicar o no los nombres de los sacerdotes con “acusaciones creíbles” de abuso sexual a niños, argumentando que algunas víctimas no quieren que se sepan quiénes fueron sus abusadores. “Tras reflexionar y orar seriamente, he llegado a la conclusión de que esta práctica se ha convertido en un obstáculo para hacer avanzar a nuestra Iglesia local”, afirmó el cura antes de informar de que en los próximos días el sitio web de la diócesis publicaría el listado de los clérigos denunciados en los últimos setenta años.


Cunningham cumplió con lo prometido. Pero su decisión está lejos de ser un caso aislado en Estados Unidos. Desde que se dio a conocer en agosto el brutal informe de Pensilvania en el que se revelaba que más de 300 sacerdotes abusaron de menores en las últimas siete décadas, los obispados se han visto presionados por laicos y feligreses a emprender acciones concretas en favor de las víctimas. La primera lista de este tipo se publicó en 2002. Hasta el 2017 solo 35 de las 187 diócesis que componen el cuerpo eclesiástico estadounidense habían hecho lo propio. Pero a partir del pasado agosto la cifra se disparó. En diciembre ya se habían registrado 90 listados y se sabe que la cifra es mayor, ya que casi a diario hay diócesis que se adhieren. También órdenes religiosas como los jesuitas.


BishopAccountability.org sostiene que la Iglesia ha revelado que hay cerca de 7.000 curas denunciados, pero solo 4.500 con nombre y apellido. Terry McKiernan, fundador de la organización, aclara que ese número es impreciso: “Conozco casos de sacerdotes abusadores que deberían aparecer en las listas y no están. Seguramente hay muchos que no sabemos”. Según los informes que maneja el experto, el porcentaje de profanadores oscila entre el 6 y el 10% de cada establecimiento.


El último escándalo eclesiástico respalda su planteamiento. Las seis diócesis de Illinois publicaron hace un tiempo un listado en el que identificaban a 185 religiosos con acusaciones creíbles. La fiscal general del Estado, Lisa Madigan, alertó en diciembre de la falsedad de la cifra y adelantó que, según sus investigaciones preliminares, la realidad es que al menos 500 sacerdotes han sido denunciados por haber abusado de menores. “Esperábamos que las cifras fueran así de dispares”, sostiene el abogado Jeff Anderson, quien lidera el bufete que lleva su nombre. “Cuando ellos dicen que no quieren publicar los nombres porque las víctimas no quieren que se sepa es una gran mentira. Llevo 25 años representando a sobrevivientes de abusos y nunca he conocido a uno que no quiera. Ese argumento es una excusa para no hacer lo que corresponde”, agrega.


En 2002 el cuerpo completo de obispos católicos de EE UU aprobó la Carta para la Protección de Niños y Jóvenes, que incluía la realización de un estudio descriptivo con la cooperación de las diócesis para conocer el alcance de los abusos sexuales a menores por parte del clero. El análisis reveló que el rango de depredadores era de entre un 3 y 6%, lo que supone 6.600 de los 110.000 miembros de la Iglesia en las últimas siete décadas. “La investigación de Pensilvania y de Illinois demuestran dos cosas: que si queremos saber la verdad son los fiscales los que tienen que hacer y publicar sus propios informes, y que la proporción de denunciados está mucho más cerca del 10%. Estamos hablando de unos 11.000 curas”, plantea McKiernan.


A pesar de los peros, el paso al frente de las diócesis ha sido bien recibido por aproximarse a la respuesta que merecen las víctimas. El informe de Pensilvania fue un punto de inflexión y parece no tener marcha atrás. El documento de 1.356 páginas, la investigación más exhaustiva que se ha llevado a cabo sobre el abuso sexual de la Iglesia católica en EE UU, se adentró en las cloacas clericales y destapó desde redes de sadomasoquismo hasta violaciones en hospitales. “No provocó un cambio cultural, ese está todavía por venir, pero sí logró un despertar en la gente. Inyectó coraje a las víctimas y ahora seguiremos presionando hasta que digan toda la verdad”, apunta Anderson.


El informe de Pensilvania ha llevado al menos a una docena de fiscales generales estatales pusieran en marcha investigaciones sobre abusos sexuales en sus respectivos territorios. En muchos casos, las acusaciones "no han sido investigadas adecuadamente por las diócesis o no han sido investigadas en absoluto", apuntaba la Fiscalía de Illinois. Para el abogado Anderson, la diferencia entre lo que publican las diócesis versus las fiscalías responde en parte a la colaboración de las víctimas, que tienden a ser más abiertas con los segundos.
En medio de la presión, los obispos estadounidenses se reunieron en noviembre para redefinir sus códigos. Entre las medidas propuestas figuraban nuevos “estándares de conducta episcopal”, la creación de una comisión para manejar las denuncias de abuso contra los obispos, y nuevos protocolos para los religiosos que son destituidos o que renuncian debido a una conducta sexual inapropiada. Antes de votar recibieron una carta del Vaticano en la que se les pedía que no acataran reformas hasta después de la cumbre que se celebrará en Roma en febrero con todas las Conferencias Episcopales del mundo para abordar la crisis desatada por los abusos a menores. Este viernes el papa Francisco aseguró que la Iglesia "no se cansará de hacer todo lo necesario para llevar ante la justicia a cualquiera que haya cometido tales crímenes”. Porque este año la bomba no solo estalló en Pensilvania. Ni en Illinois. También lo hizo en Chile, Irlanda y Australia. Y la lista, al igual que la de los clérigos acusados, no deja de crecer.

Por ANTONIA LABORDE
Washington 15 ENE 2019 - 10:11 COT

Publicado enInternacional
Lunes, 07 Enero 2019 06:43

Las agresiones en las redes sociales

Las agresiones en las redes sociales

Los ataques de trolls y cuentas falsas buscan disciplinar, limitar la libertad de expresión y degradar el debate público, señalan los expertos. Un análisis de los casos #Maldonado, #AbortoLegal, #MiráCómoNosPonemos y #Bolsonaro. Qué hacer con las fake news y cómo regular los contenidos.

La violencia online disciplina, encorseta las narrativas, limita la libertad de expresión y baja la calidad del debate público. Contra la “política de tierra arrasada” impulsada por la coordinación de trolls y cuentas falsas en redes sociales –con especial saña en conmociones públicas tales #Maldonado, #AbortoLegal, #MiráCómoNosPonemos o #Bolsonaro–, diversas instituciones públicas y de la sociedad civil trabajan en estrategias de regulación viables. PáginaI12 dialogó con los investigadores Martín Becerra y Ernesto Calvo sobre el mapa de interacciones y las prácticas discursivas que se despliegan en el escenario virtual actual.


–¿En qué consiste la investigación que están realizando desde Anmesty Internacional acerca de las agresiones en el escenario virtual? ¿Sobre qué aspectos avanza respecto del informe anterior?


M.B.: En el marco de la discusión sobre el proyecto de Ley de interrupción voluntaria del embarazo (IVE) tanto en Diputados como en Senadores, nos proponemos sistematizar y analizar las agresiones y la violencia online a mujeres que participaron de ese debate público, que estuvo en el tope de la agenda, comprometió a fuerzas políticas y sociales y movilizó la temperatura de la sociedad. El estudio no será solo un mapeo del modus operandi de esas agresione


–¿Qué consecuencias prevén que han tenido estas agresiones en redes sociales, tanto en términos de libertad de expresión como en la calidad del debate público?


M.B.: Hay un efecto disciplinador del abuso y la violencia que hace que uno, cuando es una víctima directa, ecualice mucho su intervención en el espacio público. Pero hay también una vía indirecta –el efecto disciplinador sobre los demás–, que en el espacio virtual es muy clara y requiere ser investigada. En las entrevistas nos encontramos con que algunas mujeres muy identificadas en su papel de políticas creen que las agresiones no les afectan. Pero al indagar indirectamente sobre esos efectos vemos que subieron los estándares de privacidad para tener menos cantidad de interacciones o que tomaron medidas en su vida privada, con su familia, sus hijos, sus parejas.


–¿Creen que el debate sobre la legalización del aborto en el plano virtual tuvo los rasgos de lo que denominan “política de tierra arrasada”, como consecuencia de la acción coordinada de trolls?


E.C.: A diferencia de lo que ocurrió con #Maldonado, #Nisman o #Tarifazo en Twitter, el diálogo virtual en #Aborto estuvo dominado por activistas que no son los habituales de las redes políticas. Al mismo tiempo, el sujeto de la agresión está “genderizado” (sic). En la red de #Aborto se ve violencia dirigida a la mujer, por un lado, y un esfuerzo por cuidar al otro que es poco común en las redes. Leí en un tuit la siguiente frase: “es tétrico e increíble que, a pesar de que recién nos conocemos, las mujeres nos preguntamos si llegamos bien”. Esa dinámica, ser blanco de ataques y cuidarse recíprocamente, era muy clara en la red de #Aborto. Es una dinámica que vemos también con claridad en las redes que tienen que ver con casos de abuso, como en el reciente caso de Darthes y el hashtag #MiráCómoNosPonemos. Otro hecho que distingue a la red de #Aborto en Twitter es que los tuits que dominaban la red eran explicativos. Es decir, frente a las agresiones no se respondía con contraagresiones sino que había un esfuerzo, proveniente de la onda verde, de explicar, analizar, discutir y reconstruir un lenguaje menos trollero.


M.B.: En torno del hashtag #MiráCómoNosPonemos, que fue tendencia global, confluyeron los reclamos feministas y del debate público promovido y protagonizado por mujeres, tanto en forma organizada como de modo espontáneo. Aun cuando el detonante haya sido la denuncia por abuso de Fardin contra Darthes, pero su trascendencia es mucho mayor y cala hondo en la sociedad porque acompaña la resignificación en curso de los vínculos entre mujeres y hombres y, en ese marco, tributa de modo directo al reclamo #NiUnaMenos. Es un ejemplo paradigmático de asociación entre la experiencia “analógica” y la “virtual”.


–¿Qué diferencias encuentran entre la red de #Aborto y la red #Maldonado en la conversación en Twitter?


M.B.: Una característica de la campaña a favor de la legalización del aborto fue que se le hablaba a un “paradestinatario” con un esfuerzo de explicación pedagógica y no solo al convencido o al “contradestinatario” con una lógica beligerante (N. de la R.: En el acto de enunciación, el “paradestinatario” ocupa la figura del indeciso, son sectores de la ciudadanía fuera del juego a los que hay que persuadir). Hablar a un “paradestinatario” –en el sentido de que no todos están encuadrados– es un esfuerzo que en Argentina se ve poco en el espacio público. Es un rasgo que se vio en los inicios de la discusión sobre la desaparición de Santiago Maldonado y después se fue desdibujando. En #Aborto se vio de manera más permanente. Incluso después de la derrota en el Senado, se observa un esfuerzo pedagógico de convencer.


–Después de esa etapa inicial más “pedagógica” en la red #Maldonado, ¿qué cambió para que se convirtiera en una conversación de trinchera?


E.C.: Para pensar la función de los trolls en #Maldonado hay que imaginar una jauría de perros de ataque. Hay un espacio en el cual la jauría interactúa y se divierten produciendo mensajes. No es un ataque coordinado en el sentido de que se les diga qué hacer sino que simplemente se les da un objetivo. Los trolls comparten un sentimiento de comunidad y acuerdo tácito sobre el tipo de objetivo político y de campañas a ejecutar. Como los perros, están esperando esa señal: “ataque, quédate quieto, ataque, quédate quieto”. En el caso #Maldonado, la coalición oficialista tenía muy claro el tipo de intervención que le cabía en el terreno y cómo distorsionar el discurso virtual. En #Aborto, en cambio, el oficialismo estaba dividido y eso inhibió a los trolls. Hay una parte de la actividad oficialista que dice: “No estamos de acuerdo con trollear este evento”, y esa actitud corta la sinergia de agresión de ese grupo intenso de trolls. En #Aborto hay dos comunidades de ataque y agresión, las dos son pequeñas y no están coordinadas; se ubican relativamente en la misma zona pero se distinguen una de la otra.


–Considerando que la conversación en Twitter tiende más a la polarización que al consenso y que en ese escenario se vigoriza la violencia virtual coordinada, ¿cómo se puede regular este tipo de agresiones online?


M.B.: Bueno, hay una parte de esa regulación que las plataformas ya empezaron a hacer por sí mismas de manera creciente; lo peligroso es que lo hacen sin ningún tipo de auditoría pública. Es una iniciativa de las plataformas dado el impacto que tiene en su valorización bursátil y en los negocios en general, como los escándalos por venta de datos y desmanejos de sus plataformas. Tanto en el caso #Maldonado como en #Aborto o #Bolsonaro, esa actividad violenta no es porcentualmente la más grande. Entonces las compañías disminuyen eso porque es absolutamente artificial. Pero hay algo más profundo: la libertad de expresión no es absoluta, tiene límites. Es antipático decirlo porque es un derecho, pero también hay otros derechos, como el derecho a no ser abusado, violentado o discriminado.


–Lo cierto es que las regulaciones exceden la implementación de una normativa. La pregunta es: ¿con qué criterio se regula?


M.B.: Las empresas están ejerciendo de facto una reglamentación sin auditoria pública. Otro elemento es que cuando se reporta una situación de violencia en Facebook o Twitter, las compañías no contestan. Allí podría haber un tímido inicio de regulación: si alguien reporta un abuso amerita que haya un seguimiento acerca de cuántos reportes hubo, qué hizo la empresa con eso... Entender la casuística de ello y que sedimente en algún tipo de normativa; pero es cierto que la legislación normativa de prepo puede ser peor que la situación actual.


–¿Qué podría resolver la vía judicial en este tipo de abusos?


M.B.: Resuelve las garantías procesales: derecho a la defensa, presunción de inocencia, un debido proceso. Esto significa que no sepuede remover contenido porque a alguien no le gusta, así que ese procedimiento es fundamental. El Poder Judicial es lento y funciona mal. Entonces, hagamos que funcione bien, creemos un foro. Pero mientras no hacemos nada, el poder de policía lo tienen Google, Facebook y Twitter. ¡Y eso es un espanto!


E.C.: Hace cuatro años empezamos a ver el cambio de posicionamiento de las redes sociales para transformase en el ecosistema dominante en el área de noticias políticas. Los medios tradicionales son figuras dominantes dentro de ese ecosistema aunque la gente ahora accede a noticias a través de redes sociales. En estos cuatro años pasamos de un espacio que estaba totalmente desregulado y era muy jerárquico a una estratificación que ha ido mutando muy rápidamente. Se introdujeron actores externos que impulsan fake news, grupos que se organizan políticamente para producir sinergias y trollear. En este tiempo, estos ecosistemas se fueron estratificando y hay una mayor cantidad de bolsones distintos. ¿Cuál es la respuesta? Cuando uno tiene un ecosistema complejo, la regulación tendrá que ocuparse de un montón de pequeñas aristas.


–¿Cómo coordinar esas regulaciones?


E.C.: Lo que observamos ahora es la proliferación de distintos mecanismos de autoregulación por parte de las compañías y los usuarios. Lo difícil es encontrar un modelo de responsabilización democrática en las redes que no afecte la libertad de expresión.


–¿Qué singularidad aporta el diálogo político en Twitter durante la campaña electoral de los recientes comicios en Brasil, en el que ganó Jair Bolsonaro?


E.C.: La red #Bolsonaro muestra que ciertos mecanismos de regulación inciden en la propagación de mensajes y en cómo se estructuran estas redes sociales virtuales. En el momento en que se da de baja una gran cantidad de cuentas de WhatsApp y de cuentas de Twitter que distribuían noticias falsas, cambia la dinámica de propagación de mensajes en ciertas áreas de la red. Esa regulación produjo efectos en la difusión de narrativas. Eso quiere decir que podemos aprender cómo administrar esos efectos para producir redes que sean más saludables. Es una tragedia para la democracia que haya ganado Bolsonaro pero eso habla de otra dinámica política, que es el crecimiento de movimientos políticos de derecha, antisistema y conservadores. Esa dinámica no depende simplemente de la polémica que observamos en las redes sociales. Desde el punto de vista mediático virtual, la comunidad pro-Bolsonaro es más pequeña que la comunidad anti-Bolsonaro. Y todo el ecosistema de noticias falsas que lo sostiene fue identificado y dado de baja, de manera que hay mecanismos posibles de regulación.


–¿El debate y la coordinación de noticias falsas influyeron en el resultado de las elecciones en Brasil?


E.C.: Todo influye, pero las redes sociales activan a un votante que ya está inclinado. Sin las redes sociales, ¿se habrían inclinado esos votantes a votar por otro candidato? No puedo asegurar que el resultado electoral en Estados Unidos habría sido distinto, pero el margen de victoria de Trump en varios Estados fue tan pequeño que es posible que las redes incidieran. El amplio margen de victoria de Bolsonaro en Brasil, en cambio, me hace dudar de que las redes sociales hayan sido las responsables. Las redes sociales virtuales solo pueden incidir en elecciones que se definen por muy bajos márgenes e incluso esto es extraordinariamente difícil de probar.


–Volviendo a los criterios para la regulación de contenidos, ¿cuál es la concepción de información noticiosa para decidir si un contenido puede o no ser dado de baja tildándolo de “falso”?


M.B.: Hay una gran dificultad para llevar adelante ese propósito, que es la definición misma de noticia y de noticia falsa. No se trata de una definición universalmente estable. Y creo que es peligroso operar sobre un concepto que es inestable reclamando sanciones en torno a contenidos. Yo sería muuucho más cauto de lo que hasta ahora se viene viendo en redes sociales y organizaciones periodísticas y de la sociedad civil a la hora de etiquetar como noticia falsa un contenido. El segundo punto es que buena parte de los contenidos que en el registro coloquial llamamos “noticias” son opiniones o interpretaciones con condimentos noticiosos, así que es imposible desguazar y analizar a nivel átomo cada pieza para decir “esto es noticia y esto es interpretación”.


–¿Cómo evalúa el caso de Primereando las noticias, cuyo artículo “El FMI exige liquidar el Anses y vender las acciones del Fondo de Garantía de Sustentabilidad” fue dado de baja con el argumento de que se trató de una noticia falsa?


M.B.: Según mi lectura, es legítimo que pueda decir eso como que pueda decir todo lo contrario. Por cierto, en la última renegociación con el FMI, columnistas económicos del mainstream argentino decían cosas opuestas. Para algunos era una gran noticia para la Argentina por ser un respaldo inequívoco del FMI. Para otros, una mala noticia porque –dentro del mismo encuadre ideológico– le dan la mitad de lo que prometieron y produce condicionamientos asfixiantes. En definitiva, la de Primereando las noticias era una noticia cargada de interpretación como la mayoría de las noticias que vemos publicadas en portales y sitios webs que circulan en nuestra sociedad. Son pocas las noticias que afirman: “Obama es musulmán”. Es falso: Obama no es musulmán sino que es cristiano. O decir que Cristina no es abogada; resulta que se hace una investigación periodística y tiene el título de abogada. Pero pocas veces vemos eso. La mayoría de las noticias no son dicotómicamente clasificables, por lo tanto el riesgo es muy alto y creo que hay que ser precavidos porque se está afectando el derecho a la libertad de expresión lisa y llanamente. Y después hay otros problemas derivados.


–¿Cómo cuáles?


M.B.: Quienes producen estas piezas informativas en muchos casos son instituciones muy consolidadas. ¿Aceptarán las sanciones que ellas mismas y su entorno proponen para terceros cuando difunden noticias fake? Los productores de fake news no son piratas anónimos que están en un subterráneo clandestino sino grandes organizaciones, algunas de medios, otras políticas, otras religiosas. La mayor producción de fake news en elecciones proviene de los partidos políticos que, paradójicamente, dicen querer regular la contaminación del espacio público por las fake news que ellos mismos producen. Acá, en Francia y en Estados Unidos.


E.C.: No hay nadie que sea más promotor del término fake news que Donald Trump, que es la usina más importante de noticias falsas en Estados Unidos. Sin embargo, él popularizó el concepto de fake news aduciendo que los demás mentían.


M.B.: Es la misma estrategia de Bolsonaro en Brasil quien, además, acusa a Folha de Sao Paulo de ser fake media. Lo interesante acá es que mucha acusación de que el otro es fake se basa no tanto en lo que este haya publicado sino en lo omitido.


E.C.: Totalmente. Ahora, hablando de los mecanismos para lidiar con este tipo de cosas, algunas formas de regulación son posibles utilizando “sello de calidad” provisto por organizaciones que les aseguran a los lectores que es válido lo que están leyendo. Hay formas de organización de la sociedad civil que pueden definir los parámetros a través de los cuales aquello que es noticioso, si es controversial, igual satisfaga los requerimientos periodísticos. Una posible solución a estos problemas requiere de la consolidación de comunidades intersubjetivas –como afirma Habermas– que validen contenidos que son aceptables, de modo tal que el que no lo hace pague un precio. En lugar de prohibir las noticias falsas, su precio de mercado debería caer en relación con el precio de las noticias que no son falsas. Por ejemplo, la problematización de que existen noticias falsas ha hecho que la gente sea más reticente a distribuir información porque dentro de las propias comunidades de redes sociales o de WhatsApp se dice: “che, esto no es cierto, tené cuidado que estás distribuyendo fake news”. Ese control intersubjetivo que está apareciendo puede tener un correlato institucional que valide lo noticioso.


M.B.: Los medios tradicionales funcionaban sobre estas convenciones con autoridad. El problema es que hoy tratan de reeditar aquella etapa con viejas herramientas y viejos reflejos. Tengo dudas de que una campaña como la de Adepa –“tenemos editor responsable”– dé buenos resultados. Por dos motivos: uno es porque ellos también producen fake news y están muy desacreditados. El segundo motivo es más general y desborda las condiciones argentinas, en el sentido de que esas instituciones no tienen las raíces sólidas que tuvieron, entonces el acuerdo social acerca de su legitimidad para ofrecer puntos de vista validados es un acuerdo que está cada vez más descompuesto.


E.C.: El que menciona Martín era exactamente el mismo problema que tenían los medios tradicionales a fines del siglo XIX o principios del XX, antes de que se fuera institucionalizando un conjunto reglas periodísticas. Hay organizaciones de FactChecking que, más allá de si uno acuerda o no con ellas, dan cuenta de que hay un espacio de organización civil que procura reconstituir ese tipo de validación intersubjetiva. Ello muestra que estamos en un momento de clara descomposición, que las redes sociales fueron un golpe a la estructura de la organización económica del periodismo en estos países. Creo que el New York Times tendrá más posibilidades de supervivencia que Fox News.


–¿En qué sentido, qué diferencia a ambas organizaciones periodísticas?


E.C.: Hay cierta inconsistencia entre el mensaje de Trump que dice “todo es fake news” y el grupo que le tiene que creer eso, que es el mismo grupo que consume el producto de Fox News. Mientras que el otro grupo que dice “esto no es fake news” es el que consume el New York Times. Hay un mecanismo de estabilización de la reputación periodística que permite defender al New York Times; Fox News no cuenta con ese mecanismo. Entonces, el salvaje Oeste de las redes sociales afecta primariamente a sus promotores. No estamos en el espacio desregulado de hace tres años, tampoco estamos en el espacio mediático que a uno le interesaría tener; pero al menos el actual es un espacio un poco más inhóspito para los trolls. Ello sugiere que algo está pasando independiente de que llegue a buen término o sea exitoso.

 

 

Publicado enSociedad
"El arte de Banksy, Kapoor o Hirst no se opone a los inquietantes progresos de la extrema derecha, al contrario”

La crítica literaria publica un manifiesto titulado Lo que no tiene precio, en el que reflexiona sobre el "realismo globalista" y retrata la "colisión que se produce desde hace años entre el mundo de las finanzas y el arte contemporáneo"


Le Brun ve en estos autores admirados por las multitudes "la base inconsciente de la nueva servidumbre exigida por el capital"

Ocurrió el pasado 6 de octubre. La pieza Niña con globo, de Banksy, se autodestruyó al pasar por una trituradora poco después de haber sido vendida en una subasta en Sotheby's por un millón de libras (más de un millón de euros). Al día siguiente, el artista subió la imagen de la destrucción a Instagram con el texto "se va, se va, se fue" al que sumó una cita de Picasso: "El impulso de destruir también es un impulso creativo". Obtuvo millones de 'me gustas'.


¿Fue una broma? Seguro que no demasiado para el comprador de la obra. ¿Fue arte? Los días siguientes hubo artículos que discutieron aquel acto de Banksy,artista que no se sabe ni quién es ni cómo es, pero que tiene millones de adeptos por todo el mundo. Una exposición ahora en Madrid se hace la misma pregunta:¿Es un genio o un vándalo?


Para la escritora y crítica literaria Annie Le Brun (Rennes, 1942), experta en Sade e inmersa en los últimos años del movimiento surrealista de André Breton, la respuesta es evidente: tiene que ver con una dimensión política de la mercantilización capitalista del arte.


Le Brun acaba de publicar en español el manifiesto Lo que no tiene precio(Cabaret Voltaire) en el que expresa su teoría del realismo globalista, movimiento en el que ubica a creadores como Damien Hirst, Anish Kapoor y el propio Banksy. Como señala en una conversación con eldiario.es, estos artistas son muestra de "la colisión que se produce desde hace veinte años entre el mundo de las finanzas y el arte contemporáneo. Un síntoma particularmente esclarecedor, porque nos hace asistir a la transmutación del arte en dinero y del dinero en arte".


La pensadora teje una comparativa con la presencia de las mismas tiendas y marcas en todas las ciudades del mundo con la de estos artistas, también presentes en los museos de todas las capitales occidentales. "Me parece difícil no ver en ello el arte oficial del neoliberalismo cuya intención no es otra que la de hacer que aceptemos la brutalidad de este mundo así como su deshumanización", sostiene.


La etiqueta de 'realismo globalista' parte de un juego de palabras con el 'realismo socialista' de la Unión Soviética. "En este la intención era imponer la ideología comunista a través de las imágenes de una realidad edificante", manifiesta Le Brun, que, sin embargo, en el arte actual de los Hirst y compañía lo que observa es "una ideología que impone dispositivos e instalaciones, jugando con las sensaciones fuertes a través del gigantismo de obras que actúan a la manera de los efectos especiales. Ello conlleva la suspensión del juicio crítico. Su función es convencer de que no hay manera de salir de ese mundo".


Saatchi, Thatcher y la extrema derecha


En este sentido, Le Brun, que siempre se ha distinguido por ser una crítica incómoda –en los setenta tuvo varios desencuentros con neofeministas al criticar "el jesuitismo de Marguerite Duras" y "el feminismo encorsetado y mojigato de estas militantes", como escribió en el libro Lachez tout- recuerda la historia de Charles Saatchi y Margaret Thatcher.
Saatchi, antes de convertirse en el publicista universal que después fue, era su director de campaña. Él creó el eslogan "There's no alternative" (no hay alternativa). "Y poco después se convirtió en uno de los mayores promotores y coleccionistas de arte contemporáneo. Como si ese arte contemporáneo constituyera la mejor escuela de adiestramiento, susceptible de reconfigurar nuestra sensibilidad para obligarnos a aceptar lo que hay", afirma Le Brun.


Este pensamiento entronca con la última broma de Banksy: "Constituye la mayor victoria del capital de estas últimas décadas. Porque se trata de una destrucción que, en lugar de acabar con el valor de la obra, lo multiplica de forma vergonzosa", sostiene la escritora a la que ha molestado particularmente que hubiera poca indignación ante esta extravagancia. "Es una prueba más de que la domesticación mediante un cinismo compartido se ha convertido en una de las armas más seguras del neoliberalismo para instaurar su orden, excluyendo a todos aquellos que pudieran oponerse a él", asegura.


Para ella, la peor consecuencia de este cinismo ante las obras gigantes de Kapoor o Hirst y la autodestrucción de la obra de Banksy es política. No sólo tiene que ver con el gusto ni es algo baladí sino que detrás subyace una intención. "Como en toda empresa totalitaria, se trata de acabar con la escala individual y por supuesto con todo lo que dependa intelectual y psíquicamente de ella. Es un arte contemporáneo que no se opone a los inquietantes progresos de la extrema derecha, antes al contrario", manifiesta. Le Brun analiza que es ese gigantismo de las obras y el hecho de que las admiren multitudes–todo son siempre grandes números- "la base inconsciente de la nueva servidumbre exigida por el capital".
La búsqueda de la belleza


Le Brun ahonda más allá y también habla en su manifiesto del engaño al que la sociedad está siendo sometida mediante cierta estetización del mundo que no es tal. Un engaño del que, para ella, es responsable la industria de la moda que lo que está provocando, más que un embellecimiento del mundo, es todo lo contrario. Es ahí, además, donde introduce la desaparición de las ideas de Sade sobre el cuerpo y el triunfo del neopuritanismo actual que acaba con cualquier singularidad. En términos más prosaicos: lo que hoy nos venden como belleza es algo uniforme y paradójicamente feo.


"El neopuritanismo participa de esa cosmetización del mundo que multiplica el afeamiento porque, de los labios botoxados a la industria del turismo, del body bouilding a la agricultura bio… todo se reduce a mercados de reparación", manifiesta. Y alerta de que "el cuerpo es la víctima principal. Pues si es remodelado, formateado, aseptizado, como ya lo fue en ciertas épocas, para simbolizar la belleza anodina y superficial de un mundo sin negatividad, se ha convertido al mismo tiempo en rehén absoluto de esa mercantilización". Esta es la clave para que las multinacionales de la moda "neutralicen cualquier signo de rebelión", añade.


¿Qué hacer entonces? ¿Cómo escapar de la servidumbre de este arte y estas formas de la moda? Le Brun se queja de la irresponsabilidad de intelectuales, artistas y agentes culturales por seguir contribuyendo a la exaltación del realismo globalista. Ante ello, conmina: "Nos queda el lujo de rechazar la fealdad de la conformidad que se nos impone. A menudo basta con un pequeño desvío, con pararnos un momento, para evitar las trampas de la percepción cautiva que quieren imponernos". En definitiva, buscar lo que no tiene precio.

30/12/2018 - 20:43h

 

Publicado enCultura
Sábado, 15 Diciembre 2018 06:27

“Estoy cansado de las mentiras”

“Estoy cansado de las mentiras”

En sus primeras declaraciones tras ser sentenciado a tres años de prisión el jueves, Cohen reiteró que está arrepentido de haber ayudado a Trump a encubrir dos relaciones sexuales y dijo que se cansó de mentir para proteger al presidente.

El ex abogado de Donald Trump, Michael Cohen, volvió a la carga ayer y afirmó que el entonces candidato sabía que estaba mal ordenar el pago de dinero para silenciar a dos mujeres que afirman haber tenido una relación amorosa con Trump. Al ser preguntado por la ABC News sobre los pagos a la ex actriz porno Stormy Daniels y a la ex modelo Karen McDougal durante la campaña de 2016 el exabogado contestó: “Por supuesto. Trump actuó porque estaba muy preocupado sobre cómo afectaría esto a la elección.” Estas fueron las primeras declaraciones que hizo Cohen luego de ser sentenciado a tres años de prisión el jueves, una condena que comenzará en marzo. “Estoy enojado conmigo mismo porque sabía que lo que estaba haciendo estaba mal”, dijo con los ojos húmedos. El ex abogado presidencial confirmó además que aceptó colaborar con la justicia porque dice estar cansado de las mentiras del presidente: “estoy cansado de las mentiras. Estoy cansado de ser leal al presidente Trump. Di lealtad a alguien que, en verdad, no merece lealtad”, confesó.


El ex confidente del mandatario fue condenado por evasión de impuestos, falsas declaraciones a un banco y violaciones de la ley de financiación de campañas electorales. Los cargos fueron presentados por los fiscales federales en Nueva York y por la oficina del fiscal especial Robert Mueller, el exdirector del FBI que está investigando además la injerencia de Rusia en las elecciones de 2016. El jueves los fiscales calificaron los pagos a las dos mujeres como contribuciones ilegales de campaña destinadas a influir en la elección. Sin embargo el acusado recibió una sentencia reducida por colaborar con Mueller.


Por su parte, Hogan Gidley, uno de los portavoces de la Casa Blanca, acusó a la prensa dar credibilidad a un criminal convicto. “Cohen admitió el mismo haber sido un mentiroso”, contraatacó. “Él ha admitido mentir. Todos lo saben y que ahora haya dicho que va a dejar de hacerlo es un poco tonto”, respondió el vocero de la Casa Blanca al ser preguntado por las supuestas pruebas documentales que acreditarían los pagos de Trump a las dos mujeres en un intento de comprar su silencio.


Al conocerse la sentencia, Trump marcó distancias con los dichos de Cohen asegurando que nunca le ordenó violar la ley y denunció que el abogado aceptó esos cargos para avergonzar al presidente y obtener una sentencia de prisión muy reducida. Además, Trump descartó la importancia de las acusaciones de financiamiento de la campaña y dijo que eran, en el mejor de los casos, violaciones civiles.


“No es cierto en absoluto”, respondió Cohen en la entrevista de ABC. “Bajo ninguna circunstancia quiero avergonzar al presidente”, se defendió para luego agregar que tiene esperanzas de ser recordado por la historia como una ayuda para volver a unir a Estados Unidos.


El abogado que empezó a trabajar para la Organización Trump en 2007 dijo que el mandatario no se parece en nada a la persona que era cuando lo conoció. “Fue sólo un cambio. Les diré que el caballero que está sentado ahora en la Oficina Oval, 1600 Pennsylvania Avenue, no es el Donald Trump que recuerdo de Trump Tower”, denunció. Una posible razón, agregó, es que la presión del trabajo es mucho más de lo que él pensaba que iba a ser. El letrado dijo que se considera a sí mismo como una pieza fundamental para ayudar al destino del país: “nunca es bueno estar del lado equivocado del presidente de los Estados Unidos de América, pero de alguna manera u otra esta tarea ahora ha caído en mis hombros.” Luego agregó que pasará el resto de su vida intentando solucionar el error que acepta haber cometido.


En el final de la entrevista le preguntaron si creía que Trump estaba diciendo la verdad sobre la injerencia de Rusia en las elecciones y respondió que no y luego se negó a hacer más comentarios. “No quiero poner en peligro ninguna investigación”, alegó.


A su vez, los diarios The New York Times y Wall Street Journal informaron que los fiscales federales abrieron otra línea de investigación relacionada con las elecciones, acerca de si extranjeros canalizaron ilegalmente donaciones a la campaña de Trump. Según fuentes cercanas a las investigación citadas por el Times, ésta se centra en determinar si personas originarias de Catar, Arabia Saudita y Emiratos Árabes Unidos utilizaron prestanombres para hacer donaciones con la esperanza de comprar influencia sobre la política de Estados Unidos.

Publicado enInternacional
Miércoles, 05 Diciembre 2018 05:39

Articulación social

Articulación social

Los cuarteles de la simulación política y la manipulación emocional se han puesto a trabajar para modelar el escenario electoral de 2019. Se disponen a agitar fantasmas y barrer la crisis bajo la alfombra para intentar prolongar el actual modelo de concentración económica y descarte social. El ejército se equipa con armas informáticas y de mapeo social para reclutar voluntarios que intervengan los territorios y siembren semillas de discordia en la población. Su estado mayor funciona como brazo político del nuevo modelo de liberalismo digital basado en la información y en su procesamiento mediante algoritmos.


La palabra algoritmo tiene un insospechado origen árabe, legado por un matemático del Asia Central que se radicó en Bagdad hace más de un milenio. Desde entonces, el vocablo transitó un largo camino, asociado siempre a los pasos que orientan un proceso matemático para obtener un resultado. Uno de los investigadores más famosos vinculados con el tema es el criptógrafo inglés Alan Touring, que construyó la máquina que lleva su nombre y que lo hizo famoso por su desempeño durante la Segunda Guerra Mundial, cuando trabajó en descifrar los códigos nazis, particularmente los de la máquina Enigma. El análisis de aquellos datos permitió anticipar bombardeos y salvar vidas.


La teoría matemática de la información redujo luego los procesos a puros intercambios de datos y más tarde la cibernética empezó a reemplazar los humanos por el intercambio entre computadoras. Esa convergencia fue vaciando la comunicación de su contenido social para confinarla al campo de la pura instrumentación tecno económica, base del modelo productivo en ascenso. La concentración empresarial de medios y plataformas bajo un sesgo monopólico amenaza ahora con teledirigir los discursos y narrativas que debieran alimentar el debate público.


El esquema productivo y el informacional se complementan. La economía de nube se basa en el trabajo invisible, no remunerado, desprovisto de estatuto y sin territorio, que simula ofrecer un servicio gratuito a los usuarios para convertirlos en virtuales “esclavos” –como lo define el sociólogo español Angel Luis Lara– al producir enormes ganancias que benefician a plataformas remotas intercambiando emociones, compras, preferencias, viajes y datos biométricos.


Los actores sociales pueden entonces ser reemplazados por un celular y sus acciones dirigidas por control remoto. Es la militancia 2.0 en la que el PRO deposita todas sus fichas para ganar el próximo mandato. Buscan “voluntarios territoriales” en las redes para cubrir su vacío en las barriadas del conurbano y las provincias. Procuran captar perfiles afines en la nube para organizar el desembarco con audios, videos y mensajes que los algoritmos repartirán según el ID digital a partir de la información que suministra cada vecino con sus contactos. Saben que la manipulación individual está al alcance de la mano. La secuencia matemática busca -en este caso- neutralizar las críticas e inocular mensajes de odio o superstición que espanten al electorado de opciones populares.


La oposición al modelo no debería correr en esa cancha enjabonada, donde reinan los grandes procesadores de big data, a menos que solo se aspire a un cambio cosmético. El algoritmo opositor debería ser en este caso el de articular la organización social con todas las mediaciones de comunicación en el territorio (incluyendo las digitales) para restituir el vínculo entre los ciudadanos y su representación política. Volver a unir lo social y lo político, lo individual con lo masivo, las bases con los dirigentes, los medios y las agendas locales con sus audiencias, el capital con el consumo, la universidad con la producción. Recuperar el tejido social con un proyecto que pueda gobernar el salto tecnológico con un modelo inclusivo.


No se trata de renunciar a la batalla tecnológica, sino de replantear el problema desde el contacto personal, la reunión barrial, la ronda de mate y las instancias que articularon históricamente el territorio y la representación política. Ese tejido es el espacio que puede resistir frente a una lógica externa que lo atraviesa todo y que interfiere las relaciones sociales oponiendo a los pobres entre sí o enfrentando a los trabajadores en el mundo laboral uberizado. Es hora de resignificar lo tecnológico desde lo social. De apropiar el algoritmo como la secuencia de acciones humanas que puedan conectar la organización social y política alrededor de la resolución de un problema central: el de construir un modelo productivo que nos incluya a todos.


* Docente de Derecho de la Comunicación Undav-UNM

 

Publicado enSociedad