Cientos de miles de cámaras escrutan Moscú

Las organizaciones de derechos civiles alertan de que la expansión de los sistemas de videovigilancia y reconocimiento facial pueden ser un arma de represión masiva

Moscú aspira a desafiar a China como uno de los lugares más video-escrutados del mundo. La capital rusa ha amasado una de las redes de videovigilancia más completos, con hasta 200.000 cámaras en una sofisticada malla público-privada. El alcalde, Serguéi Sobyanin, aliado de Putin y a quien muchos ven como un posible sucesor, aspira no solo a que esa telaraña se desarrolle sino también a que toda la red disponga de uno de los sistemas de reconocimiento facial más avanzados fuera del gigante asiático como parte de su arsenal de lucha contra el crimen. Pero en un país que reprime la protesta y acalla a los opositores, esta videovigilancia masiva inquieta a las organizaciones de derechos civiles, que alertan de que se podrá usar para rastrear a personas ‘incómodas’ para el poder; además del riesgo del uso de esos datos.

Aliona Popova está convencida de que ha sido víctima de ese sistema de Gran Hermano. La abogada y conocida activista por los derechos de las mujeres fue detenida después de haber participado en una protesta contra el acoso. Sospecha que fue rastreada por una de las miles de cámaras de vigilancia con sistema de reconocimiento facial sembradas por Moscú. “Sin transparencia y garantías, en las manos equivocadas, esta tecnología se convertirá en un arma para la represión masiva de las libertades civiles”, lamenta Popova, que ha acudido a los tribunales con su caso y tiene otros procesos abiertos para limitar el uso de estos sistemas. Sus primeras demandas han sido desestimadas por ahora, despejando el camino para el escrutinio masivo. La ley rusa no regula el análisis de imágenes de vigilancia no consensuada, una laguna que deja su uso muy abierto.

La frondosa maraña de cámaras de vigilancia en el metro moscovita, las calles, organismos oficiales o en los portales de multitud de edificios graba al menos 1.500 millones de horas de metraje al año. Y Moscú, que lleva años apostando por el uso de las nuevas tecnologías y que se ha convertido en número uno en “efectividad del Gobierno electrónico en la prestación de servicios públicos", según un ranquin de la ONU, quiere usar la inteligencia artificial y el Big Data para analizar esos millones de datos. Ahora, la capital rusa ha elevado el envite y ha adquirido un sofisticado –y controvertido— sistema que permite el reconocimiento facial “en tiempo real” en las bases de datos policiales y de seguridad.

El software, desarrollado por la compañía NtechLab, busca los rostros pero también proporciona un reconocimiento en directo, por lo que es más rápido, ha afirmado la compañía, que se hizo famosa hace unos años por lanzar una polémica aplicación (FindFace) que permitía hacer una foto a alguien y rastrearlo en la red social rusa VKontakte (similar a Facebook y con 97 millones de usuarios activos al mes); una herramienta definida como “el fin del anonimato” que NTechLab cerró para centrarse en soluciones para empresas y Gobiernos. Como el sistema que ha vendido a Moscú por casi 3 millones de euros, según la licitación, y que las autoridades de la capital rusa combinarán con otros.

La mitad de las cámaras de la red de vigilancia de Moscú tienen ahora algún tipo de herramienta de reconocimiento facial. Y pronto, esa red “se convertirá en una de las más grandes del mundo, solo rivalizada por los sistemas chinos”, presumió el alcalde Serguéi Sobyanin. La capital de Rusia está todavía lejos del nivel de China, pero es la segunda ciudad de Europa con más cámaras, tras Londres, según varios análisis. “Será magnífico, los delincuentes se mantendrán alejados de Moscú; no habrá lugar para que se escondan aquí”, argumentó el político durante una reunión con el presidente ruso, Vladímir Putin, a mediados del año pasado. El Ayuntamiento de Sobyanin, que aspira a convertir Moscú en el modelo-espejo en el que se miren todas las ciudades del país, asegura que el sistema condujo a la “captura” de hasta 10 delincuentes buscados cada mes el año pasado. “Las grabaciones de las cámaras de vigilancia se utilizan en la investigación de aproximadamente el 70% de los delitos. No solo faltas administrativas, también de delitos importantes”, afirma un portavoz del Consistorio. Y en plena epidemia global de coronavirus, las autoridades han recalcado que utilizarán estos sistemas para detectar a todo aquel que vulnere la cuarentena.

En los últimos meses, la alarma de las organizaciones de derechos civiles por el uso de la videovigilancia en Moscú se ha intensificado. En verano, en plena oleada de protestas por unas elecciones libres en la capital, el Ayuntamiento realizó un nuevo pedido de tecnología de reconocimiento facial –que se empezó a implantar por primera vez antes del Mundial de Fútbol de 2018— e implantó un mecanismo para transmitir en vivo las protestas a los funcionarios de seguridad. Entidades como Human Rights Watch o Amnistía Internacional (AI) sostienen además que los datos captados por las cámaras no solo se compararán con los archivos de seguridad sino también con toda la información disponible online, lo que permitirá poco a poco trazar perfiles, algo más similar al modelo chino.

"La tecnología de reconocimiento facial es por naturaleza profundamente intrusiva, pero además la ausencia total de transparencia y responsabilidad puede derivar en que se tomen represalias contra la protesta pacífica a un nivel inédito”, considera Natalia Zviáguina, responsable de AI Rusia.

También tiene un carácter disuasorio, dicen. “Muchas personas evitarán participar en acciones de protesta, asistir a reuniones religiosas o ir a un club sabiendo que les están siguiendo. Y esto ya supone una violación del derecho a la protesta civil pacífica, el derecho a la reunión y la libertad de expresión”, remarca Sarkís Darbinián, abogado de la organización especializada RosKomSvoboda. “La gente vivirá con miedo constante”, añade. Organizaciones como la suya creen que el caso de Aliona Popova no es único y que algunos de los ciudadanos detenidos tras una protesta fueron identificados gracias al sistema videovigilancia; también al rastreo que hacen los oficiales de seguridad de las imágenes difundidas por los medios y las redes sociales.

Mijaíl Aksel trata de bromear con que el suyo fue uno de los primeros casos. El “detenido piloto”, ironiza. El joven de 21 años, activista destacado del partido de extrema izquierda La otra Rusia, vinculado al escritor Eduard Limonov, fue detenido en el metro de Moscú en 2018. Se le informó que los sistemas de seguridad de la estación lo habían identificado como un criminal buscado. Le mostraron su ficha, con su foto y otros datos personales, pero como no aparecía ningún cargo ni tampoco un número de caso, hicieron una llamada rápida y terminaron por soltarle. “Creo que estaban probando el sistema, debieron empezar por orden alfabético y me tocó. Pero lo que sucedió conmigo le puede ocurrir a cualquiera”, alerta.

Hace unas semanas, Katrín Nenásheva también fue arrestada. Pero la activista de 25 años buscó las controvertidas cámaras y las desafió. La joven artista forma parte de un movimiento que se maquilla el rostro para protestar de manera simbólica contra los sistemas de videovigilancia. “No entendemos cómo funciona esta tecnología, tampoco dónde van a parar nuestros datos, que además tienen sin nuestro consentimiento. El sistema es un auténtico peligro”, remarca.

Pero estas herramientas de reconocimiento facial es solo una de varias medidas similares que Rusia está implementando de forma masiva, alertan las organizaciones de derechos civiles. Una nueva ley permite y dispone que se graben las llamadas a los móviles, por ejemplo, recalca el abogado Darbinián. Y recuerda que el Kremlin ha puesto en marcha normas para controlar Internet y que las autoridades obligan a las empresas a almacenar los datos de sus usuarios en territorio ruso. Las que se han negado, como Facebook o Twitter, han recibido multas o incluso el bloqueo en Rusia, como LinkedIn.

También está la ansiedad por el destino y el acceso a esos miles de datos. Más de 16.000 empleados del Gobierno, oficiales de inteligencia y de seguridad pueden acceder a los 1.500 millones de horas de metraje grabados por la red moscovita. La realidad es que muchas de esas grabaciones están disponibles para la compra en Internet. Y ni siquiera en la Deep Web, sino en páginas fácilmente accesibles por cualquiera, señala el periodista Andrey Kagánskij, que hizo una investigación hace meses. Las imágenes cuestan unos 2.500 rublos (unos 30 euros al cambio), afirma el reportero, colaborador de MBK media, que tuvo acceso a algunas de esas filmaciones “a la carta”.

Pero mientras que en los países occidentales la privacidad se ha convertido en una gran preocupación, en Rusia no está en la lista de inquietudes principales de los ciudadanos. De hecho, se cuentan por miles quienes se están ofreciendo como voluntarios para los programas que han puesto en marcha bancos o supermercados para pagar con el perfil biométrico.

Por María R. Sahuquillo

Moscú - 08 Mar 2020 - 07:48COT

Publicado enInternacional
La sociedad exige explicaciones sobre la implementación de sistemas de reconocimiento facial en América Latina

Mientras los gobiernos siguen ignorando las innumerables evidencias internacionales que comprueban los sesgos y fallas de las tecnologías biométricas de vigilancia, organizaciones de la región cuestionan la ausencia de compromisos con la transparencia, participación y protección de los derechos de las poblaciones afectadas.

Por todos los casos de errores y fallas  que hemos visto alrededor del mundo, nos queda claro que la implementación de sistemas de reconocimiento facial puede generar innumerables riesgos al ejercicio de derechos humanos. Sin embargo, algo de que no solemos hablar es el costo que la adquisición y uso de esas tecnologías representan en los bolsillos de las poblaciones donde estos sitemas se implementan. 

La situación es particularmente grave en América Latina: a pesar de que el argumento de la crisis económica es constantemente utilizado para explicar la disminución de inversiones en servicios básicos como educación y salud, los gobiernos siguen invirtiendo en vigilancia. Y, peor aún, invierten en tecnologías incapaces de cumplir con sus propias promesas. 

Las justificaciones en general vienen de la necesidad de mejorar la seguridad pública, planteando la posibilidad de agilizar la búsqueda de prófugos de la justicia y una identificación más eficaz de delincuentes… Pero los resultados distan de ser los esperados. En 2019, un hombre identificado a través de un sistema de reconocimiento facial estuvo seis días preso por error en Buenos Aires. Lo mismo pasó con una mujer en Río de Janeiro que fue detenida tras ser confundida con otra persona por las cámaras instaladas en algunos barrios de la ciudad, hace alrededor de un año durante el Carnaval.

Nada de eso fue suficiente para impedir que el gobierno del estado de São Paulo decidiera invertir más de 13 millones de dólares (más de 58,6 millones de reales) en la implementación de un sistema de reconocimiento facial para su red de metros. El nuevo sistema puede afectar a millones de personas que circulan diariamente en las líneas donde serán instaladas las cámaras. A pesar de esto, ni el impacto financiero ni el humano fueron considerados suficientemente relevantes para que el proceso de contratación e implementación del sistema incluyera medidas de transparencia y participación. La existencia de obligaciones de rendición de cuentas previstas en la nueva ley general de protección de datos brasileña –que entra en vigencia en agosto de este año– tampoco fue considerada. 

Lo sociedad exige explicaciones

Frente a tal situación, seis organizaciones de defensa de derechos brasileñas decidieron presentar -el último 10 de febrero- una acción judicial demandando que se transparentara la información sobre el uso, procesamiento y almacenamiento de datos biométricos, así como las medidas de seguridad que serán implementadas para garantizar la privacidad de los millones de usuarios del metro. Y tuvieron éxito. Tras la solicitud de pruebas anticipada* de la Defensoria Pública do Estado de São Paulo, Defensoria Pública da União (DPU), Instituto Brasileiro de Defesa do Consumidor (Idec), Intervozes, ARTIGO 19, y el Coletivo de Advocacia em Direitos Humanos (CADHu) la Companhia Metropolitano de São Paulo tiene 30 días hábiles** contados desde el 12 de febrero para entregar la información solicitada.

Estas organizaciones también han manifestado su preocupación por la falta de transparencia en torno a la adquisicón millonaria de tecnologías de vigilancia que han demostrado ser problemáticamente propensas a errores y sesgos en Brasil, así como en otras implementaciones a nivel internacional

La solicitud de pruebas presentada las organizaciones brasileñas se suma a una serie de movimientos en la región para exigir explicaciones sobre los razonamientos que justifican la compra y adopción de tecnologías de vigilancia basadas en la recolección de datos masiva, así como las medidas que serán adoptadas para mitigar los riesgos que estas implican al ejercicio de los derechos humanos. 

En Paraguay, Tedic actualmente cuestiona la inconstitucionalidad de reglamentos presentados para justificar la negativa de acceso a la información sobre un sistema reconocimiento facial que se encuentra implementando desde 2018 y sobre el cual poco se sabe. En Argentina, ADC ha iniciado una acción buscando que se determine la inconstitucionalidad de la resolución que autoriza el sistema de reconocimiento facial en la Ciudad de Buenos Aires, donde se implementaron cerca de 200 cámaras en el espacio público (incluyendo estaciones de metro y trenes).

Si bien no han sido pocos los casos donde se ha expuesto el alto índice de errores que los sistemas de reconocimiento facial han mostrado en su debut como medida de seguridad, es importante destacar que las medidas ya implementadas se han desarrollado sin mecanismos efectivos de rendición de cuentas que permitan auditar y apelar el uso de estas tecnologías en el espacio público; donde sus afectaciones terminan polarizando las brechas de desigualdad y vulnerando aún más a las personas que son perseguidas y reprimidas por parte de sus gobiernos.

Ante la implementación de mecanismos de vigilancia masiva que se anuncian como medida para incrementar la seguridad de las poblaciones donde se despliegan, es importante señalar que ninguna medida puede estar por encima de la obligación de proteger y promover el ejercicio de los derechos humanos.

Desde Derechos Digitales seguimos acompañando y apoyando las acciones tomadas por las organizaciones de Argentina, Brasil y Paraguay esperando que se traduzcan en mayores compromisos de parte de los Estados de la región y sirvan de ejemplo para otros países.

Por Jamila Venturini | 22/02/2020 

Fuentes: derechosdigitales.org

* La solicitud de prueba anticipada es un mecanismo por el cual se pide judicialmente que se generen medios probatorios antes que exista una demanda en curso.

** Traducción hecha por Access Now. 

Fuente: https://www.derechosdigitales.org/14207/la-sociedad-exige-explicaciones-sobre-la-implementacion-de-sistemas-de-reconocimiento-facial-en-america-latina/

Cómo borrar datos personales que no deberían estar en la red

 

Existen herramientas que facilitan la eliminación de cuentas mientras que los buscadores tienen sus propios formularios

Es probable que si teclea su nombre en Google encuentre entradas que no sabía ni que existían. Desde páginas web con datos personales como su dirección o su teléfono a fotografías que en su momento no le preocupó subir a Internet. E incluso cuentas que creó en aplicaciones que apenas llegó a utilizar. A medida que se navega y comparte información en la web, se deja un rastro al que cualquier persona del mundo puede acceder sin levantarse del sofá. Borrar la huella digital por completo es complicado. Pero sí existen opciones para eliminar y llevar un control de la información personal sobre usted que aparece en Internet.

Todo lo que un usuario escribe en redes sociales, blogs, foros u otros servicios puede aparecer en Internet. Es posible editar o borrar gran parte de esta huella de forma manual. “Para localizar este contenido, lo más recomendable es acudir a Google y buscarse a uno mismo, escribiendo entre comillas tu nombre y tu apellido, para posteriormente ir, con mucha paciencia, eliminando toda esa información”, explica Fernando Suárez, presidente del Consejo de Colegios de Ingeniería Informática (CCII) de España.

El usuario puede eliminar una a una cada cuenta que ha creado en redes sociales y otros servicios. Pero hay herramientas que facilitan el trabajo. Por ejemplo, Deseat.me ofrece una lista de todas las cuentas que se ha creado una persona con un email determinado y le permite solicitar su eliminación con solo pulsar un botón. Mientras tanto, AccountKiller recopila enlaces directos para facilitar que cualquier usuario pueda eliminar su cuenta en sitios como Gmail, Instagram, Netflix o Microsoft. “¿Quiere deshacerse de su cuenta en línea? No debería ser un problema, ¿verdad? Desafortunadamente, en muchos sitios, incluidos los populares como Facebook, eliminar su cuenta puede ser un verdadero dolor”, explica en su propia web.

“Eliminar por completo la huella digital es prácticamente imposible: una vez publicamos información en Internet, perdemos el control sobre ella y no sabemos quién puede acceder y con qué objetivo”, advierte Suárez. Para él, “una vez publicado algo en la web, perdemos el control sobre ese contenido”. Pone el siguiente ejemplo: “Si publicamos una foto en una red social y posteriormente la eliminamos, no podemos tener la seguridad de que personas que hayan accedido a dicha fotografía no la hayan publicado en otros sitios web y, por lo tanto, su eliminación es mucho más complicada”.

Cómo borrar la información que aparece en Internet

Además, la la ley europea de derecho al olvido permite pedirle directamente a Google que desindexe cierta información. Es decir, que cuando alguien utilice el buscador, una web determinada no aparezca entre los resultados. Existe un formulario para hacerlo. El usuario debe indicar uno a uno qué enlaces desea que se retiren e indicar el motivo.

Google puede retirar información personal que suponga un riesgo importante de robo de identidad, fraude financiero u otro tipo de daños específicos. Así lo afirma Suárez: “Por ejemplo, números de identificación como el DNI o datos de la tarjeta sanitaria, números de cuentas bancarias o tarjetas de crédito, historiales médicos, imágenes de firmas o fotografías de contenido sexual explícito subido a la web sin nuestro consentimiento”.

Pero la opción de pedirle a Google que elimine cierta información tiene sus limitaciones. Juana María Perea, decana del Colegio Oficial de Ingeniería Informática de las Islas Baleares, destaca que rellenar el formulario no garantiza que desindexen los datos. La compañía de Mountain View revisa uno a uno los enlaces y elige si desindexarlos o no. “Cuando envías una solicitud, en Google buscamos el equilibrio entre los derechos a la privacidad de los usuarios afectados, el interés público que pueda tener esa información y el derecho de otros usuarios a distribuirla”, afirma el gigante tecnológico en su web.

Por ejemplo, la compañía puede rechazar retirar información sobre estafas financieras, negligencias profesionales, condenas penales o conductas de funcionarios. A ello se suma que este formulario solo garantiza la retirada de datos dentro de la Unión Europea. Por lo tanto, los datos seguirán apareciendo en las versiones internacionales del buscador.

Otros buscadores

Google es el líder indiscutible de los buscadores. En 2018 acaparó el 96% de las búsquedas de los usuarios, según Statista. Le siguen de lejos Bing, con un 3%, y Yahoo, con un 1%. Aún así, los expertos recomiendan controlar también qué aparece en estas alternativas. “El proceso anterior solo es aplicable a Google. Yahoo y Bing tienen su propio formulario para ejercer nuestro derecho a desaparecer de la red”, cuenta Perea. En ambos buscadores, en el caso de que acepten la solicitud, el contenido solo se retiraría en Europa.

Tanto Perea como Suárez coinciden en la importancia de controlar en qué sitios webs uno se da de alta. El presidente del CCII aconseja, ante todo, “prudencia antes de hacer uso de las herramientas de internet”: “No solo de aquellas en las que publicamos información de forma directa, como blogs o redes sociales, sino del propio rastro que dejamos, por ejemplo, al hacer búsquedas o navegar”. En este sentido, recomienda eliminar periódicamente las cookies, utilizar VPNs (red privada virtual, por sus siglas en inglés) u optar por buscadores alternativos a Google pensados para navegar sin dejar rastro.

Madrid 17 FEB 2020 - 20:06 CET

Publicado enCultura
Un grupo de alumnos prueba un sistema para controlar la concentración en clase. BrainCo

El científico Rafael Yuste, impulsor de la mayor iniciativa para conocer el cerebro, reclama a los gobiernos la creación de nuevas leyes frente a los riesgos de la neurotecnología

“Tenemos una responsabilidad histórica. Estamos en un momento en que podemos decidir qué tipo de humanidad queremos”. Son palabras mayúsculas, tanto como el reto que se plantea Rafael Yuste. A este neurocientífico español, catedrático de la Universidad de Columbia (EE UU), le susurran en la conciencia los fantasmas de otros grandes científicos de la historia que abrieron la caja de Pandora. Él, que ha impulsado la iniciativa BRAIN, la mayor apuesta por descubrir los secretos del cerebro, no elude su responsabilidad: “Lo llevo como un deber”. Yuste sabe bien lo que su campo, la neurotecnología, ya es capaz de ver y hacer en nuestras mentes. Y teme que se nos vaya de las manos si no se regula. Por eso reclama a los gobiernos de todo el mundo que creen y protejan unos derechos de nuevo cuño: los neuroderechos. Chile quiere ser el primer país que los recoja en su carta magna y ya se está negociando para que este espíritu se incluya en la estrategia del gobierno español para la inteligencia artificial.

El año pasado, Yuste consiguió manipular el comportamiento de unos ratones. Y lo hizo interviniendo en los pequeños cerebros de estos roedores, amaestrados para sorber zumo cuando ven unas rayas verticales en una pantalla. Yuste y su equipo habían apuntado las neuronas concretas que se disparaban en ese momento y las estimularon directamente cuando en la pantalla no se veían las barras. Pero los ratones sorbieron zumo como si las hubieran visto. “Aquí en Columbia un colega mío ha desarrollado una prótesis visual inalámbrica para invidentes con un millón de electrodos, que permite conectar a una persona a la red. Pero también se puede usar para crear soldados con supercapacidades”, advierte Yuste. Ese aparato, financiado por DARPA (la agencia de investigación del Ejército de EE UU), podría estimular hasta 100.000 neuronas, aportando destrezas sobrehumanas.

Cuando Yuste comenzó hace dos años a trabajar en la iniciativa de los neuroderechos era casi un planteamiento abstracto, de ciencia ficción. "Pero ha aumentado la urgencia de la situación, hay problemas bastante serios que se nos vienen de frente; las compañías tecnológicas se están metiendo en esto de cabeza porque piensan, de manera acertada, que el nuevo iPhone va a ser una interfaz cerebro-computadora no invasiva", advierte Yuste. El hombre que impulsó un proyecto en EE UU de 6.000 millones de dólares para investigar el cerebro enumera con preocupación los movimientos de los últimos meses. Facebook ha invertido mil millones de dólares en una compañía que comunica el cerebro con los ordenadores. Y Microsoft otros mil millones en la iniciativa de inteligencia artificial de Elon Musk, que invierte 100 millones en Neuralink, una compañía que implantará finísimos hilos en el cerebro de sus usuarios para aumentar sus competencias. Y a Yuste le consta que Google está haciendo esfuerzos parecidos que no son públicos. Ha llegado la era del neurocapitalismo.

“Estas grandes tecnológicas se están poniendo nerviosas para no quedarse atrás con el nuevo iPhone cerebral. Tenemos que acudir directamente a la sociedad y a quienes hacen las leyes, para evitar abusos", afirma. La tecnología impulsada por Musk pretende ayudar a pacientes con parálisis o extremidades amputadas a controlar su expresión y movimiento o a ver y oír solo con el cerebro. Pero no oculta que el objetivo final es el de conectarnos directamente con las máquinas para mejorarnos con inteligencia artificial. La iniciativa de Facebook es similar: una empresa con el historial de respeto por la privacidad como la de Zuckerberg, accediendo a los pensamientos de sus usuarios. 

Estas pretensiones parecen de ciencia-ficción, pero un simple repaso por algunos logros de la neurociencia en los últimos tiempos ponen estas aspiraciones al alcance de la mano. En 2014, científicos españoles consiguieron transmitir "hola" directamente desde el cerebro de un sujeto al de otro, situado a 7.700 kilómetros de distancia, por medio de impulsos eléctricos. En varios laboratorios se ha conseguido recrear una imagen más o menos nítida de lo que un sujeto está viendo solo analizando las ondas cerebrales que produce. Gracias a la electroencefalografía se ha conseguido leer del cerebro palabras como "cuchara" o "teléfono" cuando alguien pensaba en ellas. También se ha usado para identificar estados de ánimo. En la Universidad de Berkeley fueron capaces de identificar la escena que estaban viendo los sujetos gracias a la nube de palabras que suscitaba su cerebro con el visionado: perro, cielo, mujer, hablar... Una tecnología que podría servir para descubrir sentimientos, dependiendo de las palabras que surjan al ver una imagen: por ejemplo, podría leer “odio” al visionar la imagen de un dictador.

Algunos de estos hitos tienen diez años de antigüedad y desde entonces se han invertido miles de millones en monumentales proyectos privados y gubernamentales, desde Facebook a DARPA, pasando por la Academia de Ciencias de China. "Piensa que el proyecto chino es tres veces más grande que el estadounidense, y va directamente al grano, al fusionar las dos vertientes: inteligencia artificial y neurotecnología", advierte Yuste, que asegura ser optimista sobre las bondades de la neurotecnología y por eso quiere regularla.

“A corto plazo, el peligro más inminente es la pérdida de privacidad mental”, advierte Yuste, que lanzó su iniciativa por los neuroderechos tras debatirlo en Columbia con un equipo de veinticinco especialistas en neurociencia, derecho y ética denominado el Grupo Morningside. Numerosas compañías ya tienen desarrollados dispositivos, generalmente en forma de diadema, para registrar la actividad cerebral de los usuarios que quieran controlar mentalmente drones y coches, o medir el nivel de concentración o el estrés de los trabajadores, como sucede con conductores públicos en China. También allí se están usando con escolares: la diadema lee sus ondas cerebrales y una lucecita muestra al profesor su nivel de concentración. El problema es que la compañía que los vende, BrainCo, aspira a conseguir así la mayor base de datos de este tipo de actividad cerebral. Cuanto más datos tenga, mejores y más valiosas serán sus lecturas, lógicamente. Cuando la industria tecnológica lleva una década extrayendo todos los datos que puedan obtener del uso de aplicaciones y dispositivos, la posibilidad de exprimir cada neurona es un filón irresistible.

Diademas que espían neuronas

La regulación que plantea el grupo de Yuste tiene dos enfoques. Uno de autorregulación, con un juramento tecnocrático que obligue deontológicamente a ingenieros, informáticos y otros especialistas dedicados a la neurotecnología. En este sentido, se está negociando con España para llevar el espíritu de este juramento a la Estrategia Nacional de Inteligencia Artificial que prepara el Gobierno. Por otro lado, Yuste aspira a que los neuroderechos se recojan en la Declaración de Derechos Humanos y a que los gobiernos establezcan un marco legal que evite los abusos. El pionero será Chile, con cuyo Gobierno tiene casi cerrada una legislación específica y su inclusión en la Constitución.

"Lo que me preocupa con más urgencia es el desciframiento de los neurodatos: la privacidad máxima de una persona es lo que piensa, pero ahora ya empieza a ser posible descifrarlo", avisa Yuste. "Lo estamos haciendo a diario en los laboratorios con ratones, en cuanto las compañías privadas tengan acceso a esta información, ríete tú de los problemas de privacidad que hemos tenido hasta ahora con los móviles. Por eso necesitamos neuroderechos, porque es un problema de derechos humanos", resume. El neurocientífico quiere alertar a la población porque "no hay nada de regulación y afecta a los derechos humanos básicos".

La neurobióloga Mara Dierssen, que no está implicada en la iniciativa de Yuste, destaca los problemas bioéticos derivados de las posibilidades de mejora del ser humano mediante neurotecnología. Aunque asegura que hay mucho sensacionalismo y arrogancia en torno a empresas como la de Musk, Dierssen resalta que "a largo plazo se pretende que los implantes puedan entrar en el campo de la cirugía electiva para quienes quieran 'potenciar su cerebro con el poder de un ordenador". "¿Qué consecuencias puede tener la neuromejora en un mundo globalizado, biotecnificado y socioeconómicamente desigual? Inevitablemente surge la gran pregunta de en qué medida esas técnicas serían accesibles a todos", plantea Dierssen, investigadora del Centro de Regulación Genómica y expresidenta de la Sociedad Española de Neurociencia.

Para la neurocientífica Susana Martínez-Conde es una iniciativa "no solo positiva sino necesaria". "Nos estamos dando cuenta como sociedad de que los avances tecnológicos van mucho más allá de lo que estamos preparados filosófica y legalmente. Nos enfrentamos a situaciones sin experiencia previa en la historia", asegura Martínez-Conde, directora del laboratorio de Neurociencia Integrada de la Universidad del Estado de Nueva York. "Es necesario que tomemos nota porque la neurotecnología tiene repercusiones directas sobre lo que significa ser humano. Existe un potencial para el desastre si dejamos que se nos siga yendo de las manos porque hay una total falta de regulación. Es momento de actuar antes de un desastre a escala global", avisa.

Este desastre tiene resonancias históricas. Mientras conversa desde su despacho de Columbia, Yuste observa el edificio en el que se lanzó el proyecto Manhattan, que desembocó con el lanzamiento de sendas bombas atómicas sobre Hiroshima y Nagasaki. "Esos mismos científicos fueron luego los primeros en la línea de batalla para que se regulara la energía nuclear. La misma gente que hizo la bomba atómica. Nosotros estamos al lado, impulsando una revolución neurocientífica, pero también somos los primeros que tenemos que alertar a la sociedad", asegura.

Nuevos 'neuroderechos'

El grupo impulsado por Rafael Yuste desarrolla sus preocupaciones en torno a cinco neuroderechos:

1.- Derecho a la identidad personal. Estos especialistas temen que al conectar los cerebros a computadoras se diluya la identidad de las personas. Cuando los algoritmos ayuden a tomar decisiones, el yo de los individuos puede difuminarse.

2.- Derecho al libre albedrío. Este neuroderecho está muy conectado con el de la identidad personal. Cuando contemos con herramientas externas que interfieran en nuestras decisiones, la capacidad humana para decidir su futuro puede verse en entredicho.

3.- Derecho a la privacidad mental. Las herramientas de neurotecnología que interactúen con los cerebros tendrán capacidad para recopilar todo tipo de información sobre los sujetos en el ámbito más privado que podamos imaginar: sus pensamientos. Los expertos consideran esencial preservar la inviolabilidad de los 'neurodatos' que generan los cerebros humanos.

4.- Derecho al acceso equitativo a las tecnologías de aumentación. Yuste cree que las neurotecnologías traerán innumerables beneficios para los humanos, pero teme que se multipliquen las desigualdades y privilegios de unos pocos, que accedan a estas nuevas capacidades humanas.

5.- Derecho a protección contra sesgos y discriminación. En los últimos años hemos conocido numerosos casos en los que los programas y algoritmos multiplican los prejuicios y sesgos. Este derecho pretende que esos fallos se busquen antes de ponerse en marcha.

Por Javier Salas

12 FEB 2020 - 17:12 COT

La ‘startup’ asturiana que ayuda al inventor de internet a crear la nueva web

La 'startup' gijonesa Empathy.co y la Universidad de Oviedo colaboran para sacar adelante Solid, un entorno web más respetuoso con la privacidad, impulsado por Tim Berners-Lee.

 

Cuando Tim Berners-Lee anunció su proyecto Solid, de descentralización de Internet, suscitó una respetuosa incredulidad. El creador de la World Wide Web, la Red que todos navegamos hoy, había contemplado los escándalos de Cambridge Analytica y de las fake news. Convertido en un mito viviente a estas alturas, no solo criticó las filtraciones de datos y la manipulación sino que propuso amasar un nuevo concepto de Web.

Solid tiene como objetivo "cambiar radicalmente la forma en que funcionan las aplicaciones web hoy en día, para proporcionar una verdadera propiedad de los datos y una mejor privacidad", asegura la propia web. El objetivo es convertirlo en un espacio donde se impida el abuso de la información personal de los usuarios. Y Berners-Lee dio el primer paso: del MIT (Massachusetts Institute of Technology) y bajo su dirección nació el embrión del proyecto. ¿El objetivo? Dar el control total al usuario sobre sus datos. El problema es que esto va en contra del modelo de negocio de Google, Facebook e incluso Amazon.

Pero Berners-Lee no espera hacer esto solo ni hacerlo rápido. Después de esta primera piedra han llegado universidades y startups interesadas en poner los ladrillos y el cemento. Empathy.co, con sede en Gijón, es una de las startups que ha empezado a trabajar en el marco de Solid. Tienen un proyecto para crear un buscador para tiendas online y apps basado en los principios de esta nueva Web.

Para llevar a cabo el proyecto, la empresa asturiana cuenta con la colaboración de la Universidad de Oviedo, con quien ha firmado un contrato de I+D. La primera versión del buscador se lanzará en el mes de diciembre de este año y estará lista para enriquecer el ecosistema de Solid. En este espacio los procesos funcionan de forma diferente. “En vez de tener un cliente, ordenador o móvil, y un servidor, las piezas del puzle son un cliente, que se llama POD, y un servidor, que se llama solid”, explica Ángel Maldonado, fundador de Empathy.co.

 “Por su constitución, el servidor en Solid no puede almacenar ningún dato de ti. Tu POD tiene todos tus datos, como si fuera una nube propia. Es tuyo, está adherido a ti”, continúa Maldonado. Este elemento clave, el POD (personal online data), hace de intermediario. Con Solid, cualquier aplicación accedería a los datos del usuario a través del POD. Todo el perfilado y el análisis de datos suceden mientras la aplicación está abierta. Cuando el usuario la cierra, la información deja de estar accesible para la app.

Se trata de que la aplicación tenga información sobre el usuario para atenderle mejor, pero solo durante el momento en que este interactúa con ella. Igual que si vas a una tienda física y pides una sugerencia. Una vez que te marchas, la tienda no almacena ningún dato sobre tus gustos e intereses. “Esto replantea el concepto de análisis de datos”, incide Maldonado. Ya no se almacenaría información masivamente para predecir el comportamiento digital.

Así funciona Solid y esto es lo que Empathy quiere trasladar a su futuro buscador para tiendas online. En este tipo de producto la compañía tiene sobrada experiencia en el mercado. Entre sus clientes están Casa del Libro, los supermercados Kroger o Inditex. Pero para que el nuevo buscador funcione, la tienda o la aplicación tendrán que estar adheridas voluntariamente a los principios de este nuevo Internet, como lo denomina Maldonado.

Un cambio a largo plazo

En Empathy se toparon con el proyecto de Tim Berners-Lee tras una búsqueda de esquemas que mejoraran la privacidad del usuario, una sensibilidad que siempre ha estado presente en la empresa. Cuando contactaron con Inrupt, la startup encargada de coordinar la naciente comunidad de Solid, les dijeron que ellos ya tenían un acuerdo con la Universidad de Oviedo.

El socio no podía estar más cerca. Empathy tiene en la Universidad de Oviedo una cantera para reclutar talento, así que no partían de cero. Se constituyó un equipo combinado para abordar el proyecto. La universidad, vinculada desde hace tiempo a proyectos de Tim Berners-Lee, tenía a estudiantes que ya habían trabajado sobre las especificaciones técnicas de Solid.

La Universidad de Oviedo es uno de los centros académicos con los que trabaja Inrupt para difundir la programación de aplicaciones en el entorno Solid. “Es necesario que las personas aprendan cómo desarrollar aplicaciones y PODS en Solid. Cuando los valores y los conocimientos se aprenden desde jóvenes forman parte del sistema”, señala Mitzi László, directora de comunicación de Inrupt. “Además, es fantástico que puedan ver cómo Solid puede ofrecer oportunidades para labrarte una carrera profesional”.

Maldonado apunta que el cambio tiene que darse a largo plazo, pero se muestra esperanzado: “El caldo de cultivo de Solid es esta nueva sensibilidad que por fin tenemos, como individuos y como sociedad, sobre el uso y abuso que se ha estado haciendo de nuestros perfiles”. Ni Google ni Facebook adoptarán Solid. El CEO de Empathy tampoco ve viable que lo hagan las grandes compañías que ya han hecho un esfuerzo enorme en digitalización. Pero sí las pymes.

“La pequeña y mediana empresa se juega mucho más. No tienen acceso al big data y tienen otras prioridades. Ellos buscan la fidelidad y una relación honesta y franca”, destaca Maldonado. Su buscador se pondrá a disposición de todos, de forma abierta y gratuita, según los estándares de la iniciativa. Pero Empathy espera ganar experiencia para lanzar después otro buscador dirigido a pymes.

Este combo, de startups y universidades, es importante para que germine el nuevo entorno, según László. “Solid es un estándar abierto, así que las contribuciones de estudiantes, académicos y empresas son muy importantes para lograr interoperabilidad. Esto será lo que deje al usuario la posibilidad de elegir entre muchas opciones”, remata la directora de comunicación de Inrupt.

Madrid 3 SEP 2019 - 10:06 CEST

“Me controlaba. Vivía con psicosis”: la experiencia de una mujer espiada a través del móvil

Decenas de ‘apps’, publicitadas como herramientas para vigilar menores o antirrobos, permiten acciones ilegales como escuchar llamadas, leer chats y acceder al teléfono de otra persona sin su consentimiento

 

Hasta hace ocho meses Laura (nombre ficticio a petición de la víctima) no podía hacer nada con su móvil sin que su novio lo supiera. Se enteraba de cada mensaje que mandaba, cada fotografía que almacenaba o cada me gusta que daba en cualquier red social. También sabía en todo momento dónde se encontraba, de qué hablaba cuando llamaba por teléfono y qué buscaba en Internet. Quien hoy en día ya es su expareja tenía una aplicación espía instalada en su móvil sin que ella lo supiera: “Cuando mantenía una conversación o hablaba con una persona que él no controlaba, me preguntaba al respecto y yo no daba crédito. Vivía con psicosis”.

La app que su novio tuvo descargada en su smartphone durante cuatro meses permite, por unos cinco euros, acceder al historial de llamadas, ver las fotografías guardadas en el dispositivo, leer los correos o consultar las aplicaciones instaladas. La versión premium, que vale cerca de siete euros, incluye funciones adicionales. Entre ellas, están grabar las llamadas y el entorno del teléfono en cualquier momento, leer los chats de WhatsApp, acceder a los mensajes de Tinder e incluso borrar datos del teléfono o bloquearlo por control remoto. Esta aplicación, según se explica en su página web, permanece oculta en el teléfono en el que se haya descargado y no aparece en la lista de apps instaladas en el mismo. La identificación de este y otros programas del mercado se ha obviado para no facilitar su uso.

Lo que le ha ocurrido a Laura no es un caso aislado. Un grupo de investigadores de la Universidad de Cornell, la Universidad de Nueva York y el Instituto Tecnológico de Israel encontró decenas de aplicaciones de este tipo en el mercado: desde apps más básicas que dan información como la posición a través del GPS hasta algunas muy avanzadas que permiten el acceso a la cámara, la visualización de la pantalla en remoto y la posibilidad de controlar el móvil a través del ordenador pudiendo acceder a todo el contenido y las aplicaciones del mismo. La investigación, publicada en 2018, revela que la mayoría de estas apps son de “doble uso” y se hacen pasar por herramientas de seguridad infantil o antirrobo. Esto dificulta la comprensión de la escala real del problema.

Laura, de 26 años, comenzó la relación con su ya expareja cuando salía con un amigo de él. “Siempre decía que no podía confiar en mí porque si le había hecho eso a su amigo, seguro que a él también se lo haría. Al principio eran discusiones que se pasaban rápido. Pero con el tiempo empezó a obsesionarse conmigo. Quería saber qué hacía y a dónde iba. Si le contaba algo, me preguntaba muchas veces si era verdad. Los celos estaban presentes en nuestras conversaciones diarias”, recuerda Laura.

A medida que avanzaba la relación, que duró dos años, ella cada vez “hacía menos cosas”: “Apenas publicaba en redes sociales y perdí un montón de amigos”. Su novio quería estar al tanto de todos sus movimientos. “Cuando estaba escribiendo, siempre miraba de reojo. Más tarde me pidió las contraseñas y no se las quise dar, pero se enfadó muchísimo porque decía que no podía confiar en mí, así que se las dí y me cree otros perfiles en Instagram y Snapchat para poder tener mi intimidad. No hacía nada malo ni tonteaba con nadie, pero quería sentirme libre de hablar con mis amigas y amigos”, cuenta.

Su pareja vivía con la obsesión de que ella se fuera con otro chico, según relata: “Alguna vez le pillé al salir del baño con mi teléfono en la mano y me decía que lo había cogido para mirar la hora. Cuando me llamaba un número que no conocía, lo apuntaba en su móvil. También se sabía los nombres de todos los contactos agregados en Facebook y me había interrogado sobre todos los chicos obligándome a borrar varios”.

El control cada vez era mayor. Hasta el punto de que llegó un momento en el que él se enteraba de cosas que ella jamás le había contado. Fue entonces cuando empezó a sospechar que la espiaba de algún modo. Buscó al respecto en Internet y cuando se enteró de la existencia de este tipo de aplicaciones, decidió buscar ayuda y acabar con la relación. Contactó con Stop Haters, la primera asociación española sin ánimo de lucro para luchar contra el hostigamiento en Internet.

Allí lo primero que hicieron fue comprobar y verificar la seguridad de su teléfono, sus contraseñas y redes sociales. Este es el procedimiento habitual que realizan con cada persona que recurre a ellos, según cuentan el informático de la asociación José Miguel Rodríguez y la abogada de la organización Sara G. Antúnez. De esta forma, se dieron cuenta de que alguien había instalado en su móvil una aplicación de control remoto con la que veía desde otro dispositivo todo lo ella hacía en su teléfono sin que se enterara.

Para instalar esta aplicación, la expareja de Laura necesitó tener su teléfono una sola vez. “No tenía acceso normalmente, pero alguna vez me lo pidió para buscar algo en Internet con la excusa de no tener datos”, recuerda Laura. Rodríguez explica que quien instala una app de este tipo “puede necesitar un acceso al dispositivo o no, ya que puede engañar a la víctima haciéndole pensar que la aplicación que está instalando es útil para un uso determinado”. Por ejemplo, cuando una persona hace creer a otra que una app de localización puede ser de ayuda si se le pierde el móvil, pero en realidad tiene otras funciones.

Parejas jóvenes

Las personas que utilizan esta forma de acoso “suelen tener unos conocimientos mínimos en tecnología para gestionar las aplicaciones espías y ocultarlas”. Este tipo de conductas, según el informático, cada vez son más comunes entre parejas jóvenes, en casos de violencia de género y en situaciones de celotipias —celos patológicos— o de sospecha de infidelidad: “Existe una importante distorsión de las relaciones sentimentales y la privacidad de los individuos que las conforman por el auge de las redes sociales”.

La radio pública estadounidense NPR publicó en 2014 los resultados de una encuesta realizada a 70 refugios en los que se alojaban mujeres maltratadas. Casi 60 de ellos afirmaron estar trabajando con víctimas controladas por sus maltratadores con este tipo de aplicaciones. Unos 50 dijeron además atender a mujeres cuyas conversaciones habían sido escuchadas a escondidas de forma remota. Ese mismo año un estudio realizado por la organización Women´s Aid confirmó la misma realidad. Cuatro de cada diez mujeres afirmaron que sus parejas o exparejas habían utilizado sus actividades en línea para rastrear sus movimientos y controlarlas.

Pese a que Antúnez señala que es más frecuente que este tipo de aplicaciones sean instaladas por hombres en teléfonos de mujeres, afirma que también hay un alto porcentaje de chicas que realizan estas prácticas. E incluso es posible encontrar estas conductas de forma mucho menos habitual entre empresarios y empleados y padres e hijos. De hecho, la aplicación que utilizaba el exnovio de Laura está destinada a vigilar a hijos menores de 18 años y localizar a empleados a través de teléfonos móviles o tablets propiedad de la compañía.

Rodríguez explica que estas aplicaciones, que están disponibles tanto en la Play Store como en la tienda de Apple, sí que son legales: “Lo peligroso de estas aplicaciones no son ellas en sí, sino el uso que se le da, que a veces no es el correcto”. “Este tipo de apps tienen otros objetivos como, por ejemplo, en el caso de una persona que graba videotutoriales, poder visualizar la pantalla en el ordenador y manejarlo desde el mismo. También son útiles para asistencia remota y poder solucionar problemas sin disponer del dispositivo físico”, afirma.

Sin embargo, usarlas para espiar a una persona sin que lo sepa sí que puede ser un delito. El Código Penal español castiga este acto como un delito contra la intimidad, basado en el derecho constitucional a la inviolabilidad de las comunicaciones y a preservar la intimidad personal, que puede ocasionar penas de prisión que van desde uno hasta cuatro años. Por ejemplo, un juez condenó en 2015 en España a dos años y medio de cárcel a un hombre por espiar el móvil de su pareja.

El informático y la abogada de Stop Haters recomiendan a cualquier persona que piense que está siendo víctima de estas prácticas restaurar el movil al estado de fábrica y denunciar el caso. Hasta que Laura contactó con Stop Haters y tomó medidas para acabar con el control, se sentía “encerrada y angustiada”: “Él no era agresivo, pero sí muy manipulador y chantajista y me hacía sentir culpable”. Ahora está en shock: “Estoy recibiendo asistencia psicológica para entender que lo que me ha hecho es una forma de maltrato”. Y tiene claro qué consejo le daría a cualquier persona que pueda pasar por algo similar: “Que a la primera sospecha, corte la relación, siempre va a peor. Y que busque ayuda profesional”.

Tecnología de control

Acceder a lo que una persona hace se ha vuelto más fácil con las nuevas tecnologías. “Desde la aparición de las redes sociales, el control y la confusión de la libertad del individuo y los valores de la confianza se están perdiendo absolutamente”, explica Rodríguez. El informático de Stop Haters señala que cada vez más parejas confunden la confianza con la entrega de la intimidad y la privacidad: “Comportamientos que vemos muy a menudo se basan precisamente en el control de chats de mensajería instantánea, aplicaciones móviles y redes sociales. Pero también contactos y fotografías”. Instagram es “la primera red cultivo de estas problemáticas seguida por WhatsApp”.

Resultan especialmente conflictivas las stories de Instagram: “Empleado de baja que sube foto de una fiesta, miembro de una pareja que ha dicho que iba a hacer una cosa y sube otra o menores que prometen ir a estudiar y cuelgan fotos con amigos que ve el padre”. También existen casos en los que ambos miembros de la pareja consienten instalarse, por ejemplo, aplicaciones de geolocalización para conocer dónde se encuentra el otro en todo momento: “Aunque exista consentimiento, es una práctica que se aleja mucho de configurar una relación sentimental saludable”.

5 AGO 2019 - 02:01 COT

Publicado enSociedad
Martes, 16 Julio 2019 07:29

La dictadura digital

La dictadura digital

La digitalización de nuestras vidas avanza a ritmo acelerado y “ataca” desde tantos ángulos que es difícil verla en toda su complejidad y más aún analizar críticamente la mega-infra-superestructura que conforma.

En 2018, la cantidad de suscripciones a teléfonos móviles superó la cantidad de habitantes en el planeta. Hay mucho más aparatos telefónicos que personas en el planeta. A nivel global, un 53% de la población mundial usa internet. Pero mientras que en Estados Unidos y Europa más del 95% de la población tiene acceso a internet y lo usa diariamente (en países escandinavos y Emiratos Árabes Unidos más del 99%), en los países de África Central es menos del 10 % de la población y entre los 47 países llamados menos desarrollados, sólo el 19 % de la población tiene acceso a internet.

Pero la era digital no se trata sólo de computadoras, teléfonos móviles e internet que están omnipresentes en casi todo el planeta, aunque el acceso a ellos mantiene desigualdades históricas. Se trata además de la acumulación masiva de datos sobre las personas y sus interacciones económicas, sociales, políticas por parte de unas cuantas empresas trasnacionales. Se trata del mapeo y digitalización de la información sobre toda la naturaleza y recursos materiales explotables o no. Se trata de los graves impactos ambientales y en la salud que conlleva tanto la producción de aparatos y la basura que generan, como la inmensa infraestructura para conexión y la capilaridad de sus radiaciones electromagnéticas. Se trata de cambios profundos en las formas de producir en todos los rubros industriales –sean urbanos o rurales–, se trata de rupturas en las formas de vender y comprar, tanto a nivel micro como en el comercio nacional e internacional. No cambia las relaciones de explotación y dominación que sostienen el capitalismo, pero sí muchas de sus manifestaciones.

Según Benjamin H. Bratton, estamos ante la mayor infraestructura accidental jamás creada, ya que nunca se planeó crear una mega estructura como la que actualmente existe para sostener la era digital. Que además, lejos de ser etérea, es altamente material: son enormes las demandas de materiales para dispositivos y almacenamiento, y abrumadora la cantidad de energía que requiere.

Internet funciona como la línea roja que une estas trasformaciones y está centralizada y controlada desde Estados Unidos, a través de ICANN, (Corporación de internet para la asignación de nombres y números), que asigna los dominios de internet en todo el mundo. Esta centralización del control de la administración de internet se debate y cuestiona tanto desde otras potencias mundiales como Europa y China, como desde los movimientos de activistas digitales críticos, que han llamado a esta realidad un nuevo “Colonialismo 2.0

Sobre ella se montan y crecen inmensas plataformas digitales, que no pagan impuestos ni son controladas por ninguna regulación ni supervisión, como Google, Amazon, Facebook, Apple, Microsoft, Airbnb, Uber, Alibaba, Baidu, Twitter, Whatsapp, Telegram y otras, cuya influencia en la vida, relaciones y opciones de la mayoría de la población mundial, tampoco tiene precedentes. Una gran parte de esa población les entrega sus datos de manera voluntaria, como ubicación, rutinas, gustos, opiniones, preferencias, relaciones. La digitalización de las funciones y servicios públicos y privados que usamos, sea por registros laborales o de estudio, asistencia a centros de salud, uso de tarjetas bancarias, tarjetas de fidelidad a comercios y servicios, hace que los datos de cada uno de nosotros sean conocidos, manejados, vendidos, sin que en nosotros realmente tengamos opción a opinar sobre ello. Aunque paulatinamente se han empezado a hacer tímidas e insuficientes regulaciones sobre el manejo de los datos personales, el alud de servicios digitales que los requieren hacen casi imposible tener control sobre ellos.

Facebook es uno de los ejemplos más evidentes. La semana pasada (julio 2019), la Comisión Federal de Comercio de Estados Unidos, sentenció a Facebook a pagar una multa de 5,000 millones de dólares por mal manejo de los datos que tiene sobre sus usuarios. El detonante fue haber cedido los datos de más de 80 millones de usuarios a la empresa Cambridge Analytica, que manipuló al electorado selectivamente en el caso de Brexit en Reino Unido, la elección de Trump, la de Macri en Argentina y otras. En mayo 2018, luego del escándalo al conocer sus métodos, Cambridge Analytica cerró, pero renació poco después como Emerdata Ltd. Steve Bannon, fundador de Cambridge Analytica y asesor de Trump, colaboró también directamente con Jair Bolsonaro para ganar la elección en Brasil.

Paradójicamente, junto al anuncio de la multa, las acciones de Facebook subieron, por lo que su fundador, Mark Zuckerberg, que es uno de los 8 hombres más ricos del mundo, se volvió un poco más rico. Se supone que este efecto fue debido a que los inversores consideraron que la sentencia fue manejable,ya que Facebook podrá recuperar la suma con sus ganancias de apenas 50 días.

Otro aspecto altamente preocupante es la proliferación de cámaras de vigilancia “inteligentes”. China es el líder mundial en este tipo de vigilancia, y ha desarrollado sistemas que integran reconocimiento facial en multitudes, además de cámaras portables de este tipo que llevan agentes policiales. Aunque el nivel de errores de estos sistemas es muy alto, se están extendiendo por todo el mundo. Empresas chinas están ajustando la tecnología para que sea sensible a las diferencias de rasgos raciales, con la intención de introducirlas en África y otros países del Sur. En América Latina, Ecuador fue quien primero contrató este tipo de tecnología, y actualmente lo están adoptando en varios otros países, entre ellos Argentina y Uruguay. En México, el estado de Cohauila, se vanagloria de ser el primero en instalarlo este año, que en un acuerdo con la empresa china Dahua, instalará 2000 cámaras con reconocimienton facial en 11 ciudades de la entidad. Le sigue los pasos la Ciudad de México, que las instalará en el Metro.

Esto son sólo algunos de los aspectos críticos de la era digital y en todos los casos, se basan en el aumento de la capacidad y extensión de la conexión de redes electrónica, cuyo puntal será la aplicación global de las redes 5G lo cual – a costa de convertir el planeta en un gigantesco horno de microondas– les permitiría dar acceso en lugares que actualmente parecen inaccesibles, como la Amazonía o África Central, además de regiones remotas otros países. Para ello, las empresas pretenden que los estados financien con dinero público estos empredimientos, lo cual es presentado en todas partes como “un derecho al acceso a internet” , en favor de la democracia.

Si bien hay aspectos positivos de la conectividad de la era digital, necesitamos un debate crítico del rol que está jugando para favorecer el aumento y/o la entrada del capitalismo en todos los rincones del planeta, basado en una red de vigilancia que deja al Gran Hermano de Orwell como una mera fantasía literaria.

Libra: mercantilización disfrazada de criptomoneda

En el siglo XXI, los teléfonos móviles han sustituido a las bayonetas como herramienta bélica-comercial. Dada la capacidad de las tecnologías digitales para extenderse por todo el globo, hay que poner el foco en la utilidad geopolítica que pueda tener Libra, la moneda controlada por Facebook.

 

 

En un claro ejercicio de contorsionismo publicitario, la firma que explota la infraestructura digital sobre la que se erigen las sociedades contemporáneas ha lanzado una “moneda global”, llamada Libra, con el fin de “empoderar a billones de personas.” Ciertamente, este era un acontecimiento esperado: tras haber disrumpido la vida política de los ciudadanos con la retórica de conectar a la humanidad, el ethos humanitarista de Facebook ha arribado en la industria financiera, quien desde hace algunas décadas ostenta el papel de intermediario central en la economía capitalista

Gracias a una suerte de monedero digital diseñado para intercambiar dinero, el cual ha recibido el nombre de Calibra, la compañía que lo controla afirma que pueda dar respuesta a uno de los grandes problemas que sufren los llamados “unbanked”: el acceso a los servicios financieros (restringido debido a cuestiones geográficas, burocráticas o económicas de los países pobres). La tecnología como el blockchain no requiere que los bancos centrales, u otras instituciones financieras, intervengan en los pagos. Por este motivo es descentralizada: los negocios no tienen que estar mediados por los bancos, quienes imponen elevados costes para llevar a cabo transacciones monetarias. Los estratos más pobres de África están de suerte: seguirán careciendo de cajeros, y ya no digamos de control sobre las finanzas públicas, pero al menos tendrán una cuenta en Facebook. ¿Nos encontramos ante un “nuevo bien público mundial”, en palabras de David Marcus (CEO de Libra), o ante un movimiento hacia delante de la clase dominante?

De un lado, aunque algunos estudios defienden que la introducción de las criptomonedas puede tener un impacto positivo en el sector financiero y desarrollar una infraestructura para llegar a las personas en condiciones de pobreza, asentar el debate sobre este argumento tiende a pasar por alto dos cuestiones importantes. La primera, como señalan voces tan poco heterodoxas como las del Financial Times, es que la mayoría de las características que componen las cadena de bloques no se encuentran presentes en Libra. ¡Es una criptomoneda que no es una criptomoneda! La segunda es la vinculación entre la tecnología y la agenda neoliberal. Brett Scott, autor del libro The Heretic's Guide to Global Finance, resumía de manera cristalina su pensamiento tecnocrático al afirmar que los problemas de acceso bancario pueden ser entendidos como disfuncionalidades del sistema capitalista a solucionar mediante inversión privada o como un cambio sociológico que requiere de educación o instituciones locales para ser revertido, y no de los mercados financieros. Al promover estos últimos, Facebook también reduce el margen de acción de los antiguos y obsoletos acuerdos constitucionales firmados por los estados.

Ninguna concesión al poder performativo de este discurso corporativo: tras la crisis financiera de 2008, un escándalo de una envergadura bastante mayor al de Cambridge Analytica, tanto los bancos centrales como el modelo de acumulación sin producción de mercancías se pusieron en entredicho. El lenguaje emotivo en torno al bitcoin o las criptomonedas (la aplicación más desarrollada de la tecnología blockchain) ha venido a rescatar (o disrumpir) el sistema financiero. Facebook, incrustado en los ubicuos dispositivos de dos mil doscientos millones de usuarios (Instagram tiene algo menos de la mitad), se acaba de postular para llevar a cabo esta hazaña. Y no está solo.

Entre los veintisiete Founding Fathers que desplegarán semejante infraestructura digital se encuentran compañías de pagos (Visa, Mastercard o Paypal), gigantes tecnológicos (ebay, Uber o su competidor Lift y Spotify), empresas de telecomunicaciones (Vodafone, quien ha iniciado el despliegue precomercial de 5G en España), de blockchain (Xapo Holdings Limited, entre cuyo órgano asesor se encuentra el exsecretario del Tesoro Larry Summers, quien ya trabajó con la segunda personas más importante de Facebook —Sheryl Sandberg— durante aquella época), firmas de capital riesgo (Andreessen Horowitz, que en 2012 entregó 2.000 millones de dólares a Facebook para comprar una compañía de realidad virtual llamada Oculus) y un también un puñado de instituciones sin ánimo de lucro para camuflar sus planes ante la opinión pública (Creative Destruction Lab, entre cuyos “mentores” destaca Elizabeth Caley, directora de la fundación Chan Zuckerberg Initiative). Desde luego, esto es lo más parecido a lo que los teóricos del Estado patrios definirían como un “bloque histórico” llamado a superar la “coyuntura” contemporánea.

Parece sencillo de entender que estos capitalistas desarrollarán todo tipo de aplicaciones user-friendly (como la de Spotify) para enviar monedas digitales o hacer transferencias a través de Messenger o Whatsapp. Una vez privatizada y mercantilizada la infraestructura de las comunicaciones, lo cual pone en jaque cualquier noción de democracia, como hemos observado recientemente en algunos procesos electorales, Facebook quiere expandirse hacia cada vez más áreas de la vida de las persona. También alumbrar la forma más depurada de lo que David Harvey ha dado en llamar “acumulación por desposesión [de activos económicos]”. Qué duda cabe de que cuenta con la tecnología a su alcance para llevarlo a cabo.

Este doble movimiento de Facebook es extremadamente poderoso y sigue la última moda en Silicon Valley: mercantilizar los datos de los usuarios. Evgeny Morozov lo resumía de la siguiente forma: “la apuesta a largo plazo de Facebook implicaría una economía digital donde los datos y los servicios digitales estén completamente mercantilizados”. Este modelo de negocio, añadía, podría ser tan rentable como aquel en el que los imperativos de la publicidad contribuyeron a alejar esos mismos datos de otros mercados. Basta un sencillo ejercicio de lógica para comprender que una empresa, en el foco de los legisladores anti-monopolio, quiera diversificar su modelo de negocio, cobrar directamente por la prestación de servicios y enarbolar el argumentario de que no manipula las conciencias políticas para ganar dinero vendiendo publicidad a cualquier anunciante republicano. Al parecer, la forma más pura de la mercancía, gracias a su cualidad fetichista, no genera tantos problemas de cara a la opinión pública.

Por otro lado, si nos fijamos en el modo en que se desarrolla la competencia en la economía global podemos comprender otro de los motivos por los que Facebook ha puesto en marcha Libra. En China, el hecho de que una red social ofrezca un sistema de pago no supone novedad alguna. El pago a través de WeChat (el programa de mensajería y redes sociales de Tencent con más de 1.000 millones de usuarios activos) o de Alipay (Alibaba) se encuentra ampliamente implementado en el país, hasta el punto en que incluso es posible entregar limosnas a los vagabundos mediante un código QR. De hecho, Tencent lanzó su propia moneda virtual mediante QQ Coin en 1999.

Probablemente, la armada de estrategas en asuntos públicos que Facebook tiene en plantilla hayan asesorado a Mark Zuckerberg de que se presente ante los reguladores estadounidenses, o directamente ante Donald Trump, como una poderosa arma de contención del gigante chino. No es ninguna novedad que las corporaciones de Silicon Valley, o la de Wall Street y Hollywood, sean herramientas valiosas para la política exterior estadounidenses (estas primeras jugaron un importante rol diplomático durante el primer mandato de Barack Obama en países como México, Siria o Iraq), sino que el enemigo a batir en este caso sea tan poderoso como China; y más aún, teniendo en cuenta su rápida expansión hacia África mediante fuertes inversiones en infraestructura y la creación de instituciones financieras propias, las cuales emplea como soft power mientras lleva a la realidad la estrategia llamada One Belt, One Road.

En el siglo XXI, los teléfonos móviles han sustituido a las bayonetas como herramienta bélica-comercial. Estos pueden emplearse para acabar con la regulación de los mercados bancarios y financieros de las regiones, sea africanas o asiáticas, o directamente para atraer al resto de monedas hacia el núcleo irradiador del dólar. Como señala un estudio reciente, los países africanos carecen de la capacidad para crear infraestructuras de datos robustas (este el nuevo subdesarrollo) y, como resultado, emplean teléfonos móviles para entregar el salario a los trabajadores, pagar las facturas domésticas o son utilizados por pequeñas empresas para efectuar transacciones comerciales internacionales. ¿Por qué le habrán llamado libra, dando lugar a especulaciones sobre una posible guerra de divisas, cuando quieren decir reafirmar el enorme poder del dólar?

Que la información sobre las transferencias de dinero, una relación social según Marx, se hayan almacenado en el libro de cuentas de los bancos sin que el Estado pudiera auditarlo es un suceso tan antiguo como el renacimiento italiano, pero dada la capacidad de las tecnologías digitales para extenderse por todo globo, la utilidad geopolítica que pueda tener esta moneda en control de Facebook no es baladí. Aunque para ello deba convencer a los usuarios de que la utilicen (probablemente con algún incentivo económico), a los legisladores y a otros países.

En relación a este último punto, Zuckerberg viajó a Sudáfrica en 2013 para reunirse con distintos líderes regionales y propuso desplegar redes gratuitas de internet (llamadas Freebasics) para que la economía de los países desfavorecidos fuera más eficientes. Esta política de desarrollo privada significa que, una vez haya conectado a su infraestructura al 60 por ciento de la población que en 2020 seguirá desconectada, llámese red social o moneda virtual, tendrá la capacidad de controlar e influir en la manera que estas naciones (poco soberanas) acceden al resto de servicios en la economía digital. Un trabajo académico exponía de manera clara la intención de este tipo de iniciativas filantrópicas por parte de los capitalistas digitales (el que siempre ha sido el objetivo principal de la política yanqui): “la dominación global.”

Por último, esta suerte de superestructura erigida sobre el sistema financiero tiene el objetivo de colocar a Facebook en el rol de algo así como un banco central, pero del capital social, como lo definía un estudio publicado hace unos meses, e implementar un modelo de gobernanza neoliberal centralizado, no en el Estado, sino en una corporación estadounidense. Sus conclusiones, foucaultinas en grado máximo, nos resultan esclarecedoras: “cuando el capitalismo digital convierte las interacciones humanas mundanas en producción biopolítica, las corporaciones gobiernan estas interacciones para maximizar sus ganancias y tomar decisiones sobre temas políticos fundamentales; Facebook puede gobernar y disciplinar a los usuarios de manera efectiva; estas plataformas digitales desarrollan aparatos de gobierno y legitimación cuasi-constitucionales”.

Los mercados financieros sustituyeron a los parlamentos y determinaron las políticas fiscales de los Gobiernos europeos una vez la crisis se hizo evidente, lo cual supuso un tremendo ataque a la democracia liberal. Facebook tiene una solución para ambos problemas: imponer sus propios mercados, basados en los datos, y establecer mecanismos de control más autoritarios que los de cualquier banco central. ¿O alguien espera que, en una economía aún inmersa en una enorme crisis, toda esa información que Facebook tiene sobre los ciudadanos sea utilizada para algún fin distinto al de aplicar recetas de austeridad, privatizar de manera inteligente los servicios públicos o dictaminar el comportamiento de las administraciones públicas? Ante esta realidad catastrófica, a uno sólo le queda recordar que Pedro Sánchez se presentó a las elecciones con un corazón (era el “me gusta” de Instagram) junto al logo de su partido. 

 

Publicado enEconomía
Lunes, 17 Junio 2019 05:34

Perseguidos digitales

Perseguidos digitales

El capitalismo de vigilancia (Shoshana Zuboff, The Age of Capitalism Surveillance) no perdona a quienes en nombre de la verdad y las libertades individuales revelaron sus más truculentos secretos. Julian Assange (foto), Edward Snowden y Chelsea Manning son las más recientes figuras del triángulo de los perseguidos por los imperios coloniales. Uno de ellos, Assange, está en una cárcel londinense a la espera de ser extraditado hacia Estados Unidos porque, a través de WikiLeaks, protagonizó la filtración más grande de la historia sobre las inconfesables intimidades de Estados Unidos. Otro, Snowden, vive exiliado y oculto en Rusia luego de haber revelado la  forma en que la Agencia Nacional de Seguridad de Estados Unidos (NSA) espiaba a todo el planeta, incluidos jefes el Estado y empresas. La tercera, Manning, fue condenada a 35 años de cárcel (tribunal militar) por haber suministrado a Assange, entre ciento de miles de documentos, el famoso video Collateral Murder («asesinato colateral»), donde se ve cómo un helicóptero estadounidense mata a un grupo de civiles durante la ultima invasión de Irak (2003). Y no son los únicos. 

Hay decenas de perseguidos digitales. El ex presidente ecuatoriano Rafael Correa paga en su exilio belga el asilo que le proporcionó a Assange cuando este ingresó a la embajada de Ecuador en Londres, donde permaneció siete años antes de que la policía británica lo arrestara cuando el actual presidente de Ecuador, Lenín Moreno, lo entregó cobardemente. Vanessa Rodel y su hija Keana están exiliadas en Canadá. Ambas forman parte del grupo   de siete personas conocido como “los ángeles guardianes” que, en Hong Kong, protegieron a Snowden durante su estadía. Y el abogado canadiense defensor de los derechos humanos Robert Tibbo, abogado de Snowden y de los “ángeles guardianes”, vive exiliado y oculto en un país europeo.

Ahí está, en su crueldad seca, lo que hace Occidente cuando alguien corre la tapa de sus cloacas. Y nada lo detiene. El presidente boliviano Evo Morales podría contar en primera persona cómo Europa lo persiguió cuando, en junio de 2013, de regreso de un viaje a Rusia, Francia y Portugal le negaron el espacio aéreo a su avión. Los pseudo socialistas franceses y los portugueses sospechaban que Evo Morales traía escondido en su avión a Snowden. Por eso lo obligaron a aterrizar en Viena y le revisaron el aparato durante 14 horas. 

Assange, Snowden y Manning fueron respectivamente descalificados y desfigurados por la misma prensa que, antes, había hecho de ellos héroes modernos. Manning fue vendido como un traidor y una normal porque cambió de sexo. Snowden, como un renegado antipatria y sobre Assange se tejieron los relatos más obscenos que se puedan imaginar. Los medios que antes habían hecho de él el emperador del nuevo periodismo de datos expandieron la narrativa de pelotón de fusilamiento destilada por las agencias dedesinformación: estaba loco, era un drogado, un violador, un agente del Brexit, luego un aliado de Trump y de la Alt Right norteamericana y, encima de todo, un agente del presidente ruso Vladimir Putin. Ese diario golpista que es El País de España se lanzó en una disparatada desconstrucción del mito Assange que el mismo periódico había apuntalado. Se ofendieron porque Assange contribuyó a instalar la posición y las artimañas del independentismo catalán. Resulta  paradójico que hoy Assange cuente con sus mejores respaldos en los países emergentes y no en las naciones ricas, a  cuyos diarios (The New York Times, Le Monde, El País, Dar Spiegel), incomprensiblemente benefició cuando entregó los fondos de la diplomacia estadounidense para que estos diarios hurgaran a su antojo en nuestras realidades. Sólo mucho después suministró la información a los países concernidos que estaban geográficamente fuera de la esfera Occidental. Lo más cínico radica en que Estados Unidos y sus aliados imputan a Assange, a Manning y a Snowden por los mismos delitos que sus servicios secretos y sus empresas globalizadas cometen con toda impunidad: extraer datos. Habría así un hurto legal asumido por Google, Apple, Facebook o Amazon, y otro proscripto cuando son los ciudadanos quienes se metenen las entrañas de un sistema delincuencial para sacar a flote la basura de sus tripas. Lamentablemente, hay en torno a esos delitos de robo de datos y espionaje la misma tolerancia que con la delincuencia de cuello blanco. La sociedad civil no reacciona, no exige, no pugna, no patea, no milita. Porque los expertos de Cambridge Analítica que robaron datos y espiaron millones de cuentas de Facebook (también lo hicieron en la Argentina cuando trabajaron en la campaña del presidente Macri) no están presos. Son ladrones pero impunes. Assange, en cambio, tiene sobre él todo los látigos del castigo y le aguardan en Estados Unidos siglos de cárcel. 

Lamentablemente también, las corrientes progresistas del mundo tardaron y tardan mucho en darse cuenta de que la vida nuclear de nuestras democracias se juega precisamente en Internet y no únicamente en las calles. La izquierda no entendió ni a Assange ni a las redes sociales. La derecha, en cambio, sí que lo hizo y sacó con ello un tajo inmenso. Es profunda y cómicamente incongruente constatar que todos los algoritmos son de derecha. Parece que los algoritmos progresistas capaces de ir a buscar al enemigo y neutralizarlo en los territorios que controla y desde los cuales nos manipula, no existen. No hay un “Che algoritmo”, solo existen los otros y, a la par, un extendidísimo y manso rebaño de usuarios que, pese a saberlo, continúan pegados a sus torturadores digitales. 

Mientras las izquierdas mundiales celebrarban el fin de la hegemonía de la prensa del sistema y el advenimiento de blogs y diarios digitales, las derechas se ocuparon de los algoritmos. Los unos seguían cautivos de sus antagonismos de café, los otros organizaban la gobernabilidad del mundo a su antojo. 

Julian Assange es el enemigo número uno de los tecnoimperios (China y Estados Unidos) porque, al igual que Snowden y Manning, funcionó como el fantasma que contó la verdad del cuento. Hay que volver a leer sus ensayos para medir cuánto se adelantó al capitalismo espía y violador que nos gobierna. Nuestros rostros están fotografiados, nuestras calles cartografiadas, nuestros deseos compilados, nuestros mensajes y correos escaneados, nuestros consumos repertoriados y nuestras ideas manipuladas. Todo ello converge en Assange: es, en su tragedia personal, el violador del imperio. Por ello no lo perdonan ni lo perdonarán. Cuanto más lo castiguen y lo persigan, cuanto más sufrimientos le infrinjan, cuanto más lo hieran y lo desfiguren, más satisfechos estarán los delincuentes digitales, los privados y los estatales. Su sufrimiento es el mensaje que nos transmiten. Su suplicio es, como en la Edad Media, un espectáculo punitivo (Michel Foucault, Vigilar y castigar). Una enorme zona de nuestras democracias se esfumó con el destino de Assange o Snowden. Nuestro silencio ha sido demasiado prolongado. Pero han dejado una huella, las pruebas irrefutables de cómo se activan los mecanismos del mal y quiénes los manejan. Si seguimos dormidos con el juguete tecnológico como canción de cuna, el sueño se acercará cada día más a la pesadilla final. 

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Publicado enSociedad
Gobernemos los algoritmos (para que no nos gobiernen ellos)

 

Desde 2018 el debate sobre los sesgos y efectos perversos de los algoritmos cobra cada día mayor importancia. Fue entonces cuando salió a la luz el caso de la empresa británica Cambridge Analytica, que utilizó datos privados obtenidos de Facebook para intentar influir en las elecciones. Esto nos hizo reflexionar sobre los riesgos de aplicar algoritmos personalizados que explotan las características psicológicas del individuo con fines políticos.

En palabras de Chris Wylie, el exempleado de la empresa que destapó el caso:

Esta experiencia, generalizada pero no compartida, es llamada filter bubble o echo chamber (burbuja de filtro o cámara de eco, en español). El término evidencia cómo las mismas tecnologías que nos conectan también nos aíslan en burbujas informativas que refuerzan determinadas opiniones y nos hacen cada vez más vulnerables a la manipulación.

El caso de Cambridge Analytica forma parte de un conjunto de intentos de manipulación masiva de la opinión pública a través de ingeniería social, que Facebook denomina Information Operation (Operación Información). Es decir, acciones emprendidas por actores organizados (gobiernos u organismos no estatales) para distorsionar los sentimientos políticos de la población, al fin de lograr algún resultado estratégico y geopolítico específico.

 

Capitalismo de vigilancia

 

La psicóloga social Shoshana Zuboff, en su libro The age of surveillance capitalism (La era del capitalismo de vigilancia), nos habla de forma más articulada de algo que ya intuíamos: que la manipulación de opiniones y comportamientos es parte integrante del capitalismo basado en la vigilancia digital.

En este contexto, el dato, sobre todo el de carácter personal, juega un papel clave por dos razones. La primera es que forma parte de la base de la economía digital, el modelo de desarrollo económico más prometedor que tenemos. La segunda, que su análisis permite orientar el comportamiento colectivo, cada vez a mayor escala y de forma más rápida.

Por desgracia, el requisito básico de cada sistema informático que sea capaz de escalar conlleva la amplificación exponencial del riesgo de un posible fallo. La matemática Cathy O’Neil hablaba en 2017 de armas matemáticas de destrucción masiva (Weapons of Math Destruction) para enfatizar la escala, el daño potencial y la opacidad de los sistemas de toma de decisión basados en algoritmos de aprendizaje automático (machine learning).

El profesor de Derecho y experto en inteligencia artificial Frank Pasquale habla del problema de introducir mecanismos de rendición de cuentas (que buscan la equidad y la identificación de responsabilidades) en los procesos automatizados, en lugar de tratar esos procesos como una caja negra. Así, se esconden tras los derechos propietarios de las empresas privadas que los han desarrollado.

Solon Barocas, que investiga las cuestiones éticas y políticas de las inteligencias artificiales, hablaba en 2013 de la “gobernanza de los algoritmos” y de la necesidad de cuestionar estos artefactos y analizar sus efectos desde una perspectiva legal y de políticas públicas.

El congreso FAT*, cuya tercera edición se celebrará en Barcelona en enero de 2020, se ha convertido en el encuentro de referencia para los que quieren abordar cuestiones de transparencia, justicia y rendición de cuentas de los sistemas automatizados.

 

Europa vs. EE UU

 

En Europa, el artículo 22 del Reglamento General de Protección de Datos (RGPD) nos obliga a garantizar que haya supervisión humana y derecho de apelación de las decisiones tomadas por sistemas automáticos y de perfilado (profiling).

En EE UU, fallos como la incapacidad de algoritmos, entrenados con bases de datos con una sobrerrepresentación de fotos de personas blancas, para identificar a personas de color, también motivan la voluntad de abrir y auditar estos sistemas.

Estos casos, junto a otros más inquietantes en el ámbito jurídico y policial, han sido tomados como ejemplos de la falta de sensibilidad entre los programadores sobre las cuestiones raciales y de género. Así lo argumentan Sarah Myers West, Meredith Whittaker y Kate Crawford en el libro blanco Discriminating Systems: Gender, Race, and Power in AI (Sistemas discriminatorios: género, raza y poder en las IA).

La publicación está en línea con otros autores como Andrew Selbst, que investiga los efectos legales de los cambios tecnológicos. Pretende llamar la atención sobre la necesidad de contextualizar cualquier discurso sobre desarrollo tecnológico y analizarlo como sistema tecnosocial, como ya hacen los estudios de ciencia, tecnología y sociedad.

La automatización de procesos de decisión conlleva un gran desafío técnico, legal, de gestión corporativa y moral. Esto ocurre en todas las áreas, que van desde la detección de noticias falsas y fraudes hasta el diagnóstico médico y la encarcelación de sospechosos. Por ello, es necesaria la creación de un espacio de dialogo multidisciplinar.

Los sistemas de inteligencia artificial siempre serán producto de los sesgos, la heurística y los puntos ciegos de los programadores . Abrir un debate sobre qué valores queremos grabar en nuestros sistemas para que la humanidad florezca es responsabilidad de todos.

10/06/2019