Snowden alerta ante el esquema de control social más efectivo de la historia

El antiguo empleado de la CIA y de la NSA denuncia que el Gobierno de EE.UU. explota la necesidad natural de los seres humanos de pertenecer a grupos para obtener datos confidenciales.

El Gobierno de Estados Unidos tiende a secuestrar y militarizar las innovaciones en el ámbito de las telecomunicaciones, aprovechándose del deseo humano natural de comunicarse y explotándolo para conseguir poder ilimitado, denunció el exempleado de la CIA, Edward Snowden, vía videoconferencia desde Moscú ante una audiencia en la Universidad de Dalhousie (Halifax, Canadá). El video de su discurso completo fue publicado en la cuenta de YouTube del centro educativo el pasado 31 de mayo.


"Tomaron nuestra capacidad nuclear y la transformaron en el arma más horrible que el mundo había presenciado", dijo Snowden, argumentando que en el siglo XXI se está observando la misma tendencia, pero con las ciencias de la computación. "Su alcance es ilimitado... ¡pero las medidas de su salvaguardia no!", advirtió.


"El medio de control social más efectivo"


Snowden, que en 2013 filtró información altamente confidencial sobre los programas de vigilancia globales de los servicios de inteligencia estadounidense —lo que le valió la acusación de traidor—, argumenta que las tecnologías modernas militarizadas, con ayuda de los medios sociales y los gigantes tecnológicos, permite que los gobiernos se vuelvan "todopoderosos" en su capacidad de monitorear, analizar e influir en el comportamiento de la gente.


"Es a través del uso de nuevas plataformas y algoritmos […] que pueden cambiar nuestro comportamiento. En algunos casos, son capaces de predecir nuestras decisiones, y también pueden empujarlas hacia diferentes resultados", declaró Snowden.


Según él, la necesidad de los seres humanos de pertenecer a grupos sociales está siendo explotada, ya que los usuarios de las redes voluntariamente consienten en proveer sus datos privados al firmar acuerdos cuidadosamente redactados que casi nadie lee jamás.


"Tienen cientos y cientos de páginas de jerga legal que no estamos calificados para leer y evaluar y, sin embargo, se consideran vinculantes para nosotros. Y ahora estas instituciones, que son tanto comerciales como gubernamentales, [...] lo han estructurado y afianzado hasta convertirlo en el medio de control social más efectivo en la historia de nuestra especie",

Publicado: 3 jun 2019 04:27 GMT | Última actualización: 3 jun 2019 09:37 GMTconcluyó.

Publicado enSociedad
Las grandes empresas tecnológicas y el capitalismo de vigilancia

Mientras que antes era el mundo social y natural el que se veía subordinado a la dinámica del mercado, ahora, según nos dice, ha llegado el momento de sacar rentabilidad de la extracción de nuestra propia experiencia humana.


Hace unos años, después del colapso financiero de 2008, Matt Taibbi, de la revista Rolling Stone, describió a Goldman Sachs, el gran titán del capitalismo financiero, como “un gran calamar vampiro que envuelve el rostro de la humanidad y mete a la fuerza inexorablemente su conducto sanguíneo en cualquier cosa que huela a dinero”. Según Shoshana Zuboff, autora de Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (“Capitalismo de vigilancia: la lucha por un futuro humano en la nueva frontera del poder”), diez años después, podríamos decir lo mismo, e incluso cosas peores, acerca del capitalismo de vigilancia.


Pero esta vez, es un calamar más grande y mete ese conducto sanguíneo a través de los móviles, las televisiones inteligentes, las tabletas y, dentro de poco, los hogares inteligentes; llega hasta el último rincón de nuestra privacidad individual y colectiva. Lo que se suponía que nos iba a liberar y que iba a estar a nuestro servicio, que era lo que esperaba Tim Berners Lee, el creador de internet, ha evolucionado a lo que él mismo definió como “un motor de injusticia y división movido por fuerzas poderosas que lo usan para sus propios planes”. El registro y mercantilización de nuestros datos, la estructura depredadora de perfiles de usuarios y de vigilancia está en el ADN del capitalismo de vigilancia. Cambridge Analytica solo es la punta del iceberg.


Zuboff señala en su brillante libro que el capitalismo de vigilancia, dominante, furtivo y omnipresente, ha explotado la experiencia humana para recoger materia prima gratuita y traducirla en datos conductuales. El excedente conductual (nuestras emociones, miedos, voces y personalidades) alimenta la “inteligencia de las máquinas” pensantes y luego se reconfigura en productos predictivos. Son productos diseñados especialmente para anticiparse a lo que vas a hacer hoy o la semana que viene a través de la modificación conductual. Pero el capitalismo de vigilancia no solo predice, sino que también nos anima influyendo en nuestro comportamiento a través de anuncios específicos personalizados e intrusivos.


Como dice la autora de un modo tan memorable, una vez que buscamos en Google, Google (y el resto) nos busca a nosotros. La lógica despiadada de las exigencias de la rentabilidad de las grandes tecnológicas nos ha desposeído digitalmente. Mientras que antes era el mundo social y natural el que se veía subordinado a la dinámica del mercado, ahora, según nos dice, ha llegado el momento de sacar rentabilidad de la extracción de nuestra propia experiencia humana.


Nuestros datos, que se han ido recopilando con remordimientos en los últimos años sin nuestro consentimiento real, se han convertido en un arma contra nosotros con eficiencia militar, según declaró Tim Cook, de Apple nada menos, al crear un perfil digital que permite que las empresas nos conozcan mejor que nosotros mismos.


¿Rebuscado o poco convincente? Considera lo siguiente


Los rastreadores de emociones portátiles tienen sensores integrados que miden y rastrean las señales biométricas de su portador (la temperatura de la piel, la frecuencia cardíaca y el pulso). Estos datos se envían a un aparato vinculado mediante tecnologías inalámbricas, como Bluetooth. Entonces se compilan enormes conjuntos de datos que, sin duda, se pueden analizar mediante algoritmos con el objetivo de detectar patrones y correlaciones a partir de los que se pueda predecir el comportamiento futuro. Quizás, cada vez que nos sintamos tristes, nuestros teléfonos nos den un chute de oxitocina o serotonina.


Todo esto se comercializa como bienestar para el consumidor, pero, en realidad, es una agresión a nuestros yos inconscientes que ayuda a los negocios a vender productos oscuros y a aumentar sus ingresos. Extraen esas microemociones y esas sensaciones más íntimas en tiempo real para obtener beneficios.


¿Te parece extraño? Vayamos un poco más lejos. Amazon patentó hace poco un diseño “de ahorro de trabajo” para llevar en la muñeca, que monitoriza las manos de los operarios de almacén y los impulsa con más rapidez a prácticas de trabajo más eficiente mediante vibraciones ultrasónicas. No hace mucho, este era el tipo de cosas que aparecía en la ciencia ficción distópica; ahora, una supervisión electrónica a distancia muy restrictiva que haga que los trabajadores no se salgan de los roles asignados se ve como una posibilidad.


Hace veinte o treinta años, la gente se hubiera indignado ante tales propuestas y vulneraciones de la persona. A finales de los ochenta, los verdes alemanes pelearon con el estado a cuenta de un censo nacional: el eslogan era “Solo se cuentan las ovejas”. En 1983, el Tribunal Constitucional alemán sentenció que las preguntas del censo propuesto eran intrusivas e innecesarias y que se podía producir un abuso de la información. Los tiempos han cambiado.


Hace poco, dos miembros del sacerdocio de la élite digital, Tom Cook y Mark Zuckerberg, exigieron más privacidad y una mayor regulación de internet. Zuckerberg, además, prometió que Facebook “iba a avanzar gradualmente hacia servicios privados y encriptados que permitieran a los usuarios confiar en que lo que hablan entre ellos permanezca seguro”.


Los dos anuncios son desvergonzados, interesados y cínicos y se ejercen en la dirección equivocada. Los principios de confianza, privacidad y comportamiento ético nunca han sido una prioridad cuando desarrollaban su hegemonía digital, social y cultural. Han hecho muy poco por proteger nuestros datos. En realidad, legalmente hablando, son sus datos, y siempre tuvieron la intención de que fuera así. Las leyes que protegen nuestros datos están siendo, desde hace mucho tiempo, socavadas por un laberinto de contratos online y términos y condiciones que nadie lee y que a los que podríamos llamar eufemísticamente un marco regulatorio laxo.


Como muchas de las sedes europeas de las grandes tecnológicas estadounidenses se encuentran en Irlanda, la comisión de protección de datos irlandesa es, de facto, la normativa europea desde que se materializó el Reglamento General de Protección de Datos (RGPD). Aun así, el comisionado irlandés dijo el año pasado que no iban a investigar el rastreo secreto por parte de Google de la localización de los usuarios de Android. Supongo que es mejor no molestar demasiado al imperio con ideas de privacidad y derechos y libertades de los individuos. Hace unos años, el antiguo taoiseach (primer ministro irlandés) Enda Kenny dijo que Irlanda era el “mejor país pequeño” del mundo en el que hacer negocios. Quizá se refería a eso.


Silicon Valley, que siempre ha sido una especie de religión cienciológica digital poblada por gente que utiliza el dialecto propio del Atlántico medio como lengua franca, ha roto a sabiendas el pacto social, y ahora que los han pillado y sus beneficios podrían verse mermados, exige que haya una regulación.


Zuckerberg vino a Dublín hace poco y, en un reportaje del Irish Times, que parece un boletín de prensa de Facebook, dijo de las leyes de privacidad en Europa y el RGPD: “Creo que es una buena base que codifica muchos de los valores importantes de las personas, para que puedan elegir cómo son tratados sus datos...”. Facebook ha crecido despiadadamente gracias a una campaña casi religiosa de recogida de datos casi a cualquier precio. Embriagado por las mediciones del comportamiento y rastreando nuestras interacciones, se ha comportado como ese calamar gigante que chupa la sangre, oliendo el dinero donde sea que se agarre a esa curiosidad y debilidad humana.


Los datos que se usan (y esto significa que son recabados sin piedad, explotados y vendidos al mejor postor) no son más que una desviación de las relaciones públicas, lo que sería irrisorio, si no fuera tan obvio. Somos nosotros, y nadie más, los que debemos decidir cómo se usan nuestros datos, si es que se van a usar.


Esto no es más que propaganda interesada de Zuckerberg. Mentiras del departamento de Relaciones Públicas de Silicon Valley para intentar mejorar su “imagen corporativa” empañada. Después de todo, hasta cuando desactivas el rastreo, Facebook te sigue rastreando. Asimismo, te persigue por internet a través del código que implanta en tu navegador. Adiós a la tan aclamada promesa de Zuckerberg de remodelar Facebook y convertirla en una plataforma «“centrada en la privacidad”.


Lo que es aún más irrisorio, Facebook paga al Daily Telegraph como parte de su campaña de marketing para que cuente historias positivas sobre la plataforma bajo el título: “Ser un humano en la era de la información”. Como Orwell podría haber dicho sobre esas piezas propagandísticas: no podríais inventároslo.


Shoshanna Zuboff señala exactamente que los oligarcas digitales son los capitalistas sin escrúpulos del siglo XXI. Su modelo de negocio está basado en el “adormecimiento psíquico” y en nuestra percepción inconsciente de lo que han estado haciendo.


Que las grandes tecnológicas exijan ahora una normativa es una estrategia de los de relaciones públicas cínica, porque durante años se han opuesto a que existiera una normativa, puesto que dificulta la “innovación”, y la privacidad ya no es, según Zuckerberg, una regla social. Sin embargo, las tecnologías con las que ganan miles de millones solo han sido posibles gracias a las cuantiosas ayudas estatales y a contratos de investigación públicos. Sin el presupuesto de defensa de los Estados Unidos, o lo que es lo mismo, el dinero de los contribuyentes estadounidenses, varias generaciones de ordenadores no se habrían construido. Dicho de otro modo, es el capitalismo de Estado reestructurado como emprendimiento de libre mercado.


Lo que escribió Noam Chomsky en 2009 lo explica bien:


“El núcleo de la economía depende en gran medida del sector estatal, y eso está claro. Por poner como ejemplo el último boom económico, que estuvo basado en la tecnología de la información. ¿De dónde ha venido? De los ordenadores y de internet. Los ordenadores e internet estuvieron casi en su totalidad en el sistema estatal durante unos 30 años (investigación, desarrollo, adquisición, otros dispositivos) antes de que, por fin, se cedieran a empresas privadas para que se lucraran con ellos”.


La relación Silicon Valley / Estado está en desarrollo y aún es recíproca. Eric Schmidt, ex CEO de Google, ahora es el presidente del Consejo de Innovación en Defensa creado por el Pentágono y constituido por expertos procedentes de Silicon Valley, profesores universitarios y la industria de defensa estadounidense para “innovar” (otra vez esa palabra) y analizar el uso de la inteligencia artificial en la guerra, entre otras cosas. La innovación, en este momento, es en realidad un recurso retórico y un poder otorgado para violar nuestra privacidad y cosas peores.


Es sorprendente que otro miembro de la junta, el profesor de Derecho de Harvard Cass Sunstein, propusiera hace unos años la idea innovadora y propia de Huxley de la “infiltración cognitiva”, idea que supone que “los agentes del Gobierno (y sus aliados) podrían entrar en salas de chat, redes sociales en línea e, incluso, en grupos reunidos en espacios físicos e intentar socavar teorías de la conspiración filtradas planteando dudas sobre sus hipótesis objetivas, su lógica causal o consecuencias por actuaciones políticas”. El camino al infierno se ha pavimentado con buenas intenciones y efectos inesperados. Quizás. O quizás, no. A lo mejor, su momento, por fin, ha llegado.


Se podría decir que hay privacidad para los ricos y el panóptico de las redes sociales para todos los demás. No es, ni más ni menos, que la devastación gradual de la libertad humana, como la fábula de la rana en el agua hirviendo, y ha pasado incluso antes de que nos demos cuenta de lo que estaba pasando.


¿Por qué es importante todo esto? La vigilancia constante crea una cárcel para la mente. Las innovaciones de vigilancia de las grandes tecnológicas golpean directamente a lo que nos hace humanos: nuestra privacidad, nuestra voluntad, nuestra autonomía y nuestra necesidad de soledad.


Sin soledad, ¿cómo podemos comprender quiénes y qué somos? Sin ella, no podemos ser totalmente humanos y, sin duda, nunca podemos ser totalmente libres.


Reagan, Thatcher, Blair y otros nos dijeron que el capitalismo neoliberal iba de la libertad y la liberación del individuo de la economía y de la libertad económica. Internet nos prometió una emancipación similar y, aun así, hemos acabado en un capitalismo de vigilancia.


El artículo de Richard Barbrook y Andy Cameron titulado The Californian Ideology now, publicado hace más de veinte años, parece extraordinariamente profético. En él, advertían de que “las tecnologías de la libertad se están convirtiendo en las máquinas de dominación”. Tim Berners Lee estaría de acuerdo. De una forma estrambótica para todos nosotros, la ideología californiana de individualismo libertario de la disconformidad y el capitalismo de libre mercado han convergido y se han transformado en un capitalismo de vigilancia rapaz.


El utopismo tecnológico es la nueva ortodoxia digital del día y la “innovación” se ha convertido en la representante de la intrusión profunda en nuestra privacidad, e incluso, como nos advierte Ruboff, en la conciencia que tenemos de nosotros mismos. La doctrina de la inevitabilidad tecnológica de Silicon Vally, añade la autora, “trae consigo un virus convertido en arma del nihilismo moral programado para dirigirse a la capacidad humana de tomar decisiones y borrar del texto de la posibilidad humana la resistencia y la creatividad”.


Como se ha dicho en otro lugar, el modelo de negocios de las grandes tecnológicas no es compatible con nuestros derechos, valores humanos ni con nuestras democracias. Y lo que es más importante, no es compatible con la propia idea del ser humano. Zuboff termina este libro providencial con una advertencia que deberíamos tener en cuenta:


“No está bien que nuestros movimientos, emociones, expresiones y deseos sean catalogados, manipulados y, después, utilizados para llevarnos en manada de manera subrepticia a través del tiempo futuro para beneficio de alguien”.


En este momento, hay asimetrías de conocimiento sin precedentes con multimillonarios como Eric Schmidt y Zuckerberg, pues ellos saben muchísimo sobre nosotros, pero nosotros sabemos muy poco de ellos. Como señala Zuboff: “Aspiran a que nadie les cuestione su poder para saber, para decidir quién sabe y quién decide”.


Pero ¿y si surge de todo esto un monstruo burocrático, estatal y corporativo? Este monstruo, como advierte David Samuels, de la revista Wired, tiene capacidad para “rastrear, clasificar, enloquecer, manipular y censurar a los ciudadanos”, algo similar al Estado-Gran Hermano de China. ¿Y si la libertad digital que creíamos tener no es libertad en absoluto, sino un tipo de tiranía disfrazada de libertad? ¿Y si durante nuestra somnolencia digital inducida el calamar monstruoso ya ha llegado?

 
Traducción: Isabel Pozas González.

publicado
2019-05-30 06:26:00
Publicado enSociedad
Lunes, 18 Marzo 2019 06:18

Identidad

Identidad

Los datos personales de los usuarios de las redes sociales y de otras plataformas digitales de comunicación se han convertido en una valiosa mercancía.

En 2017 el New York Times obtuvo un gran número de documentos generados por el sistema interno de Facebook acerca de las prácticas que sigue para compartir los datos de los usuarios con otras compañías.

Según se desprende de ellos, se acrecienta la capacidad de empresas de enorme tamaño e influencia social, como Apple, Amazon y Microsoft, para aprovechar datos sensibles de los usuarios. Esto ocurre en un entorno legal que regula el uso de la información de las personas y de los compromisos que las empresas han hecho para proteger la privacidad de los usuarios.

Se estima que hacia finales de 2018 Facebook tenía más de 2 mil 200 millones de usuarios, así que bajar el costo unitario por usuario compartiendo esos datos personales representa un incremento enorme de las utilidades. Esto se extiende a otras empresas que operan plataformas tecnológicas constituidas en redes globales y que ejercen el control de enormes activos intangibles muy rentables. Con ello se incrementa el precio de las acciones, el valor de las compañías y el patrimonio de los accionistas.

Entre los recientes escándalos en torno a las prácticas de malos usos de los datos personales destaca el ocurrido a principios de 2018, cuando se descubrió que la firma de consultoría Cambridge Analytica utilizó de modo fraudulento los de Facebook para apoyar la campaña de Trump a la presidencia.

Esto expuso públicamente a Mark Zuckerberg, quien dirige y es el principal accionista de Facebook; fue requerido para testificar en el Congreso estadunidense, donde aseguró que los usuarios de Facebook tenían un completo control de todo lo que comparten en esa plataforma.

Las evidencias indican que no es así, sino que en realidad están expuestos a que sus datos sean compartidos y usados sin ningún control de ellos, que son sus legítimos dueños. Zuckerberg miente.

La privacidad ha pasado de ser un derecho a una mercancía. La Declaración Universal de los Derechos del Hombre, de la ONU, dice en el artículo 12 que "nadie será objeto de injerencias arbitrarias en su vida privada, su familia, su domicilio o su correspondencia, ni de ataques a su honra o a su reputación. Toda persona tiene derecho a la protección de la ley contra tales injerencias o ataques".

El derecho a la privacidad se refiere a esa importante protección del individuo. Se trata del derecho a ser dejado en paz, a no ser molestado. Al parecer, a esos miles de millones de usuarios de Facebook y también de otras redes esto no le afecta demasiado. Y, sin embargo, la privacidad como actitud vital no debería tomarse a la ligera y mucho menos entregarse a extraños, como si se tratara de una rendición.

La privacidad tiene que ver con la esencia misma del individuo, con la capacidad de mantener su autonomía. La gente se define a sí misma, precisamente, mediante la capacidad inalienable de administrar información sobre su persona.

Al parecer, en ese sentido, las ideas mismas de identidad personal e individualidad estén modificándose de modo sensible en la sociedad, impulsadas precisamente por las nuevas tecnologías de la comunicación y el negocio de la información sobre las personas para usos comerciales o de otro tipo. La privacidad es relevante también por sus beneficios funcionales, es decir, en cuanto a la protección derivable del anonimato que puede guardarse en muy distintas circunstancias o la confidencialidad en el caso del fraude con la identidad.

La relación que se establece entre la privacidad y el individuo se ha ido modificando también. Las regulaciones sobre la seguridad de la información personal y el control que sobre ella tienen sus dueños y que están plasmadas en la leyes de esta materia son ahora cuestionadas desde otros frentes.

Hoy tiene gran relevancia el flujo de información personal en las redes sociales digitales. Son los mismos usuarios los que la proveen, incluyendo la de sus relaciones sociales, pero ahora se prevé que los atributos personales puedan incluso inferirse sin referencia directa, o sea, podría hacerse a partir de la información que proveen esas relaciones existentes en la red social digital –los amigos.

Para poner más aditamentos al debate, en una vertiente de la investigación de la neurociencia se cuestiona la existencia del libre albedrío, rasgo que sustentaba la idea de la individualidad de las personas y su responsabilidad como miembros de la sociedad. La tendencia del estudio de la actividad cerebral lleva a algunos a cuestionar, si no es que a negar, que exista tal cosa como el libre albedrío.

 

Publicado enSociedad
Lo que el algoritmo esconde: matemáticas, sesgos y al final, decisiones humanas

En la era de la digitalización y los datos, se habla de los algoritmos como esas oscuras herramientas que pueden llegar a manejar nuestro destino. Pero no hay que olvidar que los algoritmos son matemáticas, ni más ni menos.

 

El debate está servido: ¿son los algoritmos herramientas opacas e incomprensibles que pueden dañarnos, o simplemente herramientas que dependen de decisiones humanas? ¿No será que las fórmulas son cada vez más complejas y no queremos —o no tenemos capacidad de— estudiarlas para entenderlas? Y si los algoritmos que más nos afectan están en manos privadas, los gigantes de Silicon Valley, ¿cómo podemos defendernos cuando nos metan en un problema?

"¡No somos nosotros, es el algoritmo!" es quizá una de los argumentos más inquietantes que se pueden plantear a problemas que ya existen y con los que convivimos sin saberlo. Desde el ámbito de la universidad se presta cada vez más atención a esta cuestión, que va mucho más allá de la privacidad o la intimidad de nuestras vidas.
Ya existen herramientas que deciden quién tiene más probabilidades de cometer un crimen —como el polémico 'software' PredPol, que ha sido utilizado en secreto en decenas de ciudades—, qué mensajes vemos en las redes sociales o qué crédito tenemos en función de nuestro rastro digital (pregunte en confianza a su amigo analista de riesgos y lo que le contestará le sorprenderá).

En un pequeño evento celebrado en la Facultad de Informática de la UCM, en el marco de la V Semana de la Informática que celebra el centro, varios expertos debatieron sobre la necesidad de abordar estas cuestiones —sesgos en el diseño, diseños abusivos, transparencia, auditabilidad— desde el punto de vista de los ingenieros informáticos, con un contrapunto ético y legal.

Rodeada de ingenieros, la abogada Paloma Llaneza, reconocida experta en seguridad y protección de datos, planteó una de las cuestiones claves del evento. "Tenemos que ser capaces de saber qué pasa con los algoritmos, sobre todo para quienes no tenemos ni idea, para saber si ha tomado la decisión correcta", comentó, y añadió. “No quiero que me digan que tengo un 85% de probabilidades de pagar mis deudas, sino si ese dato es bueno o malo, por un lado, y por otro por qué se toma una decisión determinada sobre mí, en qué se basa esa decisión, cómo funciona el mecanismo".

Esta experta remarcó que la tecnología de consumo, con sus interfaces sencillas e intuitivas, nos han facilitado mucho la vida —"nos han hecho tontos"— aunque luego la responsabilidad que exigen a ese usuario (desde conocer los términos y condiciones de un servicio que aceptas al tocar un botón hasta evitar intrusiones en ordenadores cuyas tripas informáticas no conocemos) "nos exigen ser casi premios Nobel".

Frente a ella, Jorge Gómez Sanz, ingeniero en Informática y profesor titular en la UCM, así como desarrollador de 'software' libre, negó la mayor: "No estamos en la dictadura del algoritmo, hay personas que luego tienen que tomar decisiones", razonó.

Para Gómez, la respuesta que la ingeniería puede dar sobre si un algoritmo acierta o no es relativamente simple: acierta siempre porque siempre genera una respuesta acorde con la función para lo que fue diseñado. "Los defectos que tenemos los humanos y que trasladamos a los algoritmos constituyen lo que debería estar regulado con normas y leyes (que no dejan de ser algoritmos, con nivel de abstracción más elevado)".

"Es cierto que existe un margen de decisión humana" tanto en el proceso de construcción de 'software' como en las decisiones finales basadas en la información que proporciona un sistema, recordó Llaneza, que sin embargo recordó que "el ser humano tiende a alinearse con la máquina por una cuestión de procesos". Es decir, el analista bancario que es obligado por su empresa a seguir las directrices del programa de análisis de riesgos de los clientes seguirá al pie de la letra lo que dice la máquina, para que no se cabree el jefe.


"Hemos dejado de leer el pasado, para proyectar el futuro, a recopilar datos para inferir probabilidades de futuro, en una vorágine probabilística", lamentó la abogada, que sostuvo que "la transparencia exige que el sistema sea auditable, ser posible realizar una inspección para saber el porqué del funcionamiento del sistema en sí". Y eso, hoy en día, raramente sucede.


"Los algoritmos no deciden, computan"

A la hora de hablar de sesgos en los sistemas algorítmicos (¿existen los algoritmos machistas?), el debate hubo consenso en la importancia crucial de la callidad de los datos que se suministran a las máquinas. "Los algoritmos no deciden, computan, no hay nada más obediente que un algoritmo, otra cosa es que nos guste la respuesta", apuntó Gómez.

El profesor e investigador Marcos Sánchez-Elez también sostuvo que "el algoritmo no es el demonio, sino que el problema puede venir que la persona que decide basándose en las respuestas que proporciona no cuestiona esas respuestas". "Cuando introducimos datos cuantitativos en un sistema no debería haber sesgos, pero al meter datos cualitativos —relaciones, rangos, jerarquías— entra una cantidad de subjetividad, y ahí está sobre todo el problema", añadió.

Por su parte, Sara Román, también profesora e investigadora en la Facultad de Informática, abordó la cuestión de la transparencia en los procesos informáticos con la siguiente cuestión: "¿Por qué es necesario sacrificar la precisión o fiabilidad (de los algoritmos) en pos de la transparencia? ¿Hay realmente un conflicto?".

Román incidió en definir qué es la transparencia. "Los criterios con los que me evalúan en una oposición o una beca, por ejemplo, son públicos", apuntó. "Por eso, cuando hablo de transparencia hablo de código abierto: no es que un ingeniero me explique qué hace el algoritmo, sino que pueda acceder al código", remarcó.


Una explicación quiero


La abogada Paloma Llaneza planteó la necesidad de que los ingenieros informáticos fuesen capaces de explicar abiertamente y de forma fácil cómo funcionan las herramientas que diseñan. "A la gente le importa cómo funcionan las cosas cuando funcionan mal, y en mi experiencia puedo encontrar a gente que me explique de todo, pero no cómo funciona un algoritmo", comentó. "Así como yo no tengo que saber nada de gases o física para saber que la bombona tiene un sistema de seguridad que no debería fallar, si hay un algoritmo X que influye en la sociedad tenéis capaces de explicar cómo funciona", dijo, a modo de reto.

Como respuesta, el profesor Jorge Gómez replicó que "a veces está todo explicado, pero no al alcance de todos, porque entender requiere tiempo". "Por supuesto que todos los algoritmos son explicables; sabemos cómo operan", dijo, "las redes neuronales son meras multiplicaciones de matrices, pero eso no lo entiende todo el mundo ni todo el mundo quiere esforzarse en entenderlo". "Un algoritmo es, sencillamente, un transformador de información".

Gómez remarcó que "la respuesta de la ingeniería a algunos de los conflictos que plantean las herramientas algorítmicas" —desde los problemas que existen con el coche totalmente autónomo, aún sin comercializar, hasta el sexismo o el racismo que puede haber en los resultados de las búsquedas por internet— "son los estándares, como la que se está desarrollando contra los sesgos que habrá en un futuro (certificación P7003)".

Porque el sesgo en los sistemas informáticos "autónomos" es un problema existente y cada vez más evidente. El algoritmo para contratar a personas que Amazon, por ejemplo, estuvo cuatro años desarrollando discriminaba a las mujeres. "Amazon contrata a más hombres, y en la parte técnica la tasa llega al 80%", apuntó la profesora Sara Román, que puso el acento en que "cuando se dieron cuenta intentaron arreglarlo, no fueron capaces y cerraron ese proyecto de contratación algorítmica". "Es preocupante que lo cerraran sin saber qué había fallado", añadió.

Al final, lo que quedó claro es que hay debate para rato y queda muchísimo por estudiar, regular y estandarizar. Para Román, "es hora de exigir que nos expliquen cómo funcionan las cosas", especialmente a las corporaciones que actúan de 'cajas negras' y atesoran sus fórmulas bajo el paraguas del secreto comercial. Sánchez-Elez, por su parte, insistió en la idea de que "la tecnología no es neutral" y, como Richard Feinman, está en contra de las explicaciones complejas.

"Los algoritmos no nos gobiernan, son las personas, pero a veces éstas se excusan en los algoritmos", zanjó Gómez. Mientras, Llaneza concluyó con humor que se iba de la facultad más tranquila, sabiendo que los ingenieros son perfectamente capaces de explicar el funcionamiento de cualquier algoritmo.
Otra cosa es que les dejen.

MADRID
08/02/2019 07:33 Actualizado: 08/02/2019 07
@pabloromero

 

Llegan las huellas dactilares maestras: inteligencia artificial para desbloquear cualquier teléfono

Un equipo de investigadores estadounidenses ha creado un sistema capaz de generar huellas dactilares por sí mismo destinado a desbloquear teléfonos


Hablamos con una experta en seguridad y vigilancia sobre las implicaciones de la biometría en cada vez más ámbitos de nuestra vida

La única diferencia entre una contraseña y una contraseña biométrica es que la primera la puedes cambiar, perder, olvidar, rehacer o pedir una nueva, mientras que la segunda está contigo para siempre, tengas la edad que tengas y estés donde estés. Porque la contraseña es tu cuerpo. Si te roban tu número de tarjeta de crédito podrás cancelar la tarjeta y pedir una nueva, pero si alguien se hace con tu huella dactilar estarás metido en un problema.


La biometría es la técnica que permite generar contraseñas a partir de tus datos biológicos, ya sea tu voz, tu huella o tu iris. La tecnología se ha popularizado tanto estos últimos años que no es raro ver cómo cada vez más teléfonos y dispositivos electrónicos incorporan sensores de reconocimiento facial o de huella dactilar para proteger el acceso al mismo.
¿Proteger o desproteger? La biometría no es segura ni nunca lo fue a la hora de proteger el acceso a un dispositivo, según alertan cada vez más expertos. Una nueva prueba de ello es el último estudio que varios investigadores de las universidades de Michigan y Nueva York han publicado en el repositorio de artículos científicos arxiv y que esta semana cuenta Motherboard. Se titula Deep master prints (Copias maestras profundas) y ahí explican cómo han construido un sistema a base de machine learning (aprendizaje automático) que es capaz de generar huellas dactilares para desbloquear teléfonos móviles.


Cómo funciona una llave maestra que aprende sola


Imagina que tienes una llave que abre todas las puertas de tu bloque de edificios y que a medida que abres más y más puertas, la llave aprende nuevas configuraciones de cerradura, lo que a la larga le servirá para abrir un mayor número de cancelas. Este es un buen ejemplo para entender cómo funcionaría una llave maestra alimentada con Inteligencia Artificial (IA), que al fin y al cabo es lo que han prototipado los investigadores estadounidenses.


Uno de los grandes avances de la IA es sido el descubrimiento y puesta en práctica de las redes neuronales artificiales, un tipo de arquitectura de programación que permite a un sistema "aprender" en función de la información que se le proporcione. En este caso, los investigadores le dieron 6.000 huellas dactilares humanas, que una vez analizadas le permitieron comenzar a crear las suyas propias.


Cada nueva huella generada era después enviada a otra red neuronal artificial que se encargaba de discriminar si lo que veía era real o no. Las huellas que esa red identificaba como falsas eran devueltas al sistema, que las perfeccionaba y las volvía a enviar al discriminador, a ver si en ese nuevo intento pasaban la prueba. Este proceso, repetido miles de veces en un laboratorio, da como resultado huellas dactilares maestras.


Cuando el sensor de huella del teléfono escanea nuestro dedo y lo desbloquea no está escaneando todo el dedo, sino unos pocos puntos. Lo explica a eldiario.es Gemma Galdón, ideóloga y experta en seguridad y creadora de la Fundación Éticas: "Para ir más rápido, lo que se hace es minimizar los puntos de comparación y te aseguras más o menos de que esa persona es la que dice ser, aunque seguramente esos mismos puntos pueden coincidir con una parte importante de la población".
Acierta tres de cada cuatro intentos


Galdón pone el ejemplo de los aeropuertos como lugar en el que se utiliza la biometría a discreción pero con escasas garantías: "Allí lo importante es que la gente pase rápido. Si quieres eso, tienes que bajar el nivel de seguridad o los puntos que se cotejan cada vez que alguien pasa", continúa. Los sistemas de reconocimiento facial tampoco se salvan: el año pasado, apenas dos meses después de lanzar Apple su iPhone X, la tecnología fue burlada con una máscara hecha a base remiendos.


La experta en seguridad y vigilancia recuerda, sobre la biometría, que "hay un montón de vulnerabilidades técnicas brutales" y advierte sobre algunos sitios en donde "no se encripta bien la huella, con lo cual se recoge la huella plana que es super fácil de reproducir". Tampoco entiende cómo esta tecnología se sigue incorporando en los dispositivos nuevos que salen cada año: "Ni yo ni creo que ninguna de las personas que trabajamos en esto desde hace tiempo entendemos muy bien cómo ha colado tanto eso de que la biometría es la metodología más segura para verificar la identidad".


Los investigadores estadounidenses usaron dos tipos de huellas para alimentar el sistema: impresas en un papel y las generadas por los sensores de huellas de cientos de dispositivos. Después vieron que la criatura entendía mejor las segundas, y no es casualidad: estas son el resultado de poner el dedo en el sensor cientos de veces, en tu móvil, en el iPad, en el trabajo, en un aeropuerto. Ese fue el paquete de datos que la máquina entendió correctamente, el que provenía de los usos mayoritarios de la biometría en el mundo.


Las huellas maestras llegaron a tener éxito hasta en un 76% de las veces que fueron puestas a prueba. Son tres de cada cuatro intentos. "La biometría está contigo para siempre", recuerda Galdón, que se despide lanzando una mensaje: "Una biometría que no es segura es como un coche sin motor".

David Sarabia
19/11/2018 - 21:18h

Religión, Iglesia y poder político en América Latina

La secularización del poder es un mito. La separación Iglesia-Estado no deja de ser una ficción. Presidentes, diputados, senadores, alcaldes juran ante Dios. Los símbolos religiosos están presentes en los espacios públicos. Estado laico o aconfesionales adoptan rituales políticos, acompañados de cruces, medias lunas, budas, biblias, Torá, etcétera. Dirigentes asumen morales católicas, protestantes, islámicas, judías, siendo unos devotos practicantes de su fe. Sus mandatos suelen dar cuenta de ello. El divorcio, el aborto, la familia, el sexo, la moral cotidiana y la educación son opciones valoradas a la luz de las creencias religiosas. Hoy gobiernan las iglesias. Los lugares de culto se han generalizado y la diversidad de credos se extiende. El Vaticano pierde fuelle en ciertos países latinoamericanos. Su lugar es ocupado por nuevas formas de acercarse a la fe en Cristo o en el Salvador. Las iglesias pentecostales, adventistas, mucho más interesadas en captar las almas para una militancia política terrenal, sin intermediarios, han socavado la influencia de la Iglesia católica. Su papel mediador entre Dios y el alma pecadora se ha diluido en una fe no practicante, cuya militancia se convoca aleatoria y excepcionalmente, cuando ve peligrar intereses, privilegios y bienes. Sumida en un proceso de deterioro moral y ético, casos de pederastia, desfalcos financieros, sus seguidores se han decepcionado, aumentando la apostasía. Aun así, su organización piramidal le permite seguir controlando el poder político.

En América Latina, la Iglesia católica fue capaz de combatir a la Teología de la Liberación o los movimientos nacidos a la luz del Concilio Vaticano II, como Cristianos por el Socialismo. La Iglesia de los pobres fue derrotada y muchos de sus sacerdotes asesinados en los años de la lucha contrainsurgente. Otros fueron torturados hasta la muerte por las dictaduras militares en Chile, Argentina, Paraguay, Brasil, Guatemala, El Salvador, Honduras o Nicaragua. Sus superiores miraron hacia otro lado o fueron cómplices de los crímenes. ¿Cómo explicar el tedeum en la Catedral de Santiago dando gracias a Pinochet por salvar a Chile de la dictadura marxista, mientras se asesinaba a mansalva en los centros de tortura, tras el golpe de Estado? o ¿las continuas declaraciones de los rabinos en pro de la dictadura argentina?


Ningún gobernante en América Latina se atreve a desafiar el poder real de la Iglesia, sea cual sea su orientación. Gobierna bajo su ala, de lo contrario la tendrá como enemigo, sus años de gobierno serán tormentosos, cuando no sometidos a continuos descalabros y crisis. Mejor negociar entre sus adeptos. Tener el beneplácito de la Iglesia supone millones de votos, mostrarse practicante sumiso, conlleva un plus. Muchos votarán sin importarle sus principios políticos, sólo su ideología. Brasil es un buen ejemplo. Lula o Bolsonaro, ambos se acercaron a las iglesias para contar con sus apoyos y conseguir votos.


Las iglesias están en guerra, no por el control de sus feligreses sino por el poder del Estado en América Latina. Declararse ateo, agnóstico es un hándicap. En sociedades donde la religión sigue siendo el valor más importante para fortalecer los vínculos entre la sociedad civil y la sociedad política, no hay espacio para la separación Iglesia-Estado. Sus jerarquías son conscientes de su poder real. Pensar que la influencia de Dios en la política es nueva es no entender el origen teológico del poder. Buscar explicaciones de coyuntura a una realidad donde la debilidad de los movimientos seculares es lo que marca la agenda, es no entender el problema. Los proyectos emancipadores no han podido llevar a cabo una revolución capaz de romper la hegemonía de las iglesias, más allá de una declaración de intenciones. Ni siquiera los procesos de desamortización en el siglo XIX y las reformas liberales lograron sus objetivos. Occidente se constituyó bajo la cruz y la espada. Hoy las cruces y las espadas se diversifican. América Latina es un campo de batalla donde están en juego los valores republicanos en medio de una acometida de fundamentalismos religiosos que socavan la democracia y la libertades seculares.

Publicado enSociedad
Canto del cisne de Assange sobre el futuro ominoso de la inteligencia artificial

Antes de ser desconectado con su Internet del mundo exterior como vulgar criminal, Assange grabó un video ominoso para el Foro Mundial de Datos Éticos (WDF, por sus siglas en inglés) en Barcelona (http://bit.ly/2I7vKPz).

Assange, fundador de Wikileaks –que publicó secretos militares y diplomáticos de EU, además de las sulfurosas inmundicias del crapuloso clan de los Clinton– acaba de emitir el canto del cisne tecnológico desde su refugio en la embajada de Ecuador en Londres, donde se exilió hace seis años: "la generación que nace ahora es la última generación libre", a partir de "haber nacido o inmediatamente o en un año" debido a que el neonato será "conocido globalmente" cuando sus familiares postean sus datos en las redes sociales (http://bit.ly/2pwrjoS).

La "capacidad de colectar la información sobre la gente ha crecido en forma exponencial y continuará a crecer rápidamente" gracias a las aplicaciones avanzadas con la IA, por lo que la "avanzada civilización tecnológica no puede durar mucho tiempo".

Advierte que "todas las grandes potencias" conocen los datos íntimos de las personas debido a las aplicaciones del GAFAT (Google, Apple, Facebook, Amazon y Twitter) y que "muy pocas personas técnicamente capaces pueden vivir a parte", lo cual "huele un poco a totalitarismo".

Assange ha predicho que "una ciberguerra global estallará muy pronto conforme la IA sea entrenada para automatizar adecuadamente los ataques automáticos de hackeo" cuando "no existe una frontera" ya que "Nairobi se encuentra a 220 milisegundos de Nueva York" (http://bit.ly/2I8KygK).

El estado de salud de Assange ha empeorado y tiene sobre su cabeza la amenaza de ser expulsado de la embajada ecuatoriana por el presidente Lenin Moreno quien ha roto con sus aliados que lo encumbraron para arrojarse a los brazos de Trump.

EU desea la cabeza de Assange cuyas revelaciones no son comparables a las de Snowden quien horadó la seguridad cibernética de EU con secretos comprometedores.

La angustia de Assange se debe a la expedita competencia del mundo cibernético: "la competencia geopolítica dominada por las principales empresas de IA" están destinadas a "intensificar un proceso que los seres humanos no pueden controlar más".

A juicio de Assange, calificado de “terrorista high-tech” por EU, el clásico modelo de "capitalismo de vigilancia" ha cambiado dramáticamente cuando la capacidad emergente de las grandes entidades y de las trasnacionales –Google/Baidu/Tencent/Amazon/ Facebook– prosiguen colectando datos masivos de la gente, al unísono de la aplicación de la IA, que "hienden la cosecha del conocimiento de la humanidad cuando nos comunicamos unos con otros".

El cambio económico será muy severo y transformará el modelo del "capitalismo de vigilancia" a otro que muy bien se puede llamar el "modelo IA" que signifique "usar esta inmensa reserva para entrenar las inteligencias artificiales de diferentes géneros", lo cual "sustituirá a los sectores intermediarios, como la intermediación eficiente que opera en Internet, y sobre el sector de transporte" o de plano "creará totalmente nuevos sectores". Aquí de nuevo Assange advierte sobre la intensa vulnerabilidad de los datos personales que son presa o robados por los criminales.

A su juicio, "quizá (sic) la respuesta" a la "severa amenaza a los seres humanos en general y a los negocios" radica en que "la gente entienda la ofensiva seguridad computacional".

Assange aduce que las "instituciones humanas se fincan en la competencia" y en crecer en tamaño y dominar el mercado, para así tomar la ventaja que puedan, por lo que continuarán intensificando la competencia, que, a mi juicio, explica en gran medida la presente guerra comercial entre EU y China (http://bit.ly/2IgbRbA).

El escenario que planteó Assange para el WDF es más que lúgubre y pone en tela de juicio la definición de la supuesta "avanzada civilización (sic) tecnológica" ya que, a mi juicio, sin cobertura bioética no cumple los requisitos axiológicos y humanistas de una genuina civilización transmilenaria.

www.alfredojalife.com

Twitter: @AlfredoJalifeR_

Facebook: AlfredoJalife

Vk: id254048037

Trump se busca a sí mismo en Google y monta en cólera al descubrir uno de los grandes problemas de Internet

El presidente de EEUU se ha dado cuenta de que los algoritmos de las grandes tecnológicas son imposibles de fiscalizar, incluso para él

Cuando Donald Trump utiliza su smartphone durante la madrugada cualquier cosa puede pasar. A esas horas ha amenazado a países o mandatarios extranjeros, cargado contra la prensa o incluso anunciado cambios en su Administración antes de comunicárselos a los interesados. A las cinco de la mañana de este martes (hora de la Costa Este de EEUU) ha vuelto a suceder, esta vez con el mandatario encolerizado al sufrir en sus carnes las consecuencias de uno de los grandes problemas de la red actual.

Trump se ha buscado a sí mismo en Google. Los resultados que el buscador le ha ofrecido no le han gustado nada. Según ha comentado después, una mayoría de lo que ha aparecido en su smartphone eran noticias "malas" con él de los "muy peligrosos" medios de izquierdas del país. Esto le ha servido para elaborar una teoría de la conspiración de andar por casa sobre cómo "Google y otros eliminan las voces conservadoras y esconden las noticias buenas".


Entre sus exclamaciones, abreviaturas y palabras en mayúscula, Trump ha dado de bruces con una realidad que muchos han denunciado antes que él: "Controlan lo que podemos y lo que no podemos ver". Está en lo cierto. La opacidad del algoritmo de Google es prácticamente total, tanto para el presidente del país más poderoso del mundo como para cualquier otro usuario de Internet. "¡Es una situación muy grave!", ha escrito, no sin razón. Los resultados que Google ofrece en las búsquedas están sesgados. Pero no en el sentido que él cree.


Es muy improbable que el algoritmo de búsqueda de Google se rija por motivos políticos, como ha denunciado Trump. "Las búsquedas no se emplean para marcar una agenda política y no damos preferencia a ninguna ideología", ha querido justificar la compañía. No en vano, el buscador es una empresa privada que se lucra con el negocio de la publicidad y también por vender al mejor postor la posibilidad de aparecer en las primeras posiciones en su lista de resultados. Sin embargo, no hay forma de fiscalizar cómo funciona realmente.


Esta situación que Trump ha constatado en agosto de 2018 es algo de lo que expertos y activistas por las libertades digitales han alertado durante años y que no afecta solo a Google. Es común a las multinacionales digitales estadounidenses, como Facebook, Apple, Microsoft o Apple. Estas han proporcionado herramientas que terminado dando forma al Internet actual y se usan para ejercer libertades fundamentales como la de expresión o la de acceso a la información, pero tienen sistemas cerrados que se gobiernan sin supervisión de los poderes públicos y los ciudadanos.


La fórmula usada para presentar la información queda oculta en todas ellas. Apenas nos estamos asomando al impacto real que esto tiene en las sociedades, pero sabemos que las está cambiando. Esa situación, que Trump califica ahora de "muy grave", es la que permitió a su equipo de campaña manipular los contenidos que veían los usuarios de Facebook y pagar por intoxicar a su favor el debate político en la plataforma, que un gran porcentaje de estadounidenses utiliza como única vía para informarse.


A escala mundial, también es la misma que ha provocado los escándalos de vigilancia masiva o los hackeos secretos de gobiernos a sus propios ciudadanos, que la ONU denuncia que son cada vez más frecuentes.


Son esos sistemas cerrados los que, usados para la extracción de datos personales y su venta para fines publicitarios, han convertido a las grandes tecnológicas en las empresas más valiosas del mundo, muy por encima de las petroleras. Esta madrugada, el presidente de EEUU ha amenazado a Google y ha prometido que se encargará del problema que genera su dominio sobre la información que consumen los ciudadanos. Suerte con eso, Donald.

por Carlos del Castillo
28/08/2018 - 15:42h

Martes, 14 Agosto 2018 06:48

Google te localiza siempre, quieras o no

Google te localiza siempre, quieras o no

Una investigación avalada por expertos de la Universidad de Princeton detecta que Google ignora al usuario que configura la privacidad de su teléfono para que no rastree la geolocalización de su dispositivo.

 

La agencia de noticias AP muestra en exclusiva cómo muchos servicios de Google en móviles (tanto los que funcionan con Android como los iPhones) almacenan datos de la ubicación geográfica incluso si el portador lo configura para impedir que la compañía localice el dispositivo. Mientras Google se defiende y alega que sus herramientas de privacidad son claras y precisas, lo cierto es que muchos datos de localización del usuario son recogidos como "actividad en la web y en aplicaciones”, no como “historial de ubicaciones".

De esta forma, la investigación muestra que cómo Google, por un lado, informa al usuario que puede "desactivar" el historial de ubicaciones "en cualquier momento" ("los lugares a los que vas ya no están almacenados", asegura la compañía) pero, por otro algunas aplicaciones de Google almacenan automáticamente los datos de ubicación con una marca de tiempo incluso con la mencionada función desactivada. Es posible borrar esos datos, aunque requiere tiempo y esfuerzo.

Así, Google almacena dónde estás cuando simplemente abres la aplicación ‘Mapas’. También guarda algunas búsquedas que no tienen nada que ver con la ubicación con una geolocalización extraordinariamente precisa.


La investigación de AP, avalada por científicos informáticos de la Universidad de Princeton, indica que este problema de privacidad afecta a unos 2.000 millones de usuarios de dispositivos que funcionan con Android de Google, así como a cientos de millones de usuarios de iPhone en todo el mundo que usan los mapas y servicios de Google en el teléfono.


Google se defiende y afirma que existen varias formas en las que se puede "usar la ubicación para mejorar la experiencia de las personas", incluido el historial de ubicaciones, la actividad de las aplicaciones, y servicios de localización de dispositivo. "Proporcionamos descripciones claras de estas herramientas y controles robustos para que las personas puedan activarlas o desactivarlas, y eliminar sus historiales en cualquier momento".


El problema que denuncia esta investigación es que, para evitar que Google guarde estos datos de ubicación, es necesario desactivar otra función que no hace referencia directa a la geolocalización, llamada "actividad en la web y en aplicaciones", que además viene habilitada de manera predeterminada. Esa configuración almacena información de las aplicaciones y sitios web de Google en la cuenta de Google del usuario.


Con esa función activada, aunque se desactive el "historial de ubicaciones", Google no deja de recopilar marcadores de ubicación. Es posible eliminar estos marcadores de ubicación a mano, pero es un proceso tedioso para el usuario ya que debe seleccionarlos individualmente, a menos que desee eliminar toda su actividad almacenada.

Publicado enSociedad
Facebook admite que registra el movimiento del ratón en la pantalla del ordenador

La red social también detecta “el número de teléfono, la dirección IP, la velocidad de conexión y, en algunos casos, información acerca de los dispositivos que están cerca o en su misma red", según ha confirmado en un documento.


La compañía de Mark Zuckerberg ha revelado, en un documento enviado al Senado de Estados Unidos, cómo recoge datos de los usuarios y de sus hábitos mientras hacen uso de sus dispositivos. El documento, que consta de 228 páginas, ha provocado polémica por la forma de recoger información.


Facebook ha reconocido que monitoriza los movimientos del ratón en el ordenador, un tipo de rastreo conocido como mouse tracking, para, según su versión, "mejorar su interfaz".


Además, también llega a conocer si una ventana está en primer o segundo plano, para "ayudar a saber si se trata de una persona o un robot", según se afirma en el escrito.


"Recopilamos información de y sobre los ordenadores, teléfonos, televisores y otros dispositivos conectados a Internet que usan los usuarios que se relacionan con nuestros productos, y combinamos esta información en diferentes dispositivos que usan los usuarios", escribió Facebook en el documento agregando que la información recopilada se utiliza para "personalizar mejor el contenido (incluidos los anuncios)”.


La red social también detecta “el número de teléfono, la dirección IP, la velocidad de conexión y, en algunos casos, información acerca de los dispositivos que están cerca o en su misma red, con lo que podemos hacer cosas como ayudarles a enviar un vídeo desde el teléfono al televisor”.


Estos métodos se suman a los que hasta ahora se conocía que usaba la compañía para la recopilación de datos como la localización GPS o el acceso a la cámara y a la galería de fotos.