“El Evangelio”: cómo Israel utiliza la Inteligencia Artificial para seleccionar objetivos de bombardeo en Gaza
Imágenes de satélite de la ciudad norteña de Beit Hanoun en Gaza antes (10 de octubre) y después (21 de octubre) de los daños causados por la guerra. Fotografía: Maxar Technologies/Reuters

El ejército de Israel no ha ocultado la intensidad de sus bombardeos sobre la Franja de Gaza. En los primeros días de la ofensiva, el jefe de su fuerza aérea habló de ataques aéreos implacables “las 24 horas del día”. Sus fuerzas, dijo, sólo atacaban objetivos militares, pero añadió: “No estamos siendo quirúrgicos”.

Sin embargo, se ha prestado relativamente poca atención a los métodos utilizados por las Fuerzas de Defensa de Israel (FDI) para seleccionar objetivos en Gaza y al papel que ha desempeñado la inteligencia artificial en su campaña de bombardeos.

Mientras Israel reanuda su ofensiva después de un alto el fuego de siete días, aumentan las preocupaciones sobre el enfoque de las FDI en una guerra contra Hamas que, según el Ministerio de Salud en Gaza gobernada por Hamas, hasta ahora ha matado a más de 15.000 personas en el territorio. .

Las FDI han pulido durante mucho tiempo su reputación de destreza técnica y anteriormente han hecho afirmaciones audaces pero no verificables sobre el aprovechamiento de nueva tecnología. Después de la guerra de 11 días en Gaza en mayo de 2021, los funcionarios dijeron que Israel había librado su “primera guerra de IA” utilizando aprendizaje automático e informática avanzada.

La última guerra entre Israel y Hamas ha brindado una oportunidad sin precedentes para que las FDI utilicen tales herramientas en un teatro de operaciones mucho más amplio y, en particular, para desplegar una plataforma de creación de objetivos de inteligencia artificial llamada “el Evangelio”, que ha acelerado significativamente una guerra letal. Línea de producción de objetivos que los funcionarios han comparado con una “fábrica”.

The Guardian puede revelar nuevos detalles sobre el Evangelio y su papel central en la guerra de Israel en Gaza, utilizando entrevistas con fuentes de inteligencia y declaraciones poco notadas hechas por las FDI y funcionarios retirados.

Este artículo también se basa en testimonios publicados por la publicación israelí-palestina +972 Magazine y el medio en hebreo Local Call, que han entrevistado a varias fuentes actuales y anteriores de la comunidad de inteligencia de Israel que tienen conocimiento de la plataforma del Evangelio.

Sus comentarios ofrecen una mirada al interior de una unidad secreta de inteligencia militar facilitada por la IA que está desempeñando un papel importante en la respuesta de Israel a la masacre de Hamas en el sur de Israel el 7 de octubre.

La imagen que emerge lentamente de cómo el ejército de Israel está aprovechando la IA se produce en un contexto de crecientes preocupaciones sobre los riesgos que representan para los civiles a medida que los ejércitos avanzados de todo el mundo amplían el uso de sistemas automatizados complejos y opacos en el campo de batalla.

“Otros estados estarán observando y aprendiendo”, dijo un ex funcionario de seguridad de la Casa Blanca familiarizado con el uso de sistemas autónomos por parte del ejército estadounidense.

La guerra entre Israel y Hamas, dijeron, sería un “momento importante si las FDI están utilizando la IA de manera significativa para tomar decisiones sobre objetivos con consecuencias de vida o muerte”.

De 50 objetivos al año a 100 al día

A principios de noviembre, las FDI dijeron que su división de administración de objetivos había identificado “más de 12.000” objetivos en Gaza.

Al describir el proceso de selección de objetivos de la unidad, un funcionario dijo: “Trabajamos sin concesiones para definir quién y qué es el enemigo. Los agentes de Hamás no son inmunes, no importa dónde se escondan”.

Las actividades de la división, formada en 2019 en la dirección de inteligencia de las FDI, están clasificadas.

Sin embargo, una breve declaración en el sitio web de las FDI afirmó que estaban utilizando un sistema basado en inteligencia artificial llamado Habsora (el Evangelio, en inglés) en la guerra contra Hamás para “producir objetivos a un ritmo rápido”.

Las FDI dijeron que “a través de la extracción rápida y automática de inteligencia”, el Evangelio produjo recomendaciones de objetivos para sus investigadores “con el objetivo de una coincidencia completa entre la recomendación de la máquina y la identificación realizada por una persona”.

Múltiples fuentes familiarizadas con los procesos de selección de objetivos de las FDI confirmaron la existencia del Evangelio a +972 MagazineLocal Call, diciendo que se había utilizado para producir recomendaciones automatizadas para atacar objetivos, como las casas privadas de personas sospechosas de ser agentes de Hamás o de la Jihad Islámica.

En los últimos años, la división de objetivos ha ayudado a las FDI a construir una base de datos de lo que, según las fuentes, eran entre 30.000 y 40.000 militantes sospechosos. Sistemas como el Evangelio, dijeron, habían desempeñado un papel fundamental en la elaboración de listas de personas autorizadas a ser asesinadas.

Aviv Kochavi, quien se desempeñó como jefe de las FDI hasta enero, ha dicho que la división objetivo está “impulsada por capacidades de inteligencia artificial” e incluye cientos de oficiales y soldados.

En una entrevista publicada antes de la guerra , dijo que era “una máquina que produce grandes cantidades de datos con mayor eficacia que cualquier ser humano y los traduce en objetivos de ataque”.

Según Kochavi, “una vez que esta máquina se activó” en la guerra de 11 días de Israel contra Hamás en mayo de 2021, generó 100 objetivos por día. “Para poner esto en perspectiva, en el pasado producíamos 50 objetivos en Gaza por año. Ahora, esta máquina produce 100 objetivos en un solo día, y el 50% de ellos son atacados”.

No se sabe exactamente qué tipos de datos se incorporan al Evangelio. Pero los expertos dijeron que los sistemas de apoyo a la toma de decisiones basados ​​en inteligencia artificial para la selección de objetivos normalmente analizarían grandes conjuntos de información de una variedad de fuentes, como imágenes de drones, comunicaciones interceptadas, datos de vigilancia e información extraída del monitoreo de los movimientos y patrones de comportamiento de individuos y grandes grupos.

La división de objetivos se creó para abordar un problema crónico de las FDI: en operaciones anteriores en Gaza, la fuerza aérea se quedó repetidamente sin objetivos para atacar. Dado que los altos funcionarios de Hamas desaparecían en los túneles al comienzo de cualquier nueva ofensiva, dijeron las fuentes, sistemas como el Gospel permitieron a las FDI localizar y atacar a un grupo mucho mayor de agentes más jóvenes.

Un funcionario, que trabajó en decisiones sobre objetivos en operaciones anteriores en Gaza, dijo que las FDI no habían atacado previamente las casas de miembros jóvenes de Hamás para bombardear. Dijeron que creían que eso había cambiado para el conflicto actual, con las casas de presuntos agentes de Hamás ahora atacados independientemente de su rango.

“Son muchas casas”, dijo el funcionario al +972/Local Call. “Miembros de Hamás que realmente no significan nada viven en hogares en toda Gaza. Entonces marcan la casa, la bombardean y matan a todos los que están allí”.

Los objetivos reciben una ‘puntuación’ por el posible número de muertes de civiles

En la breve declaración de las FDI sobre su división objetivo, un alto funcionario dijo que la unidad “produce ataques precisos contra la infraestructura asociada con Hamas mientras inflige un gran daño al enemigo y un daño mínimo a los no combatientes”.

La precisión de los ataques recomendados por el “banco de objetivos de IA” ha sido enfatizada en múltiples informes en los medios israelíes. El diario Yedioth Ahronoth informó que la unidad “se asegura, en la medida de lo posible, de que no se producirán daños a los civiles no implicados”.

Una antigua fuente militar israelí de alto rango dijo a The Guardian que los agentes utilizan una medición “muy precisa” de la tasa de civiles que evacuan un edificio poco antes de un ataque. “Utilizamos un algoritmo para evaluar cuántos civiles quedan. Nos da un verde, amarillo, rojo, como una señal de tráfico”.

Sin embargo, los expertos en IA y conflictos armados que hablaron con The Guardian dijeron que se mostraban escépticos ante las afirmaciones de que los sistemas basados ​​en IA reducían el daño a civiles al fomentar objetivos más precisos.

Un abogado que asesora a los gobiernos sobre la IA y el cumplimiento del derecho humanitario dijo que había “poca evidencia empírica” que respaldara tales afirmaciones. Otros señalaron el impacto visible del bombardeo.

“Miren el paisaje físico de Gaza”, dijo Richard Moyes, investigador que dirige Artículo 36, un grupo que hace campaña para reducir el daño causado por las armas.

“Estamos viendo el arrasamiento generalizado de una zona urbana con armas explosivas pesadas, por lo que afirmar que se ejerce una fuerza precisa y limitada no está respaldado por los hechos”.

Según cifras publicadas por las FDI en noviembre, durante los primeros 35 días de la guerra Israel atacó 15.000 objetivos en Gaza, una cifra considerablemente mayor que las operaciones militares anteriores en el territorio costero densamente poblado. En comparación, en la guerra de 2014, que duró 51 días, las FDI atacaron entre 5.000 y 6.000 objetivos.

Múltiples fuentes dijeron a The Guardian y al +972/Local Call que cuando se autorizó un ataque contra las casas privadas de personas identificadas como agentes de Hamas o de la Jihad Islámica, los investigadores del objetivo sabían de antemano el número de civiles que se esperaba que murieran.

Dijeron que cada objetivo tenía un archivo que contenía una puntuación de daños colaterales que estipulaba cuántos civiles probablemente morirían en un ataque.

Una fuente que trabajó hasta 2021 en la planificación de ataques para las FDI dijo que “la decisión de atacar la toma el comandante de la unidad en servicio”, algunos de los cuales estaban “más dispuestos a disparar que otros”.

La fuente dijo que hubo ocasiones en las que “había dudas sobre un objetivo” y “matamos lo que pensé que era una cantidad desproporcionada de civiles”.

Un portavoz militar israelí dijo: “En respuesta a los bárbaros ataques de Hamás, las FDI operan para desmantelar las capacidades militares y administrativas de Hamás. En marcado contraste con los ataques intencionales de Hamás contra hombres, mujeres y niños israelíes, las FDI siguen el derecho internacional y toman precauciones viables para mitigar el daño a los civiles”.

‘Fábrica de asesinatos en masa’

Fuentes familiarizadas con cómo se han integrado los sistemas basados ​​en IA en las operaciones de las FDI dijeron que tales herramientas habían acelerado significativamente el proceso de creación de objetivos.

“Preparamos los objetivos automáticamente y trabajamos según una lista de verificación”, dijo al +972/Local Call una fuente que anteriormente trabajó en la división de objetivos. “Realmente es como una fábrica. Trabajamos rápido y no hay tiempo para profundizar en el objetivo. La opinión es que se nos juzga según la cantidad de objetivos que logramos generar”.

Otra fuente dijo a la publicación que el Evangelio había permitido a las FDI dirigir una “fábrica de asesinatos en masa” en la que “el énfasis está en la cantidad y no en la calidad”. Un ojo humano, dijeron, “revisará los objetivos antes de cada ataque, pero no necesitará dedicarles mucho tiempo”.

Para algunos expertos que investigan la IA y el derecho internacional humanitario, una aceleración de este tipo plantea una serie de preocupaciones.

La Dra. Marta Bo, investigadora del Instituto Internacional de Investigación para la Paz de Estocolmo, dijo que incluso cuando “los seres humanos están al tanto” existe el riesgo de que desarrollen un “sesgo de automatización” y “confíen excesivamente en sistemas que llegan a tener demasiada influencia sobre decisiones humanas complejas”.

Moyes, de Artículo 36, dijo que cuando se confía en herramientas como el Evangelio, a un comandante “se le entrega una lista de objetivos que una computadora ha generado” y “no necesariamente sabe cómo se creó la lista ni tiene la capacidad de interrogar y cuestionar adecuadamente las recomendaciones de focalización”.

“Existe el peligro”, añadió, “de que, a medida que los seres humanos dependan de estos sistemas, se conviertan en engranajes de un proceso mecanizado y pierdan la capacidad de considerar el riesgo de daño a civiles de manera significativa”.

(Tomado de The Guardian / Traducción revisada al español de Cubadebate)

5 diciembre 2023

Información adicional

Autor/a: The Guardian
País: Israel
Región: Medio Oriente
Fuente: Cubadebate

Leave a Reply

Your email address will not be published.