Así utiliza Israel la inteligencia artificial para bombardear a Gaza

Periodistas de investigación israelíes destapan los sistemas Evangelio, Lavanda y ¿Dónde está el Papa?, que han multiplicado la generación de objetivos militares

6 min
Ataque israelí sobre Gaza el 22 de Noviembre de 2023

BarcelonaLa inteligencia artificial toma las armas y empieza a matar a personas: lo que hace unas décadas era el argumento de grandes películas de ciencia ficción está pasando ahora en Gaza. El ejército israelí no pudo causar una destrucción sin precedentes como la que vemos después de seis meses de ofensiva sobre la Franja sin un sistema automatizado de generación de objetivos. Alguien debe decir a los operadores de drones o los pilotos de cazas a los que apuntar. Según han destapado periodistas independientes israelíes y palestinos citando fuentes anónimas de dentro del ejército, los militares israelíes están utilizando sistemas no probados y secretos para crear una base de datos generada por inteligencia artificial para señalar objetivos en su campaña de bombardeos , que ha matado, herido o hecho desaparecer a más de 100.000 palestinos (la mayoría mujeres y criaturas) y ha reducido la Franja a escombros.

"Por primera vez en la historia se está utilizando la inteligencia artificial como arma, y ​​el resultado es catastrófico", explica al ARA Shir Hever, investigador judío experto en industria militar israelí. "Y esta tecnología se utiliza sobre todo para manipular las armas más peligrosas del planeta, que son los seres humanos, seleccionando objetivos con los que intencionadamente se matan a civiles". Todavía son personas las que toman la decisión de apretar el gatillo, pero lo hacen condicionadas por una máquina a la que se le ha pedido maximizar la destrucción.

Lo demuestran las investigaciones del periodista y cineasta Yuval Abraham, que ha constatado como soldados que han participado en la actual ofensiva admiten que se convirtieron en meros ejecutores de los objetivos seleccionados por las máquinas, sin tiempo, ni ánimo, de cuestionar -las. Unas máquinas que "aprenden" a condicionar la conducta humana: muestran al humano la información que "saben" que le convencerá más fácilmente de apretar el gatillo. El algoritmo funciona como un laboratorio de destrucción masiva.

Lavanda

Uno de los sistemas de inteligencia artificial que Abraham pudo identificar en manos de los militares es el Lavanda, que jugó un papel central en los bombardeos de los palestinos, sobre todo en las primeras semanas después del 7 de octubre. Formalmente, el sistema estaba diseñado para señalar a todos los sospechosos de ser combatientes de Hamás o de la Yihad Islámica Palestina, incluidos los de rango más bajo. En las primeras semanas de la guerra el sistema seleccionó a 37.000 palestinos –y sus casas– como objetivos de los ataques aéreos. Los soldados de las unidades de inteligencia que han hablado con el periodista han admitido que no tardaban más de 20 segundos en autorizar cada nombre de la lista negra generada por el algoritmo. "Y los militares sabían que el sistema "se equivoca" en al menos el 10% de los casos", constata el periodista.

El aparcamiento del Hospital Al-Ahli tras el ataque del día 17 de octubre de 2023

El algoritmo analiza la información de los 2,3 millones de palestinos que viven en la Franja, recogida con un sistema de vigilancia masiva, y da una puntuación del 1 al 100 para casi cada persona, que valoraría la probabilidad que sea un combatiente. Los manuales militares hablan de información visual, de los teléfonos móviles, conexiones a las redes sociales, contactos telefónicos, fotos... pero no está claro exactamente de qué datos se nutre Lavanda. Si esa información la procesa el algoritmo en lugar de personas, la velocidad de generación de objetivos crece exponencialmente. Lo que no tiene en cuenta el sistema es que en una guerra es muy fácil que, por ejemplo, un móvil cambie de manos: los familiares se separan y pierden el contacto, dejan el móvil a un amigo, al hijo, a la pareja o quizá le pierdan. Y tener un móvil en casa puede ser sinónimo de que un misil acabe contigo y con toda tu familia.

"La máquina lo hacía con sangre fría. Y así era más fácil", dijo un soldado al periodista. Es lo que tiene tener en mano una lista de objetivos que se han generado por probabilidad estadística. "En tiempos de guerra no puedes comprobar cada objetivo. Ya va bien aceptar el margen de error de la inteligencia artificial: puedes aceptar a civiles muertos, ataques erróneos y vivir con ello", admitió otro. Y otra fuente admite que se cambiaban los parámetros del algoritmo cuando se habían quedado sin objetivos por asesinar: todo depende de dónde se pone el listón. Si se necesitan más objetivos la definición "de operativo de Hamás" se hace un poco más laxa en los criterios que se dan en la máquina, entrando en la lista el personal de defensa civil, los policías o los bomberos.

Aunque el ejército israelí asegura que estos programas sólo sirven para "ayudar" a personas de carne y hueso a decidir cuándo y dónde disparar, los testigos que aporta Abraham aseguran que la única supervisión humana sobre los objetivos generados por IA es comprobar si se trata de un hombre o mujer. Si la máquina apunta a una mujer es que se equivoca, porque no hay mujeres combatientes en las filas de Hamás o la Yihad Islámica Palestina. Pero si es un hombre va bien.

Ciudadanos palestinos inspeccionando los restos de su casa el 22 de febrero de 2024

¿Dónde está el papa?

¿Pero entonces cómo se explica que el 70% de muertes en los bombardeos en Gaza sean mujeres y criaturas? La respuesta es que los mandos israelíes han decidido que lo más efectivo es bombardear a los hombres elegidos con Lavanda cuando están en su casa, normalmente de noche, durmiendo con sus familias. Desde el pasado 7 de octubre Israel ha destruido 360.000 viviendas en Gaza. Para ello se han servido de otro sistema de IA llamado ¿Dónde está el Papa?, según asegura la investigación periodística. Básicamente, lo que hace es enviar una alerta cuando el objetivo seleccionado entra por la puerta de su casa. Bum. En las anteriores ofensivas israelíes en Gaza, dicen las fuentes internas, se limitaban los ataques en casas civiles a objetivos etiquetados como altos mandos, y ahora se emplea contra cualquier sospechoso señalado por el algoritmo. Además, como la inteligencia israelí atribuye poco valor a estos objetivos, tiende a utilizar las llamadas bombas sucias, de poca precisión, para destruirlos. Según una información de la cadena estadounidense CNN, el 45% de las bombas que ha utilizado Israel en Gaza son de este tipo.

En una decisión sin precedentes, el ejército acordó, según las fuentes, programar al Lavanda para aceptar un ratio de 15 a 20 civiles muertos por cada objetivo de bajo interés marcado por el sistema: en el caso de figuras de alto rango esta ratio se ha elevado a 100. El resultado: más de 33.000 muertes (de las que 13.000 son criaturas), 8.000 desaparecidos bajo los escombros y 75.000 heridos en seis meses. Familias enteras borradas del mapa escogidas por un programa de inteligencia artificial.

Dos familiares envolviendo el cadáver de un niño víctima de un ataque israelí a Rafah el 4 de abril de 2024

Evangelio

Otro sistema de inteligencia artificial desarrollado por el ejército israelí se ha bautizado con el nombre de Habsora (Evangelio). En este caso, no sirve para marcar a personas sino edificios. Según ha publicado el ejército israelí, este sistema está en marcha desde 2020 y lo ha desarrollado la unidad 8.200 de inteligencia. Tampoco se sabe con exactitud con qué datos se alimenta el algoritmo, pero mandos de la unidad han dicho que intentan que sean lo más variadas posibles: llamadas de móvil, imágenes de satélite y de drones e incluso sensores sísmicos. Así han sido destruidos muchos edificios que no tenían uso militar alguno: bloques de pisos, hospitales, universidades, escuelas, centros comunitarios, sedes de medios de comunicación, panaderías de pan... Según Abraham, el objetivo es "generar una conmoción entre la población civil para que presione a Hamás".

Las guerras del futuro

Las noticias han alarmado a los grupos defensores de los derechos humanos. El abogado Gil Gan Moore, de la Asociación por los Derechos Civiles de Israel, explica que han presentado una petición de información pública al ejército para esclarecer el uso que está haciendo de la IA: "En una guerra la información de inteligencia debe ser muy precisa, no basada en el tratamiento de grandes cantidades de datos. Nos preocupa que se definan objetivos militares más rápido de lo que podría pensar la inteligencia humana". Y añade: "Por mucho que el ejército diga que sólo es una herramienta de apoyo para los humanos que toman las decisiones, sabemos que es imposible para cualquier persona entender, analizar y responder a una información generada por inteligencia artificial. Porque no funciona a partir de informaciones razonadas, sino de patrones". También está claro que ese desarrollo tecnológico no se limita a esta guerra. "Estamos viendo una imagen de cómo serán las guerras del futuro, en las que un ordenador nos dirá dónde tenemos que disparar, sin más intervención humana. Las guerras se vuelven cada vez más inhumanas y eso da mucho miedo", asegura Gan Moore.

El periodista australiano Antony Loewenstein recuerda que "Israel está publicando vídeos de sus ataques aéreos y eso lo hace sobre todo para exponer sus capacidades a otros gobiernos y atraer así a compradores interesados". "Está haciendo marketing con sus métodos y equipamientos, estableciendo un precedente que otros países pueden emular, sobre todo los implicados en operaciones de contrainsurgencia. No sabemos qué otros países adoptarán la inteligencia artificial, pero la tendencia es muy clara", remacha.

stats