La inteligencia artificial dispara la capacidad de matar de EE.UU. e Israel
El sistema Project Maven, utilizado por el Pentágono, puede procesar mil imágenes en un segundo y hacer de la información objetivos potenciales
LondresEl ojo humano puede analizar una imagen de satélite en unos diez minutos. El sistema Project Maven, el programa de análisis de imágenes con inteligencia artificial del Pentágono y en el que participan empresas como Palantir Technologies, puede procesar mil imágenes en un segundo. Esa enorme capacidad de computación ha convertido la guerra en Irán en uno de los primeros conflictos donde los sistemas de inteligencia artificial desempeñan un papel central en la identificación y priorización de objetivos, y donde la velocidad de cálculo condiciona el ritmo de las operaciones. Y lo hace mucho más que en conflictos anteriores. La guerra de Tel Aviv y Washington contra Teherán supone el debut a gran escala para una tecnología que hasta hace poco era poco más que un experimento, aunque Ucrania y Gaza han visto ya algunos primeros ensayos generalizados.
Las posibilidades de este sistema Maven, combinado con modelos de IA generativa como Claude, de la compañía Anthropic, permitieron a los estadounidenses ya los israelíes atacar 3.000 objetivos durante las primeras 24 horas de la ofensiva. Esto supone una auténtica "metamorfosis del campo de batalla", en palabras del mariscal del aire retirado de la Royal Air Force británica Martin Sammy Sampson. "Estamos ante una fase inédita de la guerra, donde la toma de decisiones se ha desplazado hacia arquitecturas algorítmicas a gran escala que culminan años de experimentos secretos", afirma. Sampson, director ejecutivo de la rama de Oriente Próximo think tank International Institute for Strategic Studies (IISS), de Londres, lo contaba esta semana en el ARA durante una sesión informativa.
La tecnología, que Israel ya ha utilizado en Gaza, ha contribuido a hacer posible que en un solo día se lleven a cabo tantos ataques como en meses de campaña convencional. Un flujo constante de datos se transforma en objetivos potenciales en un proceso en el que, según varios especialistas, la supervisión humana puede reducirse a un simple trámite de validación.
¿Cómo funciona Project Maven?
La historia militar entra así en una fase en la que, como afirma Sampson, lo que cuenta es "la fría velocidad de cálculo". El mariscal describe el sistema como una "ejecución y planificación 24/7": en resumen, la lluvia de fuego no se detiene. El ritmo supera incluso los ejercicios de simulación más ambiciosos del Pentágono, como el concepto "a thousand decisiones", diseñado para entrenar mandos a identificar mil objetivos en una hora. En Irán, la escala ha sido el doble de la famosa campaña Shock and Awe de 2003, durante la guerra de Irak, que implicó 1.700 salidas aéreas en 48 horas. Según Sampson, la IA "no es un complemento, es el coro, es el coro, optimizar la eliminación sistemática de objetivos.
El sistema empezó a proyectarse en 2017 como un experimento para clasificar vídeos de drones. Con el tiempo se ha convertido en una plataforma capaz de interpretar el volumen abrumador de datos generados por satélites mapas digitales, geolocalizaciones, telemetría e imágenes comerciales.
Mediante visión por computador puede clasificar objetos con una probabilidad elevada —por ejemplo distinguir un vehículo militar de un camión civil—, identificar fuentes de calor o detectar infraestructuras de comunicaciones en el campo de la batalla de información". Es decir, soluciona lo que ningún equipo humano puede hacer: procesar miles de horas de vídeo y señales en tiempo útil.
La integración con modelos de IA como Claude añade una nueva capa de sofisticación: la capacidad de sintetizar e interpretar ese enorme flujo de información. La empresa Palantir Technologies aporta los datos brutos del sistema -procedentes de satélites, sensores e intercepciones de comunicaciones-, mientras que Claude actúa como una "corteza cerebral" que permite interrogar a la plataforma con preguntas formuladas en lenguaje corriente y obtener respuestas operativas en cuestión de segundos, sostiene Sampson.
Un ejemplo: un comandante puede pedir qué centros logísticos enemigos son más vulnerables dentro de un radio determinado. Claude cruza los datos disponibles y genera una respuesta operativa clara, mientras que los sistemas de análisis filtran posibles falsos positivos y presentan a los mandos una lista de objetivos que serían prioritarios.
El proceso sigue la cadena digital F2T2EA —detectar, fijar, seguir, designar, atacar y evaluar— a una velocidad que ningún humano podría igualar. El sistema Project Maven puede analizar miles de imágenes en segundos, correlacionar firmas térmicas –la huella de calor que suelta un objeto o un cuerpo humano– y transmisiones de radio en tiempo real y presentar objetivos que se consideran prioritarios. Como si fuera una suerte de videojuego, el operador-ejecutor sólo tiene que revisar y autorizar. Al menos en teoría. En la práctica, la aceleración y exigencia del mando puede hacer que autorice siempre de forma sistemática. Se acaba así con lo que los militares llaman "cuellos de botella cognitivos". El resultado es que se toman mil decisiones en una hora. Por supuesto, también se reduce al mínimo el margen de deliberación humana.
El reverso aún más oscuro
Y como si fuera una suerte de videojuego, el operador-ejecutor sólo tiene que revisar y autorizar el golpe. Al menos en teoría. En la práctica, la aceleración y exigencia del mando puede hacer que autorice siempre de forma sistemática. Se acaba así con lo que los militares llaman "cuellos de botella cognitivos". El resultado es que se toman mil decisiones en una hora. Por supuesto, también se reduce al mínimo el margen de deliberación humana y aumenta la posibilidad de errores.
En declaraciones a la agencia Bloomberg la semana pasada, el capitán Timothy Hawkins, portavoz del Mando Central de Estados Unidos (CENTCOM), insistía en que la IA no decide qué es un objetivo ni sustituye a los humanos a la hora de tomar una decisión. Sin embargo, reconocía que ayuda a "tomar decisiones más inteligentes más rápidamente". El tiempo entre la detección y el ataque se reduce.
Sin embargo, esta eficiencia tiene un reverso aún más oscuro. La misma tecnología que promete precisión quirúrgica puede amplificar errores de forma catastrófica.
El ataque a la escuela de Minab en las primeras horas de la guerra de Irán, donde murieron 168 personas —al menos 110 niñas—, se ha convertido en símbolo de esta deriva.
Según varios análisis, los sistemas de inteligencia podrían haber interpretado una concentración de firmas térmicas —el patrón de calor que emiten objetos o cuerpos humanos y que detectan los sensores infrarrojos— y emisiones electrónicas compatibles con un centro de mando militar. Pero no detectaron que se trataba de un salón de actos lleno de niñas.
La tragedia se agravó con la lógica del double-tap, una segunda ola de ataques programada para golpear cuando los equipos de rescate ya están en la zona, y que en Gaza los israelíes han utilizado reiteradamente. El hecho de que estuviera cerca una instalación de la Guardia Revolucionaria refuerza la hipótesis del ataque estadounidense, aunque el Pentágono y el presidente Donald Trump han rehuido su responsabilidad. Aun así, una información publicada el pasado miércoles por The New York Times indicaba que el propio Pentágono había detectado que los datos utilizados por la inteligencia artificial no eran actuales. Otro error, pues.
Ante la superioridad tecnológica aliada, Irán ha optado por una estrategia asimétrica que Sampson describe como una "escalada anárquica". Mientras la IA estadounidense busca objetivos presuntamente estratégicos, Teherán intenta provocar el choque social en la región.
La ausencia de misiles de crucero en el campo de batalla sugiere, decía el mariscal, que Irán les reserva, no que ya los haya consumido al 90%, como ayer decía el secretario de Defensa, Pete Hegseth: estos proyectiles, de vuelo muy bajo, son especialmente difíciles de detectar por los rados. Paralelamente, como apunta Sampson, Teherán explota los errores de los algoritmos occidentales y convierte episodios como el de Minab —tragedia o asesinato masivo— en munición narrativa para erosionar la más que dudosa legitimidad de una ofensiva ilegal que carece de freno.
Hay, aún, otras dos grandes incógnitas, imposibles de comprobar en estos momentos. Por un lado, si la inteligencia artificial es tan eficaz como sostienen sus creadores –algunos analistas afirman que las fuerzas iraníes han construido durante años cebos para confundir los algoritmos de sistemas relativamente pocos experimentos; por otro, si las llamadas ciudades de misiles subterráneas de Irán se han visto afectadas gravemente o no por dos semanas de campaña aérea. Por el momento, parece difícil de decir.
En paralelo a la capacidad de innovación tecnológica que ha puesto de manifiesto la guerra, se ha abierto una grieta sísmica en Washington. La administración de la Casa Blanca ha clasificado a Anthropic como un "riesgo para la cadena de suministro". La decisión es extraordinaria porque el gobierno de EE.UU. suele ser el protector férreo de sus empresas tecnológicas ante la regulación internacional. Ahora, sin embargo, ha colocado a Anthropic en el mismo nivel de restricción que el gigante chino Huawei. El motivo de la discordia es el posicionamiento de su CEO, Dario Amodei, quien ha impuesto cláusulas estrictas: su tecnología no puede ser usada para la guerra autónoma letal ni para la masiva vigilancia de ciudadanos. La Casa Blanca ha respondido con una dureza inaudita, tildando a la empresa de "radical de izquierdas y 'woke'" y afirmando que no corresponde a las empresas dictar el comportamiento del ejército. Amodei, por su parte, mantiene una postura muy ambigua: por un lado, ha impugnado judicialmente la decisión del gobierno y, por otro, afirma que su tecnología "aún no es suficientemente buena" para hacer las cosas que el ejército quiere hacer.