Los ejércitos del futuro no serán 'Terminators', pero sí inteligencia artificial
ChatGPT ha democratizado una tecnología central desde hace años en la carrera armamentística
WashingtonA 30 de diciembre de 2022 Open AI hizo público y gratuito su chatbot ChatGPT, un modelo de lenguaje generativo que permitió por primera vez que cualquier usuario sin idea de programación interactuara con la inteligencia artificial (IA) en un lenguaje sencillo. En tan solo un año, esta tecnología se ha democratizado y ha evolucionado –de la arquitectura GPT-3, a la GPT-3.5, hasta GPT-4–, y ahora todo el mundo puede tener a su alcance, por veinte euros al mas, una serie de asistentes digitales personalizados (GPTs) capaces de buscar información en internet, generar imágenes o crear el código para programar un videojuego.
Es la primera democratización de una tecnología que hace décadas que existe. Nacida en el mundo académico y científico en los años 50, las potencias militares no tardaron en interesarse en ella y financiarla, y con el paso del tiempo se ha convertido en una pata central de la carrera armamentística. Los expertos consultados por el ARA coinciden en comparar su potencial con revoluciones militares como la pólvora, el motor de combustión, la aviación o la bomba nuclear. Pero, al ritmo que avanza, resulta difícil predecir la forma que acabará tomando.
"Durante la última década, la IA se ha convertido en una capacidad crítica para la defensa nacional de Estados Unidos", asegura Lauren Kahn, investigadora del Council on Foreign Relations (CFR) y experta en innovación en defensa. "Desde 2010, ha habido una nueva ola de crecimiento, con grandes avances en el procesamiento del lenguaje y el aprendizaje automático (deep learning). Y ahora, especialmente desde la guerra de Ucrania, el Pentágono ha acelerado su desarrollo".
Los usos militares de la IA
Más allá de las funciones comerciales, las capacidades militares de la IA son inmensas, tanto dentro como fuera del campo de batalla. Drones autónomos, identificación de objetivos, prevención de movimientos enemigos, desarrollo de estrategias, simulación de batalla y logística militar son algunos ejemplos de los usos que ya le están dando los principales ejércitos.
“Las municiones, las plataformas y las fuerzas armadas son las partes más visibles de cualquier cadena de muerte. Menos visibles, pero no menos importantes, son las capacidades que las unen y hacen que el todo sea más que la suma de las partes. Es precisamente en esas capacidades que queremos invertir”, dijo la subsecretaria de Defensa estadounidense, Kathleen Hicks, en una rueda de prensa en el Pentágono. Pese a que la idea de los robots antropomórficos y despiadados que nos vendió James Cameron en Terminator (1984) es impactante, de momento la aportación de la IA a los ejércitos no va por ese camino.
Por ejemplo, la empresa de software Palantir está colaborando desde 2008 con el Pentágono en la recogida de datos y procesamiento con IA para ofrecer respuestas "rápidas y prácticas" a los mandos. Su consejero delegado, Alex Karp, presumió de que la empresa es "responsable de la mayoría de identificaciones de tanques y artillería del enemigo en Ucrania" y, además, utiliza datos de los satélites para determinar rápidamente los recursos a desplegar o encontrar la ruta logística más eficiente.
Replicator: el plan del Pentágono para disputar la hegemonía china
La IA ya está presente, de una u otra forma, en casi todas las guerras del mundo. El ejemplo más claro es el uso de drones, pequeños vehículos aéreos semiautónomos que no están, ni de lejos, exentos de riesgos: en el 2019, durante la segunda guerra civil de Libia, una veintena de vehículos aéreos no tripulados turcos identificaron a sus objetivos y los atacaron por cuenta propia lanzándose sobre ellos y explotando, según describió un informe de Naciones Unidas. Se convirtió en una de las primeras matanzas documentadas llevadas a cabo por la IA.
Desde el inicio de la invasión rusa, EE.UU. ha enviado a Ucrania cientos de máquinas similares de fabricación propia, los Phoenix Ghost, y han acelerado su desarrollo. Pero ahora el Pentágono quiere dar un paso más: su iniciativa Replicator aspira a producir miles de drones autónomos, movidos por IA, "en los próximos 18-24 meses".
El objetivo, anunciado por Hicks en agosto, es "superar la gran ventaja de la República Popular China", que lleva años innovando en este ámbito. Pese a que EE.UU. lleva tiempo invirtiendo en vehículos autónomos, por primera vez lo harán "en masa" y buscando costes de producción menores "para producir y suministrar capacidades a los combatientes en el volumen y la velocidad necesarios para disuadir de una hipotética agresión", aseguró la subsecretaria de Defensa. Sin embargo, esta ambiciosa iniciativa no se ha terminado de concretar ni tiene todavía un presupuesto asignado. hasta la fecha. Prevé un total de 842.000 millones de dólares para el departamento de Defensa (un 5% más que en 2023), y la mayor parte del aumento se lo lleva Investigación y Desarrollo, con su mayor partida de la historia en dólares nominales, 210.000 millones.
Sin embargo, “la IA sigue siendo un punto débil del ejército estadounidense”, asegura Kahn, especialmente si se compara con la inversión –en proporción al gasto total en defensa– de otras potencias militares, como China o Rusia. Especialmente Pekín, que lleva años priorizando la inversión en IA, pese a que su presupuesto total en defensa (unos 224.000 millones de dólares) es casi cuatro veces inferior al estadounidense.
¿Los robots dirigirán las guerras?
"A corto plazo, cabe esperar que siga aumentando la tendencia actual de mayor uso de sistemas semiautónomos. A largo plazo, está claro que pasaremos a un modelo de sistemas totalmente autónomos", pronostica al ARA el investigador Kevin Desouza, experto en IA del centro Brookings. Y advierte que, “dada su naturaleza autónoma, estos sistemas podrían tomar decisiones contrarias a nuestra concepción sobre las normas de la guerra o la pérdida aceptable”.
Todas las distopías que narran un futuro impregnado de IA coinciden en identificar su principal riesgo: que escape del control del ser humano. Este es, presumiblemente, uno de los puntos que ha generado la reciente disputa en el seno de OpenAI. Por el momento, las fuentes consultadas concuerdan en que los principales peligros en los conflictos tienen que ver con el uso de algoritmos mal diseñados, que podrían causar numerosas víctimas civiles, así como accidentes de fuego amigo.
Además, "la IA podría conducir a una escalada indeseada", añade Kahn. “Si un sistema de misiles con un algoritmo de aprendizaje automático decide por su cuenta disparar a un enemigo, ¿cómo convences al adversario de que ha sido un accidente, si no puedes señalar a ningún humano como culpable?”. Dada esta circunstancia, “no nos interesa poner a la IA al mando, por ejemplo, de los sistemas nucleares: hay decisiones que solo deberían tomar los humanos”.
Para evitar este tipo de amenazas, “debemos dotarnos de convenciones aceptadas mundialmente, como las existentes para el armamento nuclear, químico y biológico", añade Desouza. Aunque es un tema que se ha debatido en varias ocasiones en la ONU, y entre los líderes de las primeras potencias mundiales, Biden y Xi, en la práctica no se ha llegado a establecer ningún límite. "No puedes intentar prohibirlo", aseguró el pasado viernes el presidente ruso, Vladimir Putin, quien anunció una nueva estrategia de país en este ámbito: "Si prohibimos aspectos de la IA, los desarrollará otro país y entonces nos quedaremos atrás".