La guerra y la ciberguerra sin 'hackers' ni soldados
El inicio de la mecanización de la guerra, más allá de las armas de fuego, se produjo en la segunda mitad del siglo XIX con el uso del ferrocarril para el transporte de tropas durante la guerra civil americana y los conflictos europeos de las décadas de 1860 y 1870, sobre todo la guerra franco-prusiana. La Primera Guerra Mundial supuso un gran salto adelante en el uso de vehículos autopropulsados, incluyendo aviones, carros blindados, tanques, automóviles y motocicletas. Los conflictos que siguieron a lo largo del siglo XX perfeccionaron muchísimo la mecanización bélica, añadiendo las bombas voladoras, los misiles y las armas nucleares. Todo ello permitió matar y destruir a una escala nunca vista.Ya en nuestro siglo, los ejércitos han ido dotándose de armas que permiten que los soldados eviten la primera línea de frente, y luchen desde la segunda línea o incluso de más atrás. Los drones han sido la innovación estrella, dado que sustituyen la aviación tripulada a un coste mucho más bajo y sin poner en riesgo la vida de un soldado tan especializado como es el piloto. Estos aparatos son telecomandados por un piloto a distancia y se han demostrado muy eficaces en las guerras de Ucrania y de Irán.La última incorporación a la guerra convencional es la inteligencia artificial (IA). Se trata de automatizar algo que hasta ahora parecía imposible sin intervención humana: pelearnos entre nosotros. Ahora ya hay drones militares autónomos, que no necesitan ningún piloto que los teledirija, sino que pueden volar solos gracias a la IA. Están dotados de una multitud de sensores que les permiten navegar sin intervención humana, incluyendo medidores de inercia, GPS, altímetros, sensores de aire, lidar, sensores de ultrasonidos, cámaras estereoscópicas, cámaras electroópticas para trabajar de día, sensores de infrarrojos y de calor para trabajar de noche, radares, etc. Toda la información obtenida es fusionada y tratada en tiempo real con técnicas de IA, incluyendo visión por computador. Esto les da una percepción fiable y real del campo de batalla, que alimenta otros algoritmos de IA que deciden qué hay que hacer ante situaciones de emergencia imprevistas e impredecibles, y eligen objetivos en entornos complejos.
El ejército ucraniano también está probando “drones terrestres”, es decir, robots que sustituyen a la infantería en primera línea de frente. Con esto, se intenta paliar la falta de soldados y reducir las bajas. Las tareas que realizan estos robots son evacuar a los heridos y a los muertos, distribuir comida y medicinas, plantar minas, transportar municiones, lanzar drones aéreos, disparar proyectiles, construir barricadas, recuperar vehículos estropeados y hacer operaciones de inteligencia. Recientemente, robots terrestres y drones aéreos incluso han reconquistado una posición que estaba en manos de los rusos. Como moverse en un entorno terrestre es más complicado que volar, la mayoría de los robots-soldados son telecomandados, pero se les van añadiendo algunas capacidades autónomas.
En el mundo digital, la ciberguerra y la ciberseguridad eran hasta hace poco actividades bien humanas. Esto puede sorprender, pero la programación informática –y aún más los ciberataques y las ciberdefensas– ha sido muy artesanal. Un programador debía escribir el código de la primera instrucción a la última, así como asegurarse de que se compilase sin errores y que hiciese la función deseada. Por otra parte, convertirse en hacker requería un entrenamiento de años y, para encontrar vulnerabilidades de seguridad, había que pasarse mucho tiempo haciendo pruebas. Si los hackers éticos comunicaban las vulnerabilidades a los fabricantes de software para que las pudieran arreglar, los no tan éticos, a menudo a sueldo de estados o de empresas, atesoraban vulnerabilidades de “día cero” (aún no descubiertas por nadie más).Todo esto está cambiando con la IA generativa. Cada vez más, los grandes modelos de lenguaje tienen capacidad no solo para escribir programas, sino para identificar vulnerabilidades. Ya en 2024 el GPT-4 era capaz de explotar el 87% de las vulnerabilidades que se le presentaban, lo que suponía un gran avance comparado con el 0% del GPT-3.5. El modelo Claude Opus 4.5 de Anthropic era capaz de encontrar más de 500 vulnerabilidades explotables de día cero, mientras que Claude Mythos, el más reciente, parece que va más allá, a pesar de que bastantes expertos dicen que se ha exagerado su efectividad. Quizás por marketing, Anthropic ha dicho que solo venderá Mythos a algunas grandes compañías de software, porque sería peligroso que todo el mundo lo tuviera (de pasada, esto coloca a estas compañías en una posición de superioridad respecto de la competencia).
En resumen, estamos asistiendo a una automatización de los conflictos tanto en el mundo físico como en el mundo digital. ¿Dónde queda el factor humano? A mi parecer, ni atacantes ni defensores pueden dejarlo todo en manos de la IA: si mi adversario y yo tenemos la misma IA, pero él también tiene personas especialistas, ganará él. Huelga decir, sin embargo, que el atacante tiene suficiente con encontrar un hueco, mientras que el defensor debe tapar todos los huecos.