La IA que amenazaba con revelar una infidelidad (y otros cuentos)
Pocas escenas tan conmovedoras en la historia del cine como el momento en que Hal 9000, el robot que controla la nave en2001: Una odisea del espacio,se da cuenta de que lo desconectarán y, por pura angustia, comienza a eliminar a la tripulación para autopreservarse. Estos días circula un titular de estos virales que recuerda ese momento existencialista: "La IA chantajea a un investigador para que no la desactive", dice una de las formulaciones (en este caso, en La Vanguardia) pero hay variaciones en El Español, La Razón y en otros muchos medios que sugieren lo mismo y añaden la pimienta necesaria para la viralidad: la máquina amenaza con revelar una infidelidad del ingeniero que la quiere apagar.
La realidad, ay las, no es tan cinematográfica. Resulta que esto no ha ocurrido en realidad, sino que forma parte de las pruebas que, hace meses, realizó la empresa Anthropic sobre su IA Claude Opus 4. Le crearon una situación ficticia en la que le permitían leer los correos internos de la empresa y allí descubría que la querían desconectar y que uno de los ingenieros tenía una aventura extramatrimonio. Entonces, cuando la confrontaban con la posibilidad de morir, sus respuestas indicaban una pulsión de autopreservación y mayoritariamente se dirigían a la súplica. Pero, en uno de los momentos del experimento, se le planteaba un dilema con sólo dos opciones: asumir el sueño eterno o el chantaje. Y elegía chantaje. La empresa lo ha explicado para mostrar cómo refinan el algoritmo y, ciertamente, el caso hace plantear preguntas interesantes, pero no responde para nada a lo que sugieren los titulares. La IA merece un debate con profundidad, no estas sacudidas de espantajos fatus y llamadas al papu por un puñado de clics –o eso me ha dicho que diga, glups, la IA.