El peligroso delirio de Grok con el genocidio blanco

Durante unas horas, la herramienta de inteligencia artificial Grok, propiedad de Elon Musk, tuvo un curioso brote: empezó a ofrecer respuestas en las que hablaba del presunto "genocidio blanco" perpetrado en Sudáfrica. Lo hacía, además, sin venir a cuento y contestando cuestiones sobre béisbol, sobre la construcción de andamios o sobre programas informáticos. La IA insistía en que ese genocidio había sucedido y que había sido "instruida" por sus creadores a considerarlo real. Supongo que no cuesta mucho adivinar qué célebre tuitero y propietario de red social y hombre más rico del mundo ha estado desbarrando últimamente sobre que en la Sudáfrica del apartheid todo el mundo sufrió odio por el color de su piel. Todas las sospechas indican, una vez más, que Musk ha aprovechado su posición de Lord de las Redes para capear con el algoritmo para que Grok asuma postulados coincidentes con sus manías. Ya se hizo evidente cuando sufrió un ataque de cuernos, en una pausa de la Superbowl, y llamó a los ingenieros de X exigiendo que un tuit suyo tuviera más interacciones que uno del entonces presidente, Joe Biden. Pero eso no iba más allá del típico acomplejamiento de vestuario del narcisista inseguro. Ahora, en cambio, hablamos de una herramienta que mucha gente utiliza ya para sus búsquedas generales que empieza a disparar arengas penosamente coincidentes con las del supremacismo blanco.

El caso obliga a aumentar la presión sobre los organismos reguladores para que se pongan las pilas. Urge que los algoritmos sean examinables y puedan detectarse estos sesgos implantados perversamente y con nocturnidad. La apariencia de neutralidad de las herramientas de IA las hace una poderosísima herramienta en manos irresponsables. Y las de Musk, claramente, son manos retorcidas y amenazadoras, como las del Nosferatu de Murnau, avanzando entre las sombras de la opacidad algorítmica.