El escándolo de Grok y la IA que hemos normalizado
Los desnudos en Grok se han convertido en el símbolo de una deriva que va mucho más allá de una polémica concreta. La posibilidad de generar imágenes sexualizadas de mujeres y niñas reales, facilitada por una arquitectura diseñada para sortear límites deliberadamente, no es un accidente ni un exceso puntual. Es el resultado coherente de un tipo de inteligencia artificial que llevamos años promoviendo y celebrando.
Es importante señalar que no estamos ante un problema de uso indebido, sino ante una elección tecnológica. Grok encarna un modelo de IA basado en la escala, la velocidad y la provocación como valor. Sistemas entrenados con volúmenes masivos de datos, lanzados al espacio público con la promesa implícita de que cualquier daño se gestionará después. Primero se despliega. Luego, si acaso, se ajusta. Esa lógica no es neutra. Tampoco es inevitable.
La inteligencia artificial no aprende en abstracto. Aprende de sociedades atravesadas por desigualdades profundas. Cuando se alimenta a estos sistemas con rastros marcados por el patriarcado y otras discriminaciones estructurales, sin contexto ni fricción ética, lo que devuelven no debería sorprendernos. Se amplifican imaginarios de dominación, se normaliza la disponibilidad de los cuerpos de las mujeres y se traduce la violencia simbólica en producción automatizada, repetible, escalable.
El debate público se ha desplazado rápidamente hacia cómo limitar, bloquear o sancionar. Pero esa reacción, comprensible, deja intacta la pregunta más incómoda. Por qué este tipo de IA. Por qué seguimos apostando por modelos que confunden aprendizaje con acumulación, inteligencia con repetición estadística y progreso con crecimiento sin límite. Por qué llamamos innovación a tecnologías que necesitan ignorar el consentimiento y el respeto a los derechos humanos para funcionar con fluidez.
El tecnosolucionismo insiste en que siempre habrá una solución técnica posterior. Más restricciones. Más filtros. Más geobloqueo. Pero esta controversia y consecuente debate muestran algo distinto. Una vez que una tecnología existe, se integra en el imaginario colectivo y se vuelve accesible a millones de personas, no desaparece. Migra. Se adapta. Reaparece en otros formatos, en otros espacios, con menos visibilidad y menos fricción. El problema no se corrige. Se desplaza.
Además, no debemos olvidar que este modelo de inteligencia artificial no solo es socialmente agresivo. Es materialmente insostenible. Requiere infraestructuras energéticas intensivas, extracción constante de datos y una lógica de expansión permanente. Y lo que (casi) nadie suele mencionar es que existen otras formas de desarrollar IA. Más pequeñas, más situadas, más limitadas en alcance y más cuidadosas con los derechos humanos y el clima. No dominan el mercado porque no encajan con una idea de éxito basada en la hipercompetencia y el impacto inmediato. Idea también estrechamente relacionada con el patriarcado y otros sistemas imperantes.
La última peripecia de Elon Musk no ha revelado un fallo del sistema. Ha revelado el sistema. Una inteligencia artificial diseñada sin memoria, sin límites claros y sin responsabilidad social reproduce, a gran escala, desigualdades que ya conocemos demasiado bien. El riesgo no está en una función concreta ni en un modo concreto. Está en seguir normalizando una tecnología que trata la violencia como una externalidad y el daño como un coste asumible del progreso.