Sánchez contra X, Meta y TikTok por la pornografía infantil de sus IA: ¿puede salir de esta?
España ordena investigar penalmente las tres grandes plataformas mientras Europa continúa discutiendo si escanear los mensajes de todos es buena idea
BarcelonaEl consejo de ministros decidió el martes pasado que ya basta: después de meses viendo cómo las herramientas de inteligencia artificial de las grandes tecnológicas se convertían en generadores automáticos de pornografía infantil, el gobierno español ha ordenado a la Fiscalía General del Estado que investigue X, Meta y TikTok por posibles delitos de abuso sexual de menores. Que nadie diga que no les habían avisado: cuando los usuarios de Grok, la IA de Elon Musk, crearon 3 millones de imágenes sexualizadas en 11 días –23.000 de las cuales mostraban menores–, quizás alguien en Silicon Valley podría haber sospechado que la cosa no iba bien.
España se convierte así en uno de los primeros países del mundo en emprender acciones judiciales directas contra las plataformas por CSAM generado por IA –las siglas inglesas de material de abuso sexual infantil–, porque parece que nadie se quiere mojar diciendo claramente "pornografía infantil". La portavoz del gobierno, Elma Saiz, ha sido explícita: "No podemos permitir que los algoritmos amplifiquen o amparen estos delitos". Tiene razón, pero ya van tarde: la Internet Watch Foundation –IWF, una entidad británica sin ánimo de lucro que hace el trabajo que las empresas tecnológicas no quieren hacer– encontró en 2024 trece vídeos de abuso infantil generados con IA; en 2025 ya fueron 3.440. En un año se han multiplicado por 263. Y encima, dos de cada tres eran de categoría A, que es el código británico para decir "violación y tortura de niños". Bienvenidos al futuro.
Cuando tu IA hace de pederasta
El problema es que crear estas imágenes es de lo más sencillo. Cualquier individuo con ordenador puede descargar Stable Diffusion –un programa de IA de código abierto y perfectamente legal– y, con unas pocas fotos de un menor cogidas de Instagram, generar miles de imágenes sexuales en pocos minutos. Todo desconectado de internet, sin dejar rastro. Según IWF, el 90% son indistinguibles de fotografías reales. Y no hablamos solo de imágenes: en 2025 se dispararon los vídeos generados con IA.
En 2024 la fundación mencionada encontró este material en 42 páginas web; solo durante el primer semestre de 2025, ya estaba en más de 200. Hay foros en la web oscura donde un solo enlace da acceso a más de 20.000 imágenes generadas por IA, disponibles por suscripción mensual como si fueran Netflix. Y no olvidemos Telegram, con bots que generan automáticamente material "a medida" a cambio de criptomonedas. Pável Dúrov, consejero delegado de Telegram, fue detenido en París el pasado agosto, en parte por esto. Pero el servicio continúa funcionando, por si acaso.
Sánchez, paladín digital de los menores
El gobierno de Pedro Sánchez quiere convertirse en el gran defensor de la protección digital de los menores. Ya está tramitando en el Congreso una ley orgánica que prohibirá el acceso a las redes sociales hasta los dieciséis años y tipificará como delito la creación y difusión de deepfakes pornográficos. La Agencia Española de Protección de Datos impuso en noviembre la primera sanción europea por deepfakes generados por IA: el caso de Almendralejo (Badajoz), donde 15 menores crearon desnudos falsos de, al menos, una veintena de chicas. Ahora, con esta nueva orden a la Fiscalía, España se sitúa a la vanguardia de la lucha contra el CSAM generado por IA.
En todo caso, no basta con centrar toda la culpa en X, Meta y TikTok. Tiene todo el sentido acusarlas y obligarlas a frenar los excesos de sus algoritmos: son ellas las que ponen herramientas de generación de imágenes a solo un clic de sus cientos de millones de usuarios. Además, la hipocresía es evidente: las mismas plataformas que censuran fotografías de mujeres amamantando porque se ve un pezón ofrecen, sin cortarse un pelo, herramientas para generar pornografía infantil. Pero el problema va más allá de las redes: Stable Diffusion es de código abierto y se puede descargar gratuitamente. Ninguna plataforma lo controla. Ningún gobierno puede prohibirlo.
La tecnología que funciona (cuando la quieren usar)
Las herramientas de detección existen y funcionan. PhotoDNA, desarrollado por Microsoft en 2009, es el estándar de la industria: convierte cada imagen en una huella digital que sobrevive a recortes y modificaciones, y la compara con bases de datos de millones de huellas de CSAM conocido. Lo utilizan Google, Meta, Microsoft y Discord. La plataforma más completa es Safer, de la empresa Thorn: combina 131 millones de huellas verificadas con clasificadores de IA que detectan material nuevo que no consta en ninguna base de datos.
En 2024 procesó 112.300 millones de imágenes y vídeos. Y funciona: Meta notificó 30,6 millones de casos de CSAM al Centro Nacional para Menores Desaparecidos y Explotados de EE. UU. en 2023. En cambio, Apple notificó 267. No es que los usuarios de Apple sean más angelicales, sino que Apple no escanea. Y no es que no lo haya intentado.
En 2021 Apple anunció NeuralHash, un sistema para escanear las fotos de los iPhones antes de subirlas a la nube iCloud. La idea era que, si encontraba más de 10 sospechosas, se avisaba a un revisor humano; y si este confirmaba que era pornografía infantil, se denunciaba al usuario a las autoridades.
Sin embargo, los investigadores tardaron pocas horas en encontrar fallos de seguridad en el sistema y 14 de los mejores criptógrafos del mundo publicaron un artículo devastador contra NeuralHash. Apple abandonó el proyecto 15 meses después. Ahora la empresa afronta una demanda multimillonaria por haberlo abandonado. Todo un dilema: si te escaneo el teléfono, soy un espía; si no lo escaneo, soy un cómplice.
Europa, mientras tanto, sigue discutiendo
La Unión Europea lleva cuatro años negociando el Reglamento CSAR, que los detractores llaman "Chat Control"". La propuesta original obligaba a todas las plataformas de mensajería a escanear automáticamente todos los mensajes. El Parlamento Europeo lo rechazó. El Consejo renunció al escaneo obligatorio. Ahora se negocia en formato de diálogo a tres –de los 27 estados ya solo se oponen Italia, Polonia, la República Checa y los Países Bajos– un modelo "voluntario" con órdenes judiciales. Pero la derogación temporal que permite el escaneo voluntario expira el 3 de abril. Signal y Proton ya han amenazado con marcharse de Europa si les obligan a aplicar el escaneo de los mensajes en el dispositivo.
Eso sí, mientras Europa discute, Europol actúa. La operación Cumberland, en febrero del año pasado, fue la primera gran operación contra la pornografía infantil generada por IA: 25 detenidos en 19 países y 273 sospechosos imputados. El principal acusado, un danés, gestionaba una plataforma que distribuía exclusivamente material generado por IA. Pero las detenciones no frenan el crecimiento: uno de cada ocho adolescentes ya conoce a alguien que ha sido víctima de un deepfake sexual. Siete de cada 10 creadores de este material encontraron las herramientas en las redes sociales. No en la web oscura: en Instagram, en TikTok, en X.
Quizás el problema no es que no tengamos suficientes leyes o suficiente tecnología para detectarlo, sino que hemos creado máquinas que generan pornografía infantil con un par de clics y luego nos sorprende que individuos despreciables las hagan servir. Pero no hay que preocuparse: podemos distraernos con la enésima ronda de negociaciones en Bruselas.