¿La pedofilia digital simulada es menos abominable?
Albert Cuesta explica los peligros de la IA generativa en el campo de la pornografía infantil
No se comenta mucho, pero el negocio de la pornografía ha impulsado o acelerado muchas innovaciones tecnológicas que los más veteranos hemos visto nacer y pasar, como los videocasetes y los canales de TV codificados, y otras que todavía nos acompañan: la explosión de las páginas web, los sistemas de pago por internet, las videollamadas, el video a la carta en streaming –YouTube es del año 2005, pero 11 años antes la empresa holandesa Red Light District ya servía videos pornográficos por internet.
Por eso no sorprende que la industria del porno esté adoptando con entusiasmo la actual tecnología de moda, la inteligencia artificial (IA) generativa. Hemos visto cómo los algoritmos permiten suplantar personas añadiendo su cara a imágenes y videos de situaciones donde ellas no han estado nunca. También sabemos que los adelantos técnicos permitirán pronto generar videos pornográficos hiperrealistas a la carta, eligiendo la cantidad de personajes que aparecen, las combinaciones de géneros, etnias, edades y posiciones que se quieran.
La última y terrible novedad es que la IA generativa ya se está usando para generar contenido de la peor clase que hay: la pornografía infantil. Según The Washington Post, por los fórums de pedófilos en la dark web ya circulan imágenes de abusos sexuales de menores que en realidad no son tales, sino personajes infantiles generados con inteligencia artificial. Entre los debates que se abren destaco tres. El primero, si la pedofilia simulada es tan despreciable como la real. Hay quien cree que no, porque en estos actos pornográficos sintéticos no intervienen menores reales. Pero incluso aceptando esto, hay que recordar que los modelos que generan las imágenes se han entrenado con fotografías existentes de abusos sexuales de menores.
El segundo, que las imágenes resultantes son tan realistas que podríamos llegar a ver a los tribunales el abogado de un acusado de pedofilia alegando que las imágenes de prueba no son de verdad, sino inventadas. Y el tercero, que a los encargados de buscar este tipo de contenido y perseguir los responsables se les complica mucho el trabajo: pueden acabar derrochando recursos buscando a los participantes en una escena que nunca se llegó a producir.