Cómo arruinar con IA la reputación de un medio
Quienes escribimos artículos jugamos cada día a la pequeña lotería de ser escogidos por el dedo divino de los agregadores de noticias. Si resultamos ungidos, podemos estar seguros de que la pieza multiplicará el número de lectores habituales. Pero esa lotería tiene también su calabaza Ruperta. Resulta que en Guardian suben por las paredes porque Microsoft escogió una de sus piezas para su servicio Start. Se trataba de la nota sobre la muerte de la entrenadora de waterpolo Lilie James, cuyo cadáver fue hallado en una escuela de Sydney la semana pasada con heridas de gravedad en la cabeza. El problema es que, justo debajo de la noticia, Microsoft había publicado una encuesta generada por inteligencia artificial en la que pedían al respetable cuál creían que era la causa de la muerte: asesinato, accidente o suicidio. Una multitud de lectores, comprensiblemente molestos con un sondeo tan frívolo, macabro y desafortunado, dejaron comentarios altísimamente indignados en la noticia del Guardian, pensando que era el rotativo quien había tenido tan mala pensada. El diario explica que se ha puesto en contacto con Microsoft para exigir que, si hay que añadir piezas adjuntas, la tecnológica avise a los lectores de que se trata de una funcionalidad de su servicio, desligada del medio, y que avise también que se trata de una pieza creada con inteligencia artificial y, por tanto, susceptible de tener la misma sensibilidad que una suela de zapato.
Cada vez se confirma más que el peligro de la IA no son los deep fakes, por llamativos que sean, sino la capacidad de interferencia y, sobre todo, el hecho de que busquen borrar la frontera entre el contenido supervisado por humanos –al margen de quien la haya escrito– y aquel que la máquina no sólo elabora, sino que publica sin revisión ni control. O sea, la clásica imagen del mono y la escopeta.