Es muy raro que Santos Cerdán, para defenderse y evitar su dimisión, no haya utilizado el comodín del llamado deepfake, que ya es frecuente en los tribunales y que cada vez, desgraciadamente, lo será más. La razón puede ser que el interesado desconozca esta línea de defensa, o bien que el audio no sea ninguna deepfake y que la corrupción investigada sea real y haya optado por la opción más inteligente en estos casos: renunciar a la política y defenderse como un ciudadano cualquiera. También es factible que no haya querido perjudicar políticamente aún más a su partido, sea cierta o falsa la conversación, lo que es posible que ni el propio Santos Cerdán recuerde, porque la supuesta conversación es de hace seis años. Sea como fuere, se equivocan a menudo los tribunales cuando creen, como casi todo el mundo, que la memoria humana es como una grabación de audio y vídeo. En realidad, es muy precaria y en condiciones mínimamente aceptables no dura más de 48 horas. Tras ese tiempo, la psicología del testigo ha confirmado científicamente que la memoria se reconstruye y se va llenando de falsos recuerdos para integrar sus lagunas, lo que produce memorias irreales que el sujeto cree firmemente que se corresponden con la verdad. Un desastre que hace que los interrogatorios en los procesos judiciales, pese a su teatralidad a veces espectacular, sirvan en realidad para poco más que para perder el tiempo o intentar apelar a los prejuicios sociales del juez para que decida el caso, no en favor de la verdad, sino de los intereses de un abogado o de un fiscal.
Pero volviendo al tema de los deepfakes, hay que explicar que se trata de documentos, con cualquier contenido, que simulan la realidad a menudo de una manera tan perfecta que parecen reales las voces y las imágenes que se oyen y ven. La gente en general los ha visto en bromas o memes que enseñan a personas famosas diciendo o haciendo cosas absurdas que nunca dirían ni harían, al menos en público. Y, además, ya no son tan difíciles de hacer. Las herramientas más comunes de inteligencia artificial generativa pueden producirlos, alguna particularmente bien, y además hay muchos programas en la web fácilmente localizables que, en manos de personas un poco más expertas, los hacen aún mejor.
Por el momento son un divertimento en la mayoría de los casos, pero se están empezando ya a ver en la realidad de los tribunales. Habitualmente han entrado mediante denuncias –con un futuro incierto– cuando han simulado que menores de edad tenían conductas sexuales explícitas que nunca tuvieron, con el consiguiente daño a su integridad psíquica. Pero empezaremos a ver de forma creciente documentos escritos que parecerán reales, pero que serán completamente falsos, o audios de conversaciones que nunca tuvieron lugar. O imágenes, en formato de vídeo o fotografía, que también parecerán reales, pero no lo serán. Cabe pensar que estas falsificaciones pueden detectarse con facilidad, y a menudo es así porque son de baja calidad o lo que enseñan es surrealista. Pero hay un dato importante que inquieta mucho: la enorme mayoría de las pruebas periciales para acreditar la existencia de un deepfake tienen una baja calidad científica que merma, además, al mismo ritmo que se mejoran las técnicas de producción de los deepfakes. Lo que hace que, actualmente, alrededor del 15-20% de los deepfakes no sean detectables. Un drama para el futuro de la prueba en los procesos judiciales, lo que obligará tarde o temprano a un replanteamiento global de la actividad de los tribunales. Siempre habrá deepfakes indetectables.
Esto es lo que ha hecho que, hace pocos días, el Elíseo declarara inicialmente que la mano que golpeó la cara de Macron dentro de un avión no era la de su mujer, sino que aquello no había ocurrido nunca porque se trataba de un deepfake –una versión que después tuvieron que corregir–. Ese mismo pensamiento debió de tener el juez del caso de Jenni Hermoso cuando explícitamente no aceptó un vídeo de TikTok de la imagen que todos vimos porque no estaba validado. Como decía, vendrán muchos más casos.
No sé si Santos Cerdán utilizará también ese argumento en su defensa. Al fin y al cabo, el audio viene de manos policiales que indudablemente tienen experiencia –limitada, sin embargo– en materia de deepfakes. Si se demostrara que todo ha sido resultado de una manipulación, y no de una grabación real del Sr. Koldo, el impacto sería brutal. No hay que descartar esta línea de defensa, cuyo éxito, si se utiliza, tardaremos mucho en saber. Sin embargo, hay que estar preparados para oír la palabra deepfake en muchos casos futuros. El mundo de ficción que puede salir de ello es por ahora inimaginable.