¿Condenados o absueltos por la IA?
La ley ya prevé que los jueces puedan pedir un borrador de la sentencia a los algoritmos
BarcelonaLa inteligencia artificial (IA) ya nos acompaña en gestos cotidianos como conseguir indicaciones para llegar a sitio o manipular el móvil con un asistente de voz. ChatGPT no es la única herramienta que los estudiantes de secundaria utilizan como soporte para estudiar, y la IA ya se ha colado prácticamente en todos los sectores, también en la creación artística. Y en la justicia, ¿qué papel puede jugar? ¿La IA podrá redactar sentencias que absuelvan o condenen acusados? Consultadas por el ARA, tres voces expertas se debaten entre el empuje para agilizar procesos mecánicos en un sistema crónicamente colapsado y el riesgo de dejar las decisiones judiciales en manos de una IA.
Para la doctora en Informática Núria Castell, la tecnología que ya está desarrollada puede ayudar a la justicia a aliviar algunas tareas, como los procesos de gestión documental. Por ejemplo, para seleccionar jurisprudencia que tenga que ver con un caso concreto, pero también para generar documentos o formularios necesarios durante el procedimiento e incluso preparar un primer borrador de las preguntas para un interrogatorio. Castell también cree que para los jueces podrían ser útiles los sistemas de reconocimiento gestual para ayudar a detectar, por ejemplo, si un testigo o un acusado miente.
Con todo, el profesor de derecho procesal de la Universidad Pública de Navarra Manuel Richard comparte que esta tecnología puede ayudar en tareas repetitivas, pero descarta que pueda servir para contrastar la credibilidad de un testigo en causas donde se entrelazan cuestiones morales y jurídicas y es necesario "valorar los hechos, la emotividad, la sentimentalidad". "A veces, incluso debemos ir contra naturaleza y creer un testigo porque creemos que dice la verdad, y no creer 20 porque creemos que mienten. Tiene que ver con la apreciación, con la valoración humana", añade .
Una "propuesta" para resolver
En diciembre de 2023 se aprobó un real decreto de transformación del servicio público de justicia en España que, entre otros aspectos, aborda el uso la IA en actuaciones judiciales y define su intervención distinguiendo las actuaciones automatizadas (por ejemplo, paginar expedientes), las proactivas (como enviar notificaciones) y las asistidas. Estas últimas son las más controvertidas hasta ahora, y de momento no se han aplicado en juzgado alguno: en este caso, la IA puede presentar un borrador de una resolución o una sentencia, que el juez siempre deberá validar después.
Estas resoluciones siempre podrían revisarse después con un recurso, pero Richard ve el peligro de que, ante un caso complicado, o en un juzgado saturado de trabajo, los magistrados puedan preferir "hacer caso a la máquina y darle la culpa si hay un error" antes de que hacer la resolución desde cero. En cambio, Castell recuerda que el borrador que emita la IA "siempre debería entenderse como una propuesta", porque "la percepción que pueda tener el juez después de verlo en directo y tener toda la información sobre la mesa debe pasar por delante.
A la juez Isabel Giménez este extremo le parece "ciencia-ficción, teniendo en cuenta los déficits de la justicia" en cuanto a recursos. Ve con buenos ojos aprovechar la tecnología para automatizar trabajos mecánicos que podrían aliviar la carga de trabajo en los juzgados, incluso para resoluciones en las que no hay más margen que aplicar la norma que corresponda. En este sentido, recuerda la etapa cuando tenía sobre la mesa "cientos" de procedimientos por retrasos en aerolíneas. "Solo tenía que elegir el modelo y poner los nombres. Eso sí que podría haberlo hecho una máquina", valora.
Lo que no puede hacer una IA
En cambio, Giménez considera "peligroso" dejar que la IA decida una resolución judicial donde sea necesaria más interpretación y valorar pruebas. "La prueba la estaría valorando la IA, y yo desconozco el algoritmo", dice al exponer que desconfía de las resoluciones que pueda proponer esta tecnología sin saber con qué datos o posibles sesgos está diseñada. "Me preocupa mucho, cada resolución es un mundo. Yo también puedo tener prejuicios con algo, pero cuando tengo un prejuicio también tengo mucho cuidado de no caer", añade Giménez. A Richard le preocupa, de forma similar, que "la IA es un negocio ajeno a la ciencia": "Todos los test y pruebas son secreto empresarial y no son accesibles". La doctora en informática Núria Castell cree, ante estas desconfianzas, que "la explicabilidad de la IA es el gran reto" que afronta ahora esta tecnología. Es decir, que el propio sistema pueda explicar de forma comprensible para el usuario cómo ha llegado a la conclusión que propone y con qué datos.
Sin embargo, Castell aprecia una limitación a estas eventuales sentencias redactadas por la IA. Esta tecnología funciona a base de aprender lo que ya ha pasado. Por tanto, "difícilmente" podría proponer una sentencia pionera o que apueste por una forma diferente de resolver el caso, como la que dictó Giménez para prevenir un caso de violencia vicaria.
Esta semana, Richard, Giménez y Castell han coincidido en una mesa de debate sobre el uso de la IA en valoración de pruebas judiciales en el Colegio de la Abogacía de Barcelona (Icab). El procurador Jaume Aso, que presentó el debate, extrae como conclusión que "hay que robotizar la IA y humanizar la administración de justicia". Al término del encuentro, Giménez compartió la carta que escribió para explicar su resolución a la niña que alejó de su padre, que había maltratado a su madre, y al recordarlo resuelve: "Esto no lo hace una IA" .