¿Es posible una IA feminista?
Expertas explican cómo se está regulando la inteligencia artificial y qué pasos hay que seguir para conseguir algoritmos éticos y comprometidos con la sociedad
BarcelonaQue partimos de una inteligencia artificial con algoritmos sesgados no es secreto para nadie. Se ha demostrado y se ha remarcado la peligrosidad de utilizar la IA sin regulación, sea para fines personales, o para su uso en una empresa o institución, o lo que es más alarmante, divulgar contenido en las redes. Alcanzar algoritmos éticos, alineados con los valores democráticos y que tengan perspectiva de género es un objetivo que, sobre todo en Europa, se está intentando alcanzar. Mujeres expertas en esta materia ponen luz ante una tecnología que avanza muy rápidamente, que parece difícil de controlar y en la que, como ocurre en el mundo de las big tech, faltan mujeres.
"Los equipos que hasta ahora han estado entrenando la IA han sido hombres blancos que llevan un sesgo incorporado. La falta de mujeres ha hecho que nadie lanzara la alerta para decir, por ejemplo, que aquí hay dos millones de fotos y son todas de señores", asegura Karina Gibert, profesora y catedrática del Intelligent Data Science and Artificial Intelligence (IDEAI) de la UPC y profesora de la Facultad de Informática de Barcelona. Gibert explica que una IA sesgada proviene "de una vulgar mala praxis", que combina la falta de mujeres en los procesos y la utilización de datos también sesgados para entrenar estos algoritmos.
¿Quién es más vulnerable a los sesgos de los algoritmos? Pues "los que no están sentados en la mesa", dice Tatiana Caldas Löttiger, abogada especializada en tecnología y regulación de la IA en todo el mundo. "Las mujeres, aunque estén en el mercado laboral, deben meterse en la conversación y cuestionar. Tenemos un rol importante". Caldas tiene 20 años de experiencia en legalidad internacional y es fundadora y CEO de International WomenX in Business for Ethical AI, una organización civil que busca construir un mundo donde la IA sea desarrollada y utilizada de forma ética.
La solución pasa también por regular los algoritmos y formar a las personas que entrenan esta tecnología, así como propiciar un cambio cultural en la sociedad. ¿Podemos crear una IA feminista? "Está claro que podemos. Lo que pasa es que si alguien la crea, la sociedad debe consumirla", afirma Karina Gibert.
Regular algoritmos: una pieza clave
Europa es quien está más avanzada en cuanto a la regulación de la IA: la EU AI Act, aprobada en 2024, es la primera ley en el mundo que regula de forma integral esta tecnología para conseguir que respete los derechos fundamentales. Aunque su integración no es aún completa (se ha ido aplazando y se espera que se haga en agosto de 2027), esta ley clasifica los sistemas de IA según su riesgo (prohibidos totalmente, de alto riesgo, de riesgo limitado o de riesgo mínimo).
"Si tú tienes una aplicación para recomendar libros, seguramente no tendrá ningún riesgo, pero si tienes una aplicación que da consejos a médicos o hace diagnósticos, esto sería de riesgo alto y debería pasar un proceso de validación para asegurar que se cumplen ciertos requisitos de seguridad y unos mínimos éticos", explica Caroline König'a, ingeniero Data Science and Artificial Intelligence de la UPC.
"Ahora mismo, estamos en un momento de impasse, de despliegue de la ley. Todavía podemos tener una IA legal que no sea completamente ética", deja claro Gibert, que también es decana del Colegio Oficial de Ingeniería Informática de Catalunya.
¿Qué puede ocurrir si una empresa utiliza una IA no regulada? Por ejemplo, a la hora de contratar a alguien, los algoritmos pueden discriminar porque utilizan datos sesgados. Sin embargo, con tecnología entrenada, la cosa cambia. Por ejemplo, en Inglaterra, varias aseguradoras dejaron de vender servicios a mujeres divorciadas porque se demostró que estaban en estado de vulnerabilidad y no tenían la capacidad económica para hacerle frente. Antes, bancos y aseguradoras vendían tarjetas de crédito o seguros a todos los clientes sin importar su estado económico, con IA regulada pasaron a tener la obligación ética de no hacerlo.
Ahora bien, lo que también se pone sobre la mesa es hasta qué punto la regulación puede estar al día: la tecnología avanza demasiado rápido para tener una normativa actualizada, y requiere muchos esfuerzos que conllevan tiempo. Caldas lo resume muy bien: "Con la IA generativa, se están generando daños que ni siquiera se consideraban. ¿Quién lo analiza? ¿Quién te dice que es de alto o bajo riesgo? ¿No hay tiempo para que el regulador o quien hace las leyes haga una normativa al respecto". "La IA generativa, como ChatGPT, no se considerará de alto riesgo, pero tendrá que cumplir requisitos de transparencia y con la legislación europea de derechos de autor", aseguraba hace un tiempo el Parlamento Europeo. Ahora, ya se ha demostrado que los chatbots son una herramienta peligrosa, pero no así era en un principio, no hasta que se ha visto que jugaba en contra de los más jóvenes y de las mujeres, en especial.
Un caso práctico
"Ahora miramos cosas que quizás hace cuatro años no hubiéramos mirado. Al principio, el objetivo principal era desarrollar un modelo lo más preciso posible, y no prestabas atención a si era discriminatorio. Porque no era obligatorio". Caroline König se dedica a la investigación y trabaja en un proyecto biomédico que está considerado de alto riesgo por la legislación europea de la IA.
En concreto, la investigadora lidera el desarrollo, por parte de la UPC, de una plataforma predictiva basada en IA de medicina personalizada llamada Permepsy. Este proyecto, coordinado por el Parque Sanitario San Juan de Dios, tiene como objetivo establecer un enfoque personalizado para el tratamiento psicológico de la psicosis. El hecho de que el prototipo se considere de alto riesgo (puede tener un impacto directo en las personas) ha hecho que tengan que cumplir los requisitos legales y poner el ojo en el que la plataforma no sea discriminatoria. Además, no puede compartirse libremente hasta que no esté validada como segura según la normativa vigente.
Lo que falta: un cambio en nuestra relación con la IA
Ahora bien, regular no es lo único que debe hacerse. Hay un trabajo más tedioso y complicado, que es cambiar la mentalidad social y educar (especialmente a los más jóvenes) en los usos de la IA. Sólo así podremos evitar que la tecnología tenga una vertiente machista. Como otras expertas, Tatiana Caldas coincide en que la única forma es la educación y generar cultura de la IA. "Hay que entender que fotos tuyas pueden ser publicadas en internet y pueden hacerte deepfakes de imágenes explícitas. Eso se debe explicar a los adolescentes", asegura. Karina Gibert coincide: "Debemos elevar el estado de conciencia de todos los que hacen IA, los que la inventan, los que la compran, los que la venden, los que la utilizan y los que la consumen", y añade: "Debemos volver a un sistema educativo que valore el impacto. En la escuela nadie lo enseña".
¿Hay alternativa a la IA? La respuesta la mujer Caldas: seguramente no. "La IA no se va a ninguna parte. Es como quien no sabe utilizar un correo electrónico. Hay que ver cómo una herramienta que ha llegado para quedarse, que nos facilitará la vida y nos hará más eficientes, y se debe aprender a utilizar de manera responsable", avisa. Es una herramienta muy poderosa, pero es necesario que nos hagamos nuestra la gobernanza de la IA.