8-M Día Internacional de las Mujeres

Los algoritmos también son machistas: así amplifican la discriminación de las mujeres

Los sistemas que se encuentran en la base de los navegadores, de las redes sociales y de todas las aplicaciones reproducen y amplifican los sesgos de género de la sociedad ofreciendo una mirada al mundo muy desigual

Los algoritmos son un reflejo de la sociedad
6 min

Barcelona¿Sabes que los algoritmos deciden qué publicidad vemos en las redes? Parece algo sin importancia, pero no es así. "Si eres un joven en edad de decidir un grado universitario, lo más probable es que si eres un chico las redes te muestren grados de ingeniería e informática, y si eres chica de educación, enfermería y cuidados", dice Liliana Arroyo Moliner, doctora en sociología y directora de Chair for Socially Responsible Digital Innovation. Milagros Sainz, investigadora y profesora de la UOC, explica que la popular aplicación Google Maps "utiliza como medida para calcular las distancias a pie los pasos de un hombre y esto hace que en muchas ocasiones las mujeres o las personas con problemas de movilidad tarden más". También hay discriminación a la hora de buscar trabajo, en temas de salud y con los algoritmos que se utilizan en entidades bancarias para decidir si se concede o no un préstamo porque los modelos matemáticos de los algoritmos se aplican en campos muy diferentes y hay muchas decisiones que se toman teniendo en cuenta.

Una investigación del 2025 de la que se hizo eco el diario The Times sobre LinkedIn hizo una prueba en esta red con idénticas publicaciones hechas por hombres y mujeres. El resultado fue que los posts de mujeres llegaban a sólo un 0,6% de los seguidores, mientras que los de hombres podían superar el 50%. Otro caso muy citado es el de los procesos de selección. El 65% de las empresas utilizan ya la IA durante el proceso de selección de personal. En el 2018 la alerta saltó cuando se supo que el algoritmo que hacía la selección de personal en Amazon descartaba los currículos que tenían características que el algoritmo interpretaba como femeninas. "El problema fue que los datos que se le dieron para entrenarlo eran mayoritariamente de hombres y el algoritmo va aprender que los candidatos ideales eran varones", señala Ana Freire, ingeniera, doctora en informática y profesora de la UPF Barcelona School of Management (UPF-BSM).

Un estudio del University College London y la Universidad de Kent hecho el año pasado ponía énfasis en cómo los algoritmos de las redes sociales amplifican los contenidos misóginos, sobre todo entre los usuarios más jóvenes, especialmente en TikTok.

Las aplicaciones de reconocimiento de imagen o voz también identifican y clasifican mejor las caras de los hombres blancos, "porque la mayor parte de los equipos que entrenan la tecnología son hombres blancos", dice Freire. Y el análisis de audio tiene problemas con reconocer las voces más agudas, lo que afecta principalmente a las mujeres cuando interactúan.

Estos son sólo algunos ejemplos prácticos de los sesgos de género en los algoritmos de internet y la inteligencia artificial (IA).

Unos sesgos históricos

Cada avance científico y tecnológico que se ha realizado a lo largo de la historia de la humanidad ha ido acompañado no sólo de sorpresa, polémicas y debates, sino también de la presencia de sesgos de género. "A lo largo de la historia de la ciencia y la tecnología las mujeres han sido invisibilizadas en muchos aspectos y ahora está ocurriendo lo mismo", explica Nadia Alonso, profesora e investigadora del departamento de comunicación audiovisual, documentación e historia del arte de la Universidad Politécnica de Valencia, que destaca que los sesgos de género que existen en los algoritmos que hacen funcionar desde los buscadores más de inteligencia artificial "son un reflejo de los prejuicios que existen en la sociedad".

Los algoritmos no son neutrales porque aprenden del mundo real y el mundo real es desigual. Cuando un sistema de inteligencia artificial entrena con datos, patrones y decisiones humanas previas, puede reproducir –e incluso amplificar– los estereotipos y las discriminaciones existentes, como puede ser la infrarepresentación de las mujeres en muchos ámbitos. "Lo que hacen los algoritmos es reproducir los sesgos existentes y amplificarlos", señala Arroyo Moliner.

Para que la IA funcione debe alimentarse con datos, siendo estos datos los que están sesgados. "La IA no genera sesgos sino que perpetúa los sesgos de los datos que se generan en nuestra sociedad; somos nosotros el sujeto de creación de estos sesgos. Los algoritmos aprenden cómo podría hacerlo un niño pequeño que crece y de manera natural adquiere estos sesgos", añade Ana Freire. Y no sólo los datos de entrenamiento, también las interacciones entre usuarios, las decisiones de diseño y el feedback humano que se obtiene a través de las respuestas que damos contribuyen a perpetuar estas desigualdades.

Ana Albalat-Mascarell, profesora de lingüística aplicada también de la Politécnica de Valencia, explica que "los algoritmos recopilan datos de un contexto donde todo lo femenino se percibe como inferior al masculino, por culpa de los prejuicios existentes, y entonces categorizan lo femenino a un nivel inferior". Que el algoritmo no es neutral sorprende a mucha gente, porque al estar basado en modelos matemáticos tiene cierta presunción de objetividad. La científica de datos Cathy O'Neil, autora del libro Weapons of math destruction, es especialista en esta cuestión y ha explicado en varias ocasiones cómo los algoritmos matemáticos no son neutrales y pueden ser manipulados por sesgos –género, origen, educación, clase social...– y esto acaba teniendo un impacto en nuestras vidas. "Lo que piense que los sesgos de los algoritmos no le afectan está muy equivocado. Esto afecta a todo el mundo y es muy importante ser conscientes de ello", alerta Alonso.

Más mujeres en los equipos creativos

Para corregir estos sesgos –ya sean de género, edad, origen étnico o clase– es necesario un esfuerzo colectivo. Liliana Arroyo propone espacios de cocreación de la tecnología, "y no una sola empresa que la diseñe".

Ana Freire aporta una brizna de esperanza, ya que asegura que la tecnología tiene herramientas para contrarrestar estos sesgos. "Los humanos estamos alimentando la tecnología, y si somos conscientes de estos sesgos podemos corregirlos", dice. Pero para ello es necesario que haya más mujeres en los equipos que la diseñen, validen el entrenamiento de datos y aporten una mirada crítica a lo largo de todo el proceso. Pero no es suficiente. También es necesario que los equipos sean diversos –en género, pero también en edad, origen, formación y experiencia– e interdisciplinares, porque como dice Meritxell Beltrán, experta en el impacto de los algoritmos en la igualdad de género y profesora de los estudios de economía y empresa de la UOC, "la tecnología será neutra si trabajamos para que lo sea".

Freire también propone utilizar algoritmos "transparentes", aquellos que nos dejan ver cómo toman las decisiones. "Son algoritmos más sencillos pero que permiten ver el proceso de razonamiento del algoritmo para tomar una decisión o contratar a una persona", explica Freire. Y una tercera medida para minimizar estos sesgos es que haya un experto que revise el algoritmo. "Si hay un colectivo infrarrepresentado, debe detectarse y garantizarse que esté representado en la decisión final", para evitar casos como el de los algoritmos para conceder créditos bancarios, por ejemplo, que ofrecían condiciones menos ventajosas para las mujeres, ya que usaban datos históricos que no son representativos actualmente.

¿Y qué podemos hacer nosotros?

Como usuarios también somos responsables. Es necesaria alfabetización digital para tener destreza en el uso de estas herramientas pero, sobre todo, capacitación digital crítica: "Para entender lo que uso, qué modelos de negocio hay detrás y qué tipo de imaginario social me está mostrando ese resultado", apunta Liliana Arroyo Moliner.

"Debemos hacer pedagogía con la sociedad en general", alerta Sainz. "Debemos ponernos las pilas y saber que desde el momento en que abrimos un dispositivo o una herramienta de IA eso puede condicionar nuestra manera de pensar y actuar. Y no debemos fiarnos de lo primero que nos ofrezca, debemos contrastarlo y, si es necesario, corregirlo", añade. Alonso y Albalat-Mascarell instan a educar a las generaciones futuras: "Sobre todo la generación alfa, que ya no entiende el mundo sin tecnología, y debe aprender a utilizar esta tecnología y entenderla. Hay que acabar con los sesgos de todo tipo porque si no tendrán visiones erróneas de la realidad". Liliana Arroyo hace una propuesta que va más allá: que los algoritmos tengan el nombre de quienes los crean porque así quizás no olvidaríamos que los hacen personas. Porque al final no dejan de ser un producto de los humanos, "con sus defectos y virtudes".

Las redes, una forma de entender el mundo

Nadia Alonso y Ana Albalat-Mascarell ponen el foco en las redes sociales y sus algoritmos, "que dominan el mundo". Estas expertas alertan de que "la mayor parte de la gente, sobre todo los más jóvenes, se informa a través de las redes, que modulan la forma en que vemos el mundo, cómo lo entendemos y cómo nos formamos nuestra idea de cómo es, pero estas redes están basadas en algoritmos que reproducen estereotipos y desigualdades sexistas, y por tanto se puede concluir que mucha gente termina.

La recomendación de contenidos en las redes también está sesgado: "Está muy diferenciado el contenido que reciben hombres y lo que reciben mujeres e incluso la publicidad que les llega", apunta Ana Freire, quien añade que los algoritmos buscan personalizar el contenido y segmentan por grupos de población.

Es necesario, por tanto, ser conscientes de todas estas premisas a la hora de abrir cualquier red social y adentrarnos en su contenido. Nada de lo que vemos nos ha salido por azar y la interpretación que hacemos de la realidad estará totalmente condicionada por estos algoritmos, mayoritariamente sesgados y desiguales.

stats