¿La inteligencia artificial (IA) tiene sesgos? Sí, son los sesgos de la inteligencia humana. La IA se basa en los datos que hemos generado y generamos los humanos y, por tanto, son conocidos los sesgos de género, edad o etnicidad.
¿La IA generativa puede perpetuar los sesgos? Sí, y se ha demostrado. Como apunte, un artículo científico evaluó los sesgos de género en la atención sanitaria experimentando con el Chat GPT-4. El estudio puso de manifiesto la tendencia del GPT-4 a reproducir estereotipos étnicos y de género en las recomendaciones generadas una vez que le introducían preguntas con casos clínicos estandarizados. En el estudio se muestra, por ejemplo, cómo la IA prioriza el trastorno de pánico para las mujeres en el diagnóstico diferencial de un caso de dificultad respiratoria por embolia pulmonar.
¿La IA puede superar estos sesgos? Sí, si se entrenan los modelos adecuadamente y de forma colaborativa y diversa. Hay que experimentar para detectarlos y es necesaria transparencia para conocer qué datos –y de dónde provienen– se han utilizado para entrenar cada modelo de IA. Ayudaría a que hubiera más datos disponibles abiertos y de calidad.
¿Qué potencial tiene la IA para detectar sesgos de género en salud? Por un lado, se ha demostrado científicamente que existen diferencias de género en la atención a la salud en casos, por ejemplo, de enfermedad cardiovascular. Por otro lado, la IA tiene la capacidad de estructurar grandes cantidades de datos no estructuradas y de analizar una gran cantidad de datos estructurados (imagen, vídeo, texto o voz) para calcular predicciones o clasificaciones. Por tanto, la IA se puede aplicar para analizar grandes cantidades de datos sanitarios y descubrir si existen diferencias de atención sanitaria por razón de género, cómo se manifiestan y cuáles son sus consecuencias.
¿De qué otra forma la IA puede mitigar el sesgo de género en salud? Poniéndola al servicio de la investigación científica, como por ejemplo para la endometriosis, un trastorno que afecta a muchas mujeres y que produce un dolor bastante insoportable (desde hace demasiado tiempo) que todavía no tiene tratamiento eficaz, entre otras razones porque se ' desconoce la causa. Al estudiar muchos genes, más de 15.000, que podrían explicar su origen, un estudio utilizó algoritmos de IA para clasificarlos. Los genes mejor clasificados podrían servir como biomarcadores prometedores para el diagnóstico y ser posibles dianas terapéuticas para la endometriosis.
¿Qué hacer para evitar que la IA perpetúe el sesgo de género? Dar por supuesto que existe y exigir una evaluación específica del sesgo de género antes de que se implemente una herramienta con IA, así como exigir llevar a cabo estrategias de mitigación de este sesgo que consideren la transparencia en la fuente de datos, el entrenamiento con datos que sean diversos y contextualizados, además de otras medidas. La colaboración entre científicos de datos, desarrolladores y expertos en el análisis de género es crucial. Hagamos que sea la propia IA, con perspectiva de sexo y género, que trabaje por la equidad humana.