Tecnología

¿Es posible una inteligencia artificial ética y responsable?

Los sesgos, la transparencia y los datos personales son clave para determinar el futuro de la IA

Ojo de inteligencia artificial.
29/11/2024
6 min

BarcelonaTodos y cada uno de los seres vivos que habitamos en la Tierra somos únicos e irrepetibles, al menos biológicamente hablando. Nuestra singularidad está codificada en un cóctel de millones de combinaciones de moléculas en nuestro ADN. sin embargo, si bien algunas diferencias se traducen en atributos o características diferentes, como el color del cabello o una mejor adaptación al frío, otros pueden predisponernos a sufrir enfermedades.

El problema es cómo discernir unas de otras, las que son beneficiosas o simplemente inocuas de aquellas que pueden ser perjudiciales. en los últimos años para leer nuestro código genético han permitido a los científicos identificar cada vez de forma más precisa estas variantes, poder secuenciar el genoma, leerlo, no implica entender qué quieren decir las mutaciones, ni tampoco ser capaces de interpretarlas para poder señalar aquellas que son las realmente importantes. de Barcelona, ​​Mafalda Dias y Jonathan Frazer. El algoritmo que han desarrollado, llamado EVE, permite escudriñar patrones de variación. genética en cientos de miles de especies animales no humanas para poder aprender cuáles sí son relevantes y hacer predicciones cuidadosas para los pacientes sobre las mutaciones que tienen. Y esto es crucial no sólo por ser mucho más precisos en el diagnóstico, sino también para poder realizar pronósticos más acertados, y también para poder escoger el tratamiento más adecuado para cada individuo. han generado, de redes neuronales basadas en un tipo sofisticado de aprendizaje máquina, ya está implementada en hospitales de Estados Unidos. Es un ejemplo, de hecho, de cómo la aplicación de tecnologías de inteligencia artificial puede hacer contribuciones primordiales en ciencia e investigación, y propiciar avances en el conocimiento, como ya pusieron de manifiesto los premios Nobel de este año en las categorías de química y física, que premiaron, precisamente, esta potentísima herramienta y avances realizados con ella.

Una herramienta con claroscuros

Emplear inteligencia artificial permite automatizar tareas repetitivas; analizar grandes volúmenes de datos con una velocidad y una precisión inigualables, y facilitar el descubrimiento de patrones y correlaciones que tardaríamos varias vidas humanas en encontrar. Ejemplos hay muchísimos en campos tan diversos como la biomedicina, la astronomía, la química, la física y las ciencias sociales, entre otros. Y ahora todas estas potencialidades también han saltado al dominio público.

“Hay un antes y un después en la IA a raíz de ChatGPT”, señala el investigador Icrea Alfonso Valencia, director del departamento de ciencias de la vida del Barcelona Supercomputing Center (BSC) y director del Instituto Nacional Español de Bioinformática (INB/Elixir-es). “Hoy en día vivimos en un pico entre las expectativas y las noticias sobre esta tecnología, que parece que estará en todas partes y ubicua en todos los ámbitos de la ciencia y la investigación”, dice este experto, que, sin embargo, precisa: “Vendrán tiempo menos optimistas y nos daremos cuenta de sus limitaciones, que no sabemos si son controlables o no”.

Y es que el uso de la IA, como apunta Valencia, también presenta retos y claroscuros, como cuestiones éticas y de privacidad relacionadas con el uso de los datos, así como la necesidad de garantizar la transparencia y el funcionamiento de los algoritmos. "La IA es una herramienta muy potente para conseguir avances sociales en muchos ámbitos", dice la ingeniera informática Àtia Cortés, del departamento de ciencias de la vida del Barcelona Supercomputing Center y miembro del Comité de Bioética de España, que trabaja en proyectos de vehículos autónomos y robots asistenciales. "Puede ayudar a potenciar las capacidades humanas y apoyar una mejor toma de decisiones", considera.

Ahora bien, puntualiza, el afán humano por avanzar, por conseguir nuevas metas y hacerlo rápido, sumado a la enorme competitividad entre empresas que trabajan con IA, a menudo conlleva “renuncias” o efectos secundarios indeseables. Para empezar, con respecto a la privacidad. Cortés pone un ejemplo: “Quiero diseñar coches autónomos con muchos sensores porque así hago un sistema más robusto que puede tomar decisiones con mayor rapidez y eficacia”, expone. Por otra parte, "esto propicia que se recolecte un montón de información privada de las personas dentro del coche que puede acabar siendo un perjuicio en temas de privacidad, por ejemplo de cara a ciberataques". Además, añade: “En el caso de las infraestructuras públicas que también captan estos datos, ¿qué ocurre con ellos? ¿Quién se las queda, quién las reutiliza y con qué fin?”.

La IA, a debate

Para reflexionar sobre los desafíos de las tecnologías de inteligencia artificial aplicadas al ámbito de la investigación, la Coordinadora Catalana de Fundaciones (CCF) –una entidad que representa a cerca de 800 fundaciones catalanas de ámbitos tan diversos como la salud, la educación y la investigación– organizó recientemente unas jornadas con el objetivo, en palabras de la presidenta, Eugenia Bieto, de “generar conocimiento y debate”, así como fomentar el contacto y la red entre expertos de diversos ámbitos. Asistieron un centenar de personas, la mayoría jefes y coordinadores de proyectos de investigación del ecosistema de investigación catalán, directores de fundaciones, responsables de innovación y desarrollo, y analistas de datos.

Desde la comisión de tecnología e investigación de la CCF se planteó organizar una jornada sobre el impacto de la IA en la investigación, dado que “se trata de una tecnología que ha tenido un impacto inmediato, profundo y transformador en el día a día de los investigadores”. Con este encuentro, desde la CCF se quería “dar respuesta a cuestiones clave [...], como por qué es capaz la IA, cómo puede ayudar a la hora de llevar a cabo un proyecto de investigación”, pero también “qué limitaciones e interrogantes plantea”.

Los datos son la clave

Los datos son el nuevo oro. Porque los algoritmos están entrenados con ellas y de su calidad depende la de los resultados de las herramientas de inteligencia artificial. "Los algoritmos hacen una representación de un modelo del mundo a partir de datos que son sesgados", señala el ingeniero informático Josep Maria Ganyet, profesor de la Universidad Pompeu Fabra experto en IA. "Si no corriges los sesgos, lo que generes también estará sesgado, es obvio", añade.

Cada vez que entramos en una red social, por ejemplo, en función de si somos hombre o mujer y de nuestra edad y de lo que el algoritmo haya podido recopilar a partir de los nuestros likes, nos mostrará lo que supuestamente nos interesa. A las mujeres de edad media, mayoritariamente cocina, crianza y belleza; a los hombres, culto en el cuerpo, deportes de riesgo, economía, vehículos. Lo mismo ocurre en las plataformas digitales audiovisuales.

Aunque en el caso de este tipo de contenidos el uso de datos de la IA puede parecer inofensivo o anecdótico, en ámbitos como el de diagnóstico y tratamientos médicos, de selección de personal o en juicios, donde se utilizan herramientas con IA, puede no serlo. "Si no se cuida que la muestra esté equilibrada, sin ningún tipo de discriminación de ningún grupo social, y que tenga en cuenta las brechas que hay en el mundo digital, donde todo el mundo no está representado igual, estas herramientas pueden llegar a ser peligrosas”, dice Ariadna Font, cofundadora y directora delstart-up Alinia.AI y creadora del área ética algorítmica de Twitter antes de que pasara a ser X. En este sentido, Font recuerda el caso de una campaña de contratación de personal de Amazon hecha con un sistema de reclutamiento basado en IA que “ tenía muchos sesgos contra las mujeres para roles técnicos": "Tuvieron que dejar de utilizar este sistema”, explica.

En investigación en el campo de la salud, recuerda Cortés, a pesar de los esfuerzos por corregir los sesgos, todavía existen y alimentan las herramientas de IA. Para empezar, porque hasta hace pocas décadas las mujeres estaban excluidas de los ensayos clínicos, y ya desde las fases preclínicas sólo se utilizaban modelos animales masculinos. Esto hizo que tanto los fármacos que se desarrollaban –con efectos secundarios indeseados o no eficaces en mujeres– como la detección de síntomas de enfermedades no fuera cuidadosa. Estos sesgos en investigación afectan siempre a los colectivos más minoritarios: étnicos, demográficos, por género o por estatus socioeconómico, coinciden los expertos consultados en este reportaje.

Más transparencia

Otro aspecto espinoso de la IA es el de la responsabilidad y la transparencia del algoritmo. Volviendo al área médica, cuando se desarrollan sistemas basados ​​en inteligencia artificial para diagnosticar una enfermedad con elevada precisión, entra en cuestionamiento el juicio del profesional. “Si la IA me dice que hay un 88% de probabilidades de que sea un tumor, pero yo como médico tengo dudas, qué debo hacer, no darle tratamiento y que tiempo después se demuestre que sí que era un cáncer ? ¿O darle por precaución, a pesar de los efectos secundarios perjudiciales para el paciente si no sufre ningún tumor?”, plantea Cortés poniéndose en la piel de un profesional de la salud.

Para esta experta en ética, el problema de fondo radica en la no transparencia de los algoritmos, que impide entender cómo están diseñados, cómo han sido alimentados y cómo funcionan. "Por eso -añade- es fundamental que estas herramientas vayan acompañadas de documentación comprensible para todo tipo de público, que explique el proceso que se ha seguido para llegar a aquellos resultados y también las limitaciones del sistema. Sólo así realmente pueden ser una herramienta de apoyo de las decisiones y permitir que los médicos tomen elecciones de la manera más informada posible”.

las personas, algo que no ha ocurrido en casos recientes, como evidenció el caso de las prestaciones sociales de personas en situación de vulnerabilidad extrema en Holanda, consideradas erróneamente como fraudes por un algoritmo del gobierno neerlandés. Y la historia se repite en juzgados. , bancos y hospitales cuando quien debe tomar decisiones relega la responsabilidad a las máquinas. personas, sino dar datos y herramientas para adoptar decisiones más rápido y de mayor calidad”, corrige Font, quien explica que para “un médico que debe mirar no sé cuántas radiografías lo que puede hacer la IA es filtrarlas y darlas se las cuatro que pueden ser más problemáticas para que primero se centre en ellas". "Pero la responsabilidad última siempre es de la persona", concluye.

Ganyet toma este argumento y va más allá: “En algunos ámbitos la toma de decisiones puede ser problemática, como en justicia, y las decisiones deben ser explicables por ley. Con la IA no puedes argumentar nada, debes hacer un acto de fe”. nuestra decisión en la máquina”. Además, añade que ya existen científicos trabajando en la explicabilidad de la IA generativa.

Al final, coinciden los expertos en ética e IA, se trata de crear algoritmos responsables teniendo en cuenta siempre en todas las fases de diseño los impactos sociales que tendrá esa tecnología. “Es necesario que apostemos por una IA responsable que se caracterice por la transparencia, la explicabilidad, la rendición de cuentas, la privacidad de los datos, y que la pedimos. Son los principios que debería aplicarse a estas herramientas para que estén alineadas con los valores humanos. Los sistemas de IA no tienen ética ni moral a menos que tú se los marcas”.

stats