La calidad de los datos es clave para una inteligencia artificial ética

La gran complejidad de esta tecnología y el mercado global en que actúa hacen que la legislación sobre los datos se desarrolle muy poco a poco

3 min
Dialeg inteligencia artificial al Monasterio de Pedralbes

BarcelonaLos caminos de la tecnología son inescrutables. En los años cincuenta los más osados imaginaban que a principios del siglo XXI los robots humanoides e inteligentes serían omnipresentes o que nos desplazaríamos con coches voladores. Nadie pensó en una inteligencia artificial que recopilaría montones de datos y nos ofrecería anuncios irresistibles sin cesar o que iríamos arriba y abajo con patinetes eléctricos.

Lo que está claro es que los sistemas automáticos que imitan la inteligencia humana, que se empezaron a desarrollar en los mismos años cincuenta, gobiernan gran parte de nuestra actividad actual. “Desde las máquinas que limpian el suelo hasta los diagnósticos médicos”, ha especificado la experta Karina Gibert en la tercera sesión del ciclo de diálogos sobre inteligencia artificial organizado por el ARA y el Museo-Monasterio de Pedralbes. Gibert es catedrática y directora del centro Intelligent Data Science and Artificial Intelligence de la UPC, y en esta sesión ha conversado sobre las bases de esta tecnología con Daniel Gamper, profesor de filosofía moral y política de la Universitat Autònoma de Barcelona.

Según Gibert, las máquinas imitan la inteligencia humana “de dos maneras: imitando los procesos cognitivos humanos o buscando los mismos resultados de maneras diferentes”. Una de las maneras que tienen los sistemas automáticos de obtener los mismos resultados que el cerebro humano es utilizando grandes cantidades de datos. ¿Pero cómo se obtienen los datos? ¿Y de qué datos se trata? En este sentido, Gamper ha hecho la pregunta siguiente: “¿Tenemos que relacionarnos con la inteligencia artificial con confianza?” “Esta es la pregunta del millón”, responde Gibert. “La carrera en inteligencia artificial hace el papel que representó la carrera espacial el siglo pasado”, dice la experta. “Tenemos una tecnología que da respuesta a preguntas, que ha encontrado aplicaciones comerciales y que tiene aplicaciones muy interesantes, pero de la cual también se puede hacer un mal uso”, añade.

En este sentido, la Comisión Europea se ha posicionado explícitamente para que los sistemas de inteligencia artificial que se desarrollen en Europa estén centrados en la persona y el bien común. “El problema es que el negocio de la inteligencia artificial es intangible y viaja por el ciberespacio; todo el mundo se puede bajar una aplicación hecha en China o en Estados Unidos, que no tienen por qué respetar estas normas”, dice la catedrática. El problema, tal como ha matizado, es que Europa intenta mantener esta visión basada en la persona, pero tiene una capacidad de inversión muy inferior a China y Estados Unidos.

Tener una cultura digital

“Hace unos días me bajé una aplicación para gestionar las contraseñas otras aplicaciones”, ha explicado Gibert. “Pero cuando acepté las cookies, la aplicación me pidió acceso a las imágenes captadas con el móvil”. ¿Por qué? “Para hacer perfiles y generar datos sobre usuarios”, ha asegurado. Para gestionar estas situaciones, los expertos consideran que hacen falta tres tipos de actuaciones diferentes: conseguir que la ciudadanía tenga una cultura digital y en inteligencia artificial, que los futuros diseñadores de la tecnología apliquen criterios éticos y que se regule legalmente qué se puede hacer y qué no se puede hacer con estos sistemas.

Desde el punto de vista legal, recientemente se ha aprobado en España la llamada "ley rider", que obliga a las empresas a compartir con los trabajadores el criterio con el cual funciona el algoritmo que gestiona su trabajo. Este es un primer paso fruto de protestas y negociaciones, pero, según Gibert, “es muy complicado regular un ámbito tan complejo como la inteligencia artificial, y esto hace que el proceso sea muy lento”. Efectivamente, ha costado años que Europa emita unas recomendaciones sobre el uso de la inteligencia artificial, las cuales de momento no obligan a nadie a nada.

Gibert también ha puesto el ejemplo de Amazon, que usaba una aplicación para gestionar los miles de currículums que recibía. Este sistema se había entrenado con la historia de la empresa para que aprendiera qué personas habían funcionado mejor. Cuando lo empezaron a usar, los directivos de la compañía se dieron cuenta de que solo seleccionaba a hombres. Y esto era porque históricamente en Amazon habían trabajado sobre todo hombres. “¿Estaba mal este sistema?”, se ha preguntado Gibert. La respuesta es que no, que solo estaba perpetuando unas tendencias históricas. Amazon retiró la aplicación, pero este caso muestra que los datos son uno de los aspectos claves para garantizar un uso ético de los sistemas de inteligencia artificial. “Las muestras con las que se entrenan estos sistemas tienen que ser representativas del universo correspondiente”, concluye Gibert.

stats