Por un papel clave ético y tecnológico en la IA

2 min
Web de OpenAI sobre ChatGPT.

Que en cualquier momento se pueda saber quién es, con nombres y apellidos, todo el mundo que camina por el paseo de Gràcia o la Rambla de Barcelona puede parecer propio de una novela de ciencia ficción distópica digna de George Orwell o Manuel de Pedrolo, pero no está tan lejos de la realidad. De hecho, la posibilidad de que esto pueda ocurrir es una de las discrepancias clave en la regulación de los sistemas de inteligencia artificial que negocian estos días el Consejo de la UE (formado por los estados miembros) y el Parlamento Europeo. Permitir la identificación biométrica remota en tiempo real en el espacio público puede servir para prevenir el terrorismo –un problema que en Barcelona y en otras muchas ciudades europeas conocen bien–, pero también es muy fácil que sea peligroso. Por eso la Eurocámara pretendía clasificar estos sistemas de "alto riesgo" y someterlos a un control estricto.

Los ciudadanos deben tener derecho a mantener su intimidad, es un derecho fundamental. Debemos poder caminar por la calle sin que se sepa en todo momento dónde estamos exactamente. Y, por tanto, este tipo de sistemas sólo deberían poder permitirse bajo una estricta regulación. Y todo ello sin tener en cuenta otros sistemas que van aún más allá, como los que pretenden identificar emociones o predecir la posibilidad de que alguien delinca, que pueden caer fácilmente en sesgos que, directamente, vulneren los derechos humanos. No olvidemos que los algoritmos los alimentamos con datos generados por la sociedad y, por tanto, cargados con nuestro racismo, machismo y clasismo.

Por eso la regulación europea sobre la inteligencia artificial que se está discutiendo estos días, por mucho que pueda parecer que nos queda lejos, es más importante de lo que parece. Y al mismo tiempo nos conviene que no sea más estricta de la cuenta. Hay muy pocas empresas en el mundo con suficiente capacidad de cálculo para crear grandes modelos de lenguaje como los que utilizan ChatGPT, de OpenAI, y Bard o Gemini, de Google. Y todas están en Estados Unidos o en China, tal y como recordaba el catedrático de ingeniería informática de la Universidad Rovira y Virgili Josep Domingo-Ferrer en octubre, en un acto organizado por este diario y el Institut d'Estudis Catalans.

Por tanto, ahora mismo el impulso europeo para regular la inteligencia artificial generativa puede tener consecuencias, especialmente, para tecnologías de fuera de la Unión o bien que, siendo europeas, se fundamenta en modelos extraeuropeos. Pero también puede coartar o impulsar, dependiendo de cómo se redacte, la aparición de aventuras tecnológicas en la UE en este campo. Europa no debería renunciar a tener un papel clave en una de las tecnologías más disruptivas de la actualidad, que marcará nuestro futuro más cercano. Por el contrario, las instituciones deberían empujar para conseguir un papel de liderazgo tecnológico, pero también ético, en el desarrollo de estas tecnologías. Porque la inteligencia artificial, o nos la hacemos, o nos la harán. Y entonces sólo nos va a quedar reaccionar.

stats