Dígitos y Andróminas

La ley europea de IA: demasiado inconcreta para tantos escollos

El texto aprobado por el Parlamento Europeo necesitará establecer jurisprudencia y ver cómo se concretan los derechos de autor o la privacidad

5 min
ChatGPT es una de las múltiples herramientas que ofrece la inteligencia artificial.

BarcelonaEl Parlamento Europeo aprobó el miércoles, en la sede de Estrasburgo y por amplia mayoría, el reglamento sobre inteligencia artificial (AI Act) que la Comisión, el Consejo y el propio Parlamento consensuaron el 8 de diciembre en una sesión maratoniana de 38 horas, en la que se acordó hasta el último detalle para contentar a todo el mundo sin convencer a nadie del todo.

Ahora sólo queda que los Estados miembros den el visto bueno. Esto debería ser un simple trámite, porque sus representantes ya lo aprobaron el mes pasado, pero nunca se sabe. En cualquier caso, una vez totalmente aprobada, la AI Act entrará en vigor 20 días después de ser publicada en el diario oficial –hacia el mes de mayo– y comenzará su implantación gradual, que debería ser total en 2026. ~BK_SALTO_LINEA ~ Thierry Breton, comisario europeo del Mercado Interior y principal artífice de la nueva ley, asegura que esta ley convierte a Europa en el “regulador global de una IA fiable” y favorecerá una “estrategia europea de la IA; es decir, una IA en la que se pueda confiar, que respete los valores y normas europeas y en la que confíen a los ciudadanos y las empresas de todo el mundo”. Se espera una implantación: al tratarse de un reglamento y no de una directiva, no será necesario transponerlo en cada uno de los Estados miembros.

Cabe decir que el documento final, pese a ocupar 460 páginas, no concreta los aspectos más delicados de la normativa. Por tanto, en los próximos años se tendrá que recurrir a jurisprudencia caso por caso. Por ejemplo, en la tan debatida regulación de los sistemas de identificación biométrica en tiempo real –los mismos que las autoridades chinas utilizan a diestro y siniestro en su país–, el reglamento era inicialmente muy restrictivo, pero la versión final contempla varias excepciones, siempre bajo autorización judicial. Además, en casos de urgencia convenientemente justificados, podrá utilizarse sin inscribirse en las bases de datos de la Unión Europea, aunque después deberá notificarse su uso a la Comisión. Los expertos ya han alertado de que, con tantas ambigüedades, excepciones e inconcreciones, la ley será muy laxa.

No dice cómo cumplir los derechos de autor

La AI Act, que se acompaña con trece directivas y dos reglamentos de apoyo, repite una y otra vez que se protegerán los derechos de autor, pero no concreta cómo se hará. El tema se deja por la Oficina de la IA, que se encargará del cumplimiento de la normativa. La concreción de este organismo debería servir, dice Breton, "como centro de excelencia mundial en IA". Cabe recordar que todas las grandes empresas y plataformas que promocionan la IA generativa se han manifestado de acuerdo con que es necesario regular y proteger los derechos de autor, pero sin ir más allá de las grandes declaraciones de intenciones y las buenas palabras. Mientras, el pragmatismo comercial se va imponiendo: después de que The New York Times demandara OpenAI por haber entrenado sin permiso ChatGPT con sus artículos, la firma ya ha suscrito acuerdos con Prisa, Le Monde, Associated Press y Axel Springer para disponer de su contenido, al igual que Google acaba de hacer con Reddit.

Sin embargo, el reglamento ahora aprobado es un paso muy importante, y no únicamente por el conjunto de la Unión Europea sino por todo el mundo. Ya se vio con la directiva de los mercados digitales, la DMA, que el 7 de abril entrará finalmente en vigor: Apple era muy reacia a abrir su App Store y dejar que los usuarios descargaran las aplicaciones directamente de los desarrolladores; pero a medida que llega la fecha de entrada en vigor, parece que la empresa pasará por el aro y hará muchas concesiones que no quería en modo alguno. Se prevé que con la ley europea del IA sucederá lo mismo: que todo el mundo acepte el espíritu y la letra de la normativa, aunque no sea de un día para otro.

Un reto y una oportunidad

La ley empezó a debatirse en 2021, antes del surgimiento de OpenAI y otras plataformas de IA generativa. Al principio se quería muy restrictiva, porque se veía a la IA como una gran amenaza. En los últimos meses, sobre todo desde que EEUU ha vuelto a la senda del crecimiento, gracias en parte a la IA y la potencia de sus empresas del ramo, no se ve tanto como una amenaza sino como una gran oportunidad de que Europa vuelva a crecer . Esto sólo ocurrirá si se destinan inversiones masivas de recursos públicos y privados, si se promociona el talento y si se educa a los ciudadanos para aprovechar las ventajas de la IA. De una u otra forma, ya se han comprometido el presidente francés Emmanuel Macron y los primeros ministros español Pedro Sánchez y la italiana Giorgia Meloni. Cabe decir que la mayoría de estos movimientos exudan una tendencia hacia grandes modelos de IA vinculados a un contexto estatal, que no acaba de casar con las buenas intenciones paneuropeas.

También cabe notar que incluso las grandes tecnológicas no parecen tener del todo bajo control sus creaciones: la plataforma Gemini de Google se ha pasado de corrección política mostrando como afroamericanos las imágenes sintéticas de los padres fundadores de EE.UU., que no podían ser más blancos. Un grupo de investigación ha sorteado las protecciones de los chatbots más populares –entrenados para no responder cuando se les piden instrucciones para construir una bomba– utilizando en la petición una simple imagen ASCII de la palabra bomba. Y en un año en que la mitad de la población mundial estará convocada a votar, existe un justificado pánico por el alcance de la manipulación de los ciudadanos utilizando la IA generativa.

Sin embargo, se observa un cambio de opinión sobre la IA por parte de los poderes públicos, incluso de los más conservadores y de extrema derecha, pero también de los liberales y las grandes empresas. Del miedo casi enfermizo a la destrucción de millones de puestos de trabajo ya la toma del poder por parte de los robots se ha pasado a valorar positivamente que los algoritmos cubran puestos de trabajo que nadie quiere, ayuden a unas poblaciones cada vez más envejecidas, y hagan más provechosa y eficiente la investigación.

Equilibrio difícil

El AI Act se aplicará en Europa, pero nadie duda de que tendrá un alcance mundial: ninguna empresa de fuera querrá quedarse al margen del mercado europeo, con 450 millones de personas. EEUU, Japón e incluso China prepara también leyes restrictivas para el uso de la IA en sus fronteras. La discusión ahora no es si es necesario regular la IA –está claro que sí– sino la forma de hacerlo sin coartar la innovación y promoviendo la inversión tecnológica y el respeto a derechos fundamentales como la intimidad y la privacidad.

Este difícil equilibrio es el que Europa trata de obtener. Para muchos se ha logrado la mejor ley posible, pese a las carencias y excepciones. Sin embargo, el riesgo principal es que se consiga frenar un poco la invasión indiscriminada de las grandes tecnológicas americanas, sin que la tecnología propiamente europea despegue. La situación de las operadoras de telecomunicaciones, en grave peligro financiero y muy dependientes de las plataformas en la nube americanas, es motivo de reflexión porque el desarrollo de la IA en Europa tiene muchos puntos de contacto con las telecomunicaciones.

Más que ninguna otra, la IA es una herramienta de doble filo. Si se usa bien y se sabe controlar, puede beneficiar a todo el mundo; de lo contrario, puede abocar al desastre. Así se desprende de la mayoría de los informes sobre el tema. Europa confía en que la Oficina de la IA, que velará por el cumplimiento de la normativa ahora aprobada, sabrá encontrar el equilibrio justo.

stats