Por qué es tan difícil regular la IA

3 min
Una sesión del Parlamento Europeo en Estrasburgo.

La Unión Europea se ha apresurado a regular la inteligencia artificial (IA) con la primera normativa en el mundo. El Parlamento Europeo aprobó el reglamento el pasado 13 de marzo. Se define a la IA como un software que puede "para un conjunto determinado de objetivos definidos por el ser humano, generar resultados como contenido, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan”.

La reciente eclosión de la IA y sus aplicaciones promete grandes mejoras de eficiencia y aumento de la productividad. Así ha ocurrido en el pasado con avances tecnológicos de gran alcance como internet o el teléfono inteligente. Su impacto, que no será inmediato, implicará reestructuraciones del sistema productivo que destruirán puestos de trabajo a la vez que generarán nuevos. Sin embargo, la IA afectará a la privacidad, los derechos del consumidor y la propiedad intelectual, y amplía las posibilidades de incrementar la desinformación y las manipulaciones. En efecto, se puede utilizar maliciosamente para cometer fraudes o fabricar “hechos alternativos” (dicho de otro modo, mentiras). También puede introducir sesgos o eliminarlos según haya sido entrenada. Tiene implicaciones en la política de competencia porque requiere grandes inversiones, capacidad de computación y acumulación de datos y talento para su desarrollo. Esto genera grandes economías de escala y tendencia a la concentración. No es casualidad que las grandes plataformas tecnológicas compitan fuertemente por ser sus líderes. La concentración de proveedores de algoritmos, como los de computación en la nube, puede generar un riesgo sistémico porque la quiebra de uno de ellos puede afectar a muchas empresas. Este problema puede ser particularmente grave en el sector bancario.

Hay razones para regularla, pero esto es mucho más difícil de hacer que de decir. En primer lugar, es problemático regular algo que no se entiende bien. La IA, y los grandes modelos de lenguaje (LLM) en particular, son opacos. Es decir, realizan predicciones y recomendaciones, detectando estructuras en los datos con los que se han entrenado, pero no pueden explicar el porqué de la predicción o recomendación. Un problema relacionado es cómo atribuir responsabilidades cuando un sistema de IA tiene un mal comportamiento. En segundo lugar, pueden sufrir alucinaciones, inventándose respuestas que suenan bien pero son falsas. En tercer lugar, la velocidad de su desarrollo hace que toda regulación tenga muchas posibilidades de quedarse obsoleta al día siguiente de su aprobación. Por último, la misma regulación influirá en el desarrollo de la IA y podría limitar la innovación. Esto sería particularmente grave en Europa, donde en materia digital tenemos mayor tendencia a regular que a hacer. Vamos mucho por detrás de EE.UU. y China.

El nuevo marco regulador de la UE adopta un enfoque basado en el grado de riesgo de aplicaciones. Desde las aplicaciones de riesgo mínimo, como los filtros de spam, que no estarán sujetos a obligaciones, hasta las de alto riesgo como los sistemas de IA, que pueden impactar en la seguridad de las personas o en derechos fundamentales . Estos sistemas tendrán que disponer de mecanismos de control de riesgos, supervisión humana, altos niveles de robustez y ciberseguridad, y presentar evaluaciones periódicas de impacto en la protección de datos y en los derechos fundamentales. En el extremo existen aplicaciones prohibidas como las que permitan la “puntuación social” o la identificación biométrica en lugares públicos (con algunas excepciones con autorización judicial). También deberá garantizarse que los usuarios sepan si interactúan con un chatbot. Los proveedores de modelos generales de IA (como ChatGPT-3.5 o 4) tendrán obligaciones adicionales en función de su capacidad computacional. Se crea la Oficina de la IA para supervisar el cumplimiento de la normativa (por ejemplo, en relación con los derechos de autor, cuestión polémica como muestra la demanda del New York Times a OpenAI). El gran reto de esta normativa estará en su implementación.

La regulación europea intenta navegar por los posibles conflictos entre privacidad y seguridad, por ejemplo con normas que impidan explícitamente el acceso de los proveedores a cierta información de los usuarios, o intentando no ahogar la innovación con una regulación demasiado intrusiva. Esta opción exime de la mayoría de obligaciones a los sistemas en proceso de investigación y desarrollo y permite la innovación experimental controlando los riesgos y proporcionando seguridad jurídica a las empresas sobre qué pueden y no pueden hacer. La propia Comisión Europea reconoce que el potencial innovador de la IA es difícil de prever. Es fundamental tener una normativa que se adapte a la evolución de la tecnología. Como decía el padre de la cibernética, Nobert Wiener, en 1960, para evitar las malas consecuencias del aprendizaje automático, nuestra comprensión de la máquina debe evolucionar con sus capacidades.

stats