La IA en Europa, entre Trump y China

La irrupción de la IA china DeepSeek ha desquiciado a las bolsas.
3 min
Regala este articulo
Dosier La guerra del chip Desplegar

Una de las muchas decisiones de impacto que Trump ha tomado al inicio de su presidencia es la revocación de una orden ejecutiva de Biden de 2023 que trataba de reducir los riesgos que la inteligencia artificial (IA) puede comportar por a los consumidores, trabajadores, economía, salud pública y seguridad nacional. La orden exigía que los desarrolladores de sistemas de IA con estos riesgos debían compartir los resultados de las pruebas de seguridad con el gobierno de EE.UU. Aunque era menos exigente, este texto legal tenía un espíritu similar al del reglamento de inteligencia artificial (EU AI Act), que entró en vigor en la Unión Europea en 2024.

Con este paso de EE. la UE queda como el único gran bloque económico comprometido con la IA responsable, al menos, de cara al ciudadano. Ciertamente, China ha estado regulando la IA desde 2021, pero su objetivo es proteger el estado frente a la IA, más que los ciudadanos. La IA se añade pues a otros ámbitos, como la protección de datos, el cambio climático o la calidad alimentaria, en los que la UE acaba ejerciendo una suerte de liderazgo político y moral, en gran parte por desistimiento de los demás bloques.

La pregunta es si la UE se encuentra en la mejor posición para encabezar la IA responsable. Como decía el presidente de PIMEC en una entrevista reciente, "mientras China fabrica y Estados Unidos innova, en Europa creamos normas". En el ámbito informático, esto es cierto. Por diversas razones, incluyendo la fragmentación del mercado y la escasez de recursos económicos privados para investigación y desarrollo –en gran parte resultado de la aversión al riesgo del inversor europeo–, nuestro nivel en tecnologías de la información (IA incluida) es sensiblemente inferior al de China y por supuesto al de EE.UU. Tal y como se ha visto con DeepSeek, si alguien puede competir con EE.UU. en IA es China, no Europa. Ser líderes en normativa no ayuda, porque los inversores prefieren apostar por jurisdicciones que tengan lo menos restricciones posible.

En este momento, seguramente la empresa europea más destacada en grandes modelos de lenguaje (LLMs) tipo ChatGPT es la francesa Mistral AI. El suyo es el único LLM europeo entre los 10 mejores de código abierto para tareas multilingües. Algunos analistas sugieren que este tipo de empresas deberían acudir a Suiza, que es un estado europeo no vinculado por los reglamentos de la UE. El hecho es que Mistral AI ha abierto una sede en Silicon Valley. El caso de Hugging Face, otra empresa global de IA, es aún más sangriento: fue fundada por tres emprendedores franceses directamente en Nueva York, aunque también tiene oficinas en París, Lyon, Brest, Berna, Londres y Miami.

Deslocalizarse fuera de la UE es ventajoso para las empresas europeas de IA para poder acercarse a las condiciones en las que operan sus competidores americanos y chinos. Por ejemplo, dejar de estar sujetos al reglamento general de protección de datos de la UE les permite entrenar grandes modelos de IA generativa (LLMs, modelos de difusión, etc.) con todos los datos disponibles. Por otra parte, implantarse en EE.UU. facilita la atracción de inversores, porque es un país acostumbrado al riesgo, con una gran cantidad de dinero disponible y un mercado homogéneo de más de 300 millones de personas.

¿Qué puede hacer la UE para conservar y aumentar las pocas empresas punteras que tiene en IA sin renunciar a sus principios éticos? De entrada, aclarar si los riesgos de privacidad de los modelos generativos son tan serios como se ha dicho. En mi grupo de investigación CRISAS de la URV hemos demostrado que estos riesgos tienen mucho que ver con el sobreaprendizaje, es decir, cuando el modelo memoriza los datos de entrenamiento (que pueden incluir datos personales) y es incapaz de generalizarlo, talmente un alumno de matemáticas que se limita a memorizar las soluciones de los problemas hechos en clase y es incapaz de hacer ninguno diferente. Cuanto mejor es un modelo, menos sobreaprende y menos riesgo de privacidad supone. En segundo lugar, si la UE acepta en su territorio el uso de modelos generativos entrenados en EE.UU., China o en otros lugares, debería permitir que sus empresas desarrollen, entrenen y exploten modelos en las mismas condiciones. Unos y otros deberían pasar los mismos controles y verificaciones, nada menos. Es una situación similar a la de los campesinos europeos cuando reclaman las mismas condiciones de producción que las de los países de los que la UE importa alimentos. Exigir más de los propios que de los extraños es, además de injusto, echarse piedras en el tejado.

Dosier La guerra del chip
Volver al índice
stats