Dígitos y cachivaches

Así son las fábricas de inteligencia artificial

La carrera global para construir las infraestructuras de la IA ha desatado inversiones astronómicas (y Cataluña también quiere jugar en ella)

15/05/2026

BarcelonaUn centro de datos convencional y una gigafábrica de inteligencia artificial (o "gigafactoría", el anglicismo de moda, adoptado por analogía del nombre que Tesla da a sus fábricas de automoción) comparten el mismo aspecto exterior: inmensas naves industriales rodeadas de sistemas de ventilación y subestaciones eléctricas. Pero por dentro son completamente diferentes. El primero es un almacén de bits: guarda datos y los sirve cuando se le piden. El segundo es una instalación de manufactura, pero en lugar de piezas de coche o galletas, lo que produce son respuestas generadas por inteligencia artificial (y el "cerebro" resultante de entrenar el algoritmo con millones de datos).

Además de conceptual, la diferencia también es eléctrica y térmica. En un centro de datos tradicional, cada rack, el armario metálico estándar lleno de servidores, consume entre 5 y 15 kilovatios. En una gigafábrica equipada con procesadores gráficos (GPU) de última generación, el mismo armario puede superar los 100 o 150 kilovatios. Una densidad energética tan extrema que no bastan los sistemas de refrigeración por aire: las gigafábricas recurren a la refrigeración líquida directa al chip (DLC) o a la inmersión de componentes en líquidos dieléctricos, un sistema que captura el calor con una eficiencia hasta 3.000 veces superior a la del aire.

Cargando
No hay anuncios

Se usan procesadores gráficos porque dibujar píxeles en pantalla es un proceso que exige trabajar muchos procesos en paralelo, y entrenar modelos de IA también funciona de esta manera no lineal. Las GPU, diseñadas para ejecutar muchas operaciones simultáneas, son la arquitectura que mejor se adapta. NVIDIA dio el salto decisivo al hacerlas programables y crear un ecosistema de software que las abrió a los investigadores de IA. La diferencia respecto a los videojuegos es la escala: los modelos actuales son mucho más grandes que cualquier textura gráfica, lo que ha disparado la demanda de memoria de alta velocidad y de redes de comunicación entre chips. El tránsito interno de una gigafábrica exige redes de bajísima latencia (el tiempo que tardan en reaccionar), para coordinar miles de GPU como una única unidad. Y a diferencia de los centros convencionales, que gestionan cargas variables, una gigafábrica en modo de entrenamiento mantiene una utilización del 100% durante semanas o meses, lo que implica una carga industrial constante para la red eléctrica.

Aprender y responder: dos fases con exigencias opuestas

El ciclo de vida de la IA tiene dos etapas con requisitos de infraestructura casi opuestos.

Cargando
No hay anuncios

La primera es el entrenamiento: la fase en la que un modelo aprende a partir de conjuntos de datos masivos, cientos de miles de millones de palabras, imágenes y códigos informáticos, mediante cálculos de fuerza bruta que requieren miles de GPU trabajando en paralelo durante semanas. Lo que importa aquí es el volumen de cálculo por unidad de tiempo, y el coste puede ser de cientos de millones de euros.

La segunda etapa, que es la que atienden las gigafábricas, es la inferencia: el momento en que el modelo ya entrenado responde las consultas de los usuarios en tiempo real. Aquí importa más la rapidez de respuesta que la potencia bruta. Aunque la inferencia es menos espectacular que el entrenamiento, es la que concentra el coste real a lo largo de la vida de un sistema: se estima que representa entre el 80 y el 90% del coste total de explotación de una plataforma de IA, por el volumen de peticiones que debe responder.

Cargando
No hay anuncios

Dos técnicas recientes amplían las capacidades de los modelos de IA. El RAG (Retrieval-Augmented Generation) permite que el modelo consulte bases de datos externas en tiempo real, y que se asegure información actualizada sin tener que reentrenarlo todo. Los agentes de IA, por su parte, son sistemas autónomos que gestionan procesos de varios pasos con una supervisión humana mínima: pueden planificar, buscar, redactar y enviar, en secuencia, sin que el usuario tenga que intervenir en cada paso.

Cataluña en el mapa de las infraestructuras globales

Hace una semana exploramos la posibilidad de ejecutar modelos de IA en local, en el ordenador de casa. Pero mientras a algunos usuarios les bastan modelos que caben en un portátil, los grandes actores de la industria construyen infraestructuras de una magnitud incomparable.

Cargando
No hay anuncios

Barcelona es uno de los nodos del mapa europeo. El Barcelona Supercomputing Center (BSC-CNS) tiene un contrato de 129 millones de euros para ampliar el MareNostrum 5 y convertirlo en una AI Factory europea, integrada en el programa EuroHPC JU, para poner capacidad de computación avanzada a disposición de pymes, empresas incipientes y grupos de investigación del continente.

Por otro lado, el Estado ha atraído inversiones privadas de los principales hiperescaladores norteamericanos. Amazon Web Services (AWS) ha ampliado a 33.700 millones de euros su plan en Aragón hasta 2035. Microsoft ha comprometido 2.000 millones de euros a corto plazo y prevé llegar a los 10.000 millones en la próxima década, también en Aragón. Oracle invertirá más de 1.000 millones de euros en una tercera región de nube en Madrid, dirigida a la soberanía de datos del sector financiero.

Cargando
No hay anuncios

Europa busca la soberanía tecnológica

La Unión Europea acelera para no quedarse atrás en la carrera de infraestructuras de IA. El programa EuroHPC JU ha previsto 19 AI Factories en todo el continente, con el objetivo de que al menos trece sean operativas antes de que acabe este año. Bruselas ha dotado con 20.000 millones de euros el fondo InvestAI, destinado a construir hasta cinco gigafábricas europeas, cada una con más de 100.000 procesadores de última generación. Además del MareNostrum 5 de Barcelona, se ubicarán cinco nuevos superordenadores para la IA en Finlandia, Alemania, Italia, Luxemburgo y Suecia.

Cargando
No hay anuncios

En este marco, España y Portugal han formalizado una candidatura conjunta para acoger una de estas gigafábricas. La sede principal sería Móra la Nova (Ribera d'Ebre), con una potencia prevista de 54 MW en una primera fase y 125 MW más en una segunda. A la candidatura se ha añadido como sede complementaria San Fernando de Henares (Madrid), donde ya hay centros de procesamiento que permitirían disponer inmediatamente de capacidad de computación mientras se construyen las instalaciones de Móra. La inversión conjunta estimada supera los 4.000 millones de euros vía consorcio público-privado liderado por Telefónica, que prevé tener una participación de entre el 10% y el 15% del capital.

Una carrera global

A pesar del esfuerzo público europeo, la magnitud de las iniciativas privadas norteamericanas es de otra escala. El proyecto Stargate, una alianza entre OpenAI, SoftBank y Oracle con la participación del fondo soberano de Abu Dabi, ha superado los 340.000 millones de euros de inversión comprometida y se acerca a los 7 gigavatios (GW) de capacidad planificada, con el objetivo de alcanzar los 425.000 millones de euros y 10 GW antes de finales de año. La instalación principal, en Abilene (Texas), ya funciona y prevé acoger 400.000 GPU Blackwell de NVIDIA. xAI, la empresa de Elon Musk, ha construido en Memphis, en solo 122 días, la gigafábrica Colossus, que ya está en servicio con 200.000 GPU y quiere llegar al millón.

Cargando
No hay anuncios

La rentabilidad: a largo plazo y si hay suficiente energía

Tanto capital, que superará globalmente los 700.000 millones de euros en 2026, genera dudas sobre la rentabilidad. Las perspectivas de beneficio existen, pero a un plazo mucho más largo que en la informática tradicional: mientras el coste del hardware convencional se recupera en unos diez meses, recuperar la inversión en infraestructura de IA puede tardar entre dos y cuatro años, debido a la complejidad de integrarla en los procesos de negocio.

Cargando
No hay anuncios

Fabricantes de componentes como Samsung o SK hynix han multiplicado sus beneficios por la demanda de memoria para la IA, mientras desabastecen el mercado de chips convencionales y hacen subir el precio de muchos dispositivos electrónicos de consumo, incluidos los teléfonos inteligentes.

El principal cuello de botella, sin embargo, no es tecnológico sino físico: la energía. Cerca del 40% de los proyectos previstos podrían sufrir demoras por falta de conexión a la red eléctrica o escasez de transformadores. Las gigafábricas de IA no solo transforman la industria tecnológica; están redibujando los mapas energéticos de los territorios que las acogen.