Amazon contra Nvidia: la carrera por los chips de inteligencia artificial acelera
La compañía fundada por Jeff Bezos desarrolla sus propios modelos para reducir su dependencia de la competencia
BarcelonaLa carrera entre grandes gigantes tecnológicos por los chips de inteligencia artificial (IA) suma un nuevo competidor. Amazon está listo para lanzar sus nuevos modelos para sacar rendimiento de sus inversiones multimillonarias en semiconductores y reducir su dependencia del líder del mercado, Nvidia. Según explica el Financial Times, los ejecutivos de la división de informática en la nube de Amazon están incrementando el gasto en esta tecnología con la esperanza de aumentar la eficiencia de sus centros de datos para reducir costes.
Esta misión se ha encargado a Annapurna Labs, una empresa de chips con sede en Austin (Texas) que Amazon compró a principios del 2015 por 350 millones de dólares. El objetivo es competir directamente con Nvidia, una de las empresas más valiosas del mundo gracias a su dominio del mercado de procesadores de IA. Compañías como Anthropic (el rival de OpenAI, que ha logrado 4.000 millones de dólares de financiación de Amazon), Databricks, Deutsche Telekom y Ricoh ya están utilizando los nuevos chips de Amazon.
"Creemos que es saludable tener una alternativa", explica al Financial Times Dave Brown, vicepresidente de servicios informáticos y redes de Amazon Web Services (AWS). El conglomerado fundado por Jeff Bezos asegura que Inferentia, otra de sus líneas de chips, es ya un 40% más barato de utilizar para generar respuestas a partir de modelos de IA. "El precio [de la computación a la nube] tiende a ser mucho mayor cuando se trata de aprendizaje automático e IA", añade el directivo. "Cuando ahorras el 40% de 1.000 dólares, realmente no afecta demasiado en tu elección. Pero cuando ahorras un 40% en decenas de millones de dólares, sí lo hace", insiste.
Fiebre inversora
Amazon planea gastar unos 75.000 millones de dólares en el 2024, la mayoría en infraestructuras tecnológicas. En la última llamada de la compañía con los analistas de bolsa tras presentar resultados, el consejero delegado del grupo, Andy Jassy, dijo esperar que su gasto crezca aún más en el 2025. Esto representa un aumento respecto al año pasado, cuando se gastaron 48.400 millones de dólares durante todo el ejercicio. Los principales proveedores de servicios en la nube, como Microsoft y Google, están inmersos en una fiebre inversora en IA que no muestra señales de frenar, sino que acelera sin tregua.
Hoy por hoy, tanto Amazon como Microsoft y Meta son grandes clientes de Nvidia, pero también están diseñando sus propios chips para hacer funcionar los centros de datos y no quedarse atrás en la ola de crecimiento de la IA. "Cada uno de los grandes proveedores de nube se está moviendo febrilmente hacia una tecnología de chips más verticalizada y, si cabe, homogeneizada e integrada", dice para el rotativo británico el consejero delegado de la consultora tecnológica The Futurum Group, Daniel Newman . "Todo el mundo, desde OpenAI hasta Apple, está buscando construir sus propios chips", remarca el ejecutivo. El motivo es que estos gigantes digitales buscan "tener menos coste de producción, más márgenes, mayor disponibilidad y más control".