Dígitos y Androides

El cinismo de los gigantes de la IA

Anthropic, Meta y OpenAI, las tres grandes empresas del sector, apuestan por acelerar la industria sin hacer caso de los posibles riesgos

10/04/2026

Esta semana Anthropic ha presentado una IA que ha decidido no vender porque la considera demasiado peligrosa; Meta ha lanzado el primer modelo cerrado de su historia y ha abandonado el compromiso con el código abierto que había predicado como una obligación moral, y OpenAI prepara el GPT-6 mientras un reportaje periodístico pone al descubierto prácticas muy cuestionables del director. Los tres juntos dibujan el retrato de una industria en carrera sin frenos, incapaz de autogobernarse o nada interesada en hacerlo.

La confesión de Zuckerberg

En el pódcast de Cleo Abrahams, Mark Zuckerberg pronunció una frase reveladora: "Las redes sociales nacieron como un espacio donde la gente interactuaba con sus amigos. Ahora, al menos la mitad del contenido son personas interactuando con creadores". Lo dijo en tono neutral, como quien da el pronóstico del tiempo, pero estaba describiendo una de las transformaciones sociales más profundas de las dos últimas décadas: sin pedirte permiso, el algoritmo ha sustituido a tus amigos por extraños humanos o sintéticos que publican contenido que te engancha más. La placidez con la que Zuckerberg lo constata, sin reconocer ningún coste social, es inquietante.

Cargando
No hay anuncios

Y mientras describe esta sustitución de los amigos por extraños, ya prepara la siguiente fase: la IA puede construir extraños más atractivos que cualquier humano real, con personalidades fabricadas desde cero para que los acojas como si fueran conocidos de toda la vida. El único objetivo es que te quedes más tiempo viendo anuncios.

Este cinismo no parece tener fin, y así lo confirma el lanzamiento de la nueva IA: Muse Spark. En julio de 2024, Zuckerberg dejó escrito en un manifiesto que la IA de código abierto representaba "la mejor oportunidad del mundo para aprovechar esta tecnología y crear seguridad para todos". 18 meses después, tras haber despedido al equipo de Llama y dejado huérfana a esta familia de modelos de IA, Meta lanza el primer modelo cerrado de su historia. Y el resultado, a pesar de la inversión, no es sustancialmente superior: un directivo de Meta reconoce a Bloomberg que su modelo "todavía no es tan capaz como ChatGPT, Claude o Gemini". Aun así, las acciones de Meta subieron casi un 10%.

Cargando
No hay anuncios

El caso Altman: cinismo por sistema

Si el cinismo de Zuckerberg es el de un ingeniero social que describe sin vergüenza lo que sus productos hacen a las personas, el de Altman ya es de otro nivel. Sobre él, Ronan Farrow y Andrew Marantz han publicado en The New Yorker ha desaparecido de la comunicación de las actividades de la empresa a las autoridades fiscales.

Cargando
No hay anuncios

¿Tú también, Anthropic?OpenAI lo despidió. Pero, presionada por inversores y empleados, lo readmitió solo cinco días después. Sutskever, en cambio, huyó en mayo de 2024 para fundar Safe Superintelligence (SSI), una empresa dedicada exclusivamente a desarrollar IA segura sin presión comercial. Poco más de un año después, SSI rechazó una oferta de adquisición por parte de Meta. Que el científico que intentó parar a Altman por razones de seguridad rehúse ser absorbido por Zuckerberg por las mismas razones ilustra hasta qué punto la desconfianza es ya el ecosistema natural de este sector.

Farrow y Marantz preguntaron a Altman si dirigir una empresa de IA requiere un nivel de integridad superior a la norma. Hasta entonces, su respuesta siempre había sido un sí rotundo. Ahora, en cambio, responde de forma tangencial: "Creo que hay muchos negocios que tienen un gran impacto potencial, bueno y malo, en la sociedad". El departamento de prensa de OpenAI se apresuró a enviar una enmienda a los periodistas: "Sí, exige un nivel elevado de integridad, y siento el peso de la responsabilidad cada día". Esta corrección de última hora dice mucho sobre la respuesta sincera. Por el camino, OpenAI ha disuelto los equipos de seguridad existencial, ha cerrado el grupo encargado de preparar la sociedad para la irrupción de la IA avanzada, y la palabra seguridad ha desaparecido de la comunicación de las actividades de la empresa a las autoridades fiscales.

Cargando
No hay anuncios

Tú también, Anthropic?

El cinismo, en grado menor pero presente, llega incluso a Anthropic, que pasa por ser la buena del sector después del conflicto con el gobierno Trump por razones de ética. El martes pasado presentó Claude Mythos, su IA más potente hasta ahora, y la primera que no ponen a disposición del público. Durante las pruebas, Mythos encontró miles de agujeros de ciberseguridad en los principales sistemas operativos del mercado, algunos de los cuales hacía décadas que estaban abiertos. El modelo casi ha alcanzado vida propia: huyó de un entorno supuestamente blindado, publicó información en webs públicas sin que nadie se lo hubiera pedido, y en algunas intervenciones se saltó las instrucciones recibidas e intentó ocultarlo reescribiendo el historial.

Cargando
No hay anuncios

La decisión de no comercializar Mythos se está presentando como el gesto de responsabilidad más visible que ha hecho una empresa de IA. Aun así, Anthropic lo ha desplegado en un círculo cerrado donde hay empresas como Apple, AWS, Cisco, Google y Microsoft; ha avisado en privado al gobierno de los EUA de que hace mucho más probable que ya este año se produzcan ciberataques masivos automatizados, y presume de su responsabilidad. Dicho de otro modo: han creado un arma y han construido un relato virtuoso sobre la decisión de no venderla a todo el mundo. Dario Amodei, fundador de Anthropic, publicó en enero un largo texto donde advertía que las empresas de IA podrían influir en las creencias de millones de usuarios. Pero ha continuado construyendo modelos de IA.

Una carrera con una gran brecha

Los tres casos tienen en común una estructura donde el cinismo es la posición más lógica. Ningún laboratorio de IA tiene incentivos para frenar: quien lo hace pierde el tren. Y a los inversores no parece que les preocupe demasiado: OpenAI acaba de captar 122.000 millones más, a pesar de gastar 1,35 euros por cada euro que factura.

Cargando
No hay anuncios

Andrej Karpathy, cofundador de OpenAI y antiguo director de IA de Tesla, ha descrito en un tuit una brecha creciente entre dos grupos de personas. Por un lado, el público generalista que se aproximó a la IA a través de los modelos gratuitos iniciales, comprobó sus limitaciones, y se ha quedado con aquella primera impresión. Por otro, los profesionales que utilizan a diario las IA avanzadas en tareas técnicas, y que experimentan lo que Karpathy califica de psicosis colectiva: las mejoras en programación, investigación y matemáticas han sido extraordinarias. Si observas trabajar a uno de estos modelos, "puedes ver cómo resuelve en minutos problemas que antes tardaban días o semanas". La distancia entre los dos grupos de usuarios es cada vez mayor.

A los laboratorios de IA, de hecho, esta brecha ya les va bien. Mientras el público general relativiza los riesgos porque recuerda que son chatbots que confundían países, fechas o personas y ya no lo hacen tanto, los profesionales saben que las capacidades actuales ya están transformando sectores enteros. Y los que dirigen la carrera avisan de los riesgos de acelerar, pero no dejan de pisar el acelerador.