Estados Unidos

Trump veta a Anthropic por las restricciones éticas al uso militar de la compañía de inteligencia artificial

La administración, que quería utilizar la tecnología para aplicarla a la vigilancia masiva ya drones autónomos, utilizará OpenAI

WashingtonDonald Trump ha ordenado que las agencias federales dejen de utilizar la IA de Anthropic después de días de disputa entre la compañía y el Pentágono, que exigía poder utilizar la inteligencia artificial sin las restricciones éticas de la empresa. Reclamaba a Anthropic que permitiera el uso de su tecnología para ordenar lanzamientos de misiles, hacer volar drones militares autónomos y aplicar vigilancia masiva. Dario Amodei, director ejecutivo de la compañía, se negó por cuestiones éticas y de riesgo. Hasta ahora la tecnología de Anthropic era la que se utilizaba en el sistema clasificado del departamento de Defensa. A última hora del viernes el director ejecutivo de OpenAI, propietaria de ChatGPT, anunció que había llegado a un acuerdo con la administración para aplicar sus modelos a la red de material clasificado.

Cuando este viernes se cancelaron todos los contratos públicos con Anthropic el Pentágono también anunció que declararía la compañía un riesgo para la cadena de suministro. Esta declaración es una vez importante para el laboratorio de inteligencia artificial después del enfrentamiento sobre los límites de la aplicación de su tecnología. El jueves Amodei había emitido un comunicado en pleno pulso con el secretario de Defensa, Pete Hegseth: "En un conjunto reducido de casos, creemos que la IA puede minar, en lugar de defender, los valores democráticos". Y añadía: "Algunos usos también quedan sencillamente fuera de los límites de lo que la tecnología actual puede hacer de forma segura y fiable. Dos de estos casos de uso nunca se han incluido en nuestros contratos con el departamento de la Guerra, y creemos que no deberían incluirse ahora", dijo, citando específicamente el uso de armas autónomas y la vino.

Cargando
No hay anuncios

Acuerdo con OpenAI

"Esta noche hemos llegado a un acuerdo con el departamento de la Guerra para desplegar nuestros modelos en su red clasificada", ha escrito Sam Altman, CEO de Open AI, en X. "La seguridad de la IA y el amplio reparto de sus beneficios son el núcleo de nuestra misión. Dos de nuestros principios de seguridad más importantes son la prohibición de la masía sistemas de armas autónomas. El departamento de la Guerra comparte estos principios, los refleja en la ley y en la política, y los hemos incorporado a nuestro acuerdo", expuso, consciente del choque que ha habido entre el secretario de Defensa, Pete Hegseth, y Amodei estos días. Altman también ha asegurado que están pidiendo a Defensa que "ofrezca los mismos términos a otras compañías de IA".

Cargando
No hay anuncios

Amenaza a Anthropic

En una publicación en Truth Social, Trump ha anunciado que el departamento de Defensa y otras agencias que utilizan los productos de Anthropic tendrán seis meses para eliminar progresivamente los productos de la empresa. El presidente ha amenazado a Anthropic que, si no ayuda con la transición, utilizará "todo el poder de la presidencia para obligarles a cumplir, con importantes consecuencias civiles y penales".

Cargando
No hay anuncios

La decisión es un castigo ejemplar y extraordinario de la administración Trump a una de las principales empresas que han mantenido al país en cabeza en el campo de la inteligencia artificial aplicada a la seguridad nacional. Además, la amenaza de Trump supondría convertir a la compañía en una especie de paria empresarial. Y hay que tener en cuenta que Alphabet, la matriz de Google y Amazon se encuentran entre los inversores financieros de Anthropic. La ruptura establece, además, un precedente según el cual sólo la legislación estadounidense restringiría cómo se despliega la IA en el campo de batalla, y las empresas que la desarrollan no tendrían nada que decir. Así, el Pentágono preservaría toda su flexibilidad en defensa y no quedaría limitado por las advertencias de los creadores de la tecnología contra el uso de IA poco fiable para alimentar armas.

En un comunicado, Anthropic ya ha dicho que impugnará ante los tribunales cualquier designación de riesgo por parte del gobierno federal. "Creemos que esta designación sería jurídicamente infundada y establecería un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno", ha afirmado la empresa.