El Pentágono impuso una designación formal de riesgo de cadena de suministro al laboratorio de inteligencia artificial Anthropic el jueves 5 de marzo, limitando el uso de una tecnología que según una fuente estaba siendo utilizada para operaciones militares en Irán.
La etiqueta de "riesgo de cadena de suministro", confirmada en un comunicado de Anthropic, es efectiva de inmediato y prohíbe a los contratistas gubernamentales usar la tecnología de Anthropic en su trabajo para el ejército estadounidense.
Pero las empresas aún pueden usar Claude de Anthropic en otros proyectos no relacionados con el Pentágono, escribió el CEO Dario Amodei en el comunicado. Dijo que la designación tiene "un alcance limitado" y que las restricciones solo aplican al uso de la IA de Anthropic en contratos del Pentágono.
"Claramente aplica solo al uso de Claude por parte de clientes como parte directa de contratos con el Departamento de Guerra, no a todo uso de Claude por clientes que tienen tales contratos."
La designación de riesgo sigue a una disputa de meses sobre la insistencia de la compañía en salvaguardas que el Departamento de Defensa, al cual la administración Trump llama Departamento de Guerra, dijo que iban demasiado lejos. En su declaración, Amodei reiteró que la compañía impugnaría la designación en los tribunales.
En días recientes, Anthropic y el Pentágono han discutido posibles planes para que el Pentágono deje de usar Claude, dijo Amodei en la declaración del jueves. Ambas partes han hablado sobre cómo Anthropic podría seguir trabajando con el ejército sin desmantelar sus salvaguardas, agregó.
Sin embargo, en una publicación en X el jueves por la noche, el Director de Tecnología del Pentágono Emil Michael dijo que no hay ninguna negociación activa del Departamento de Defensa con Anthropic.
Amodei también se disculpó por un memo interno publicado el miércoles por el sitio de noticias tecnológicas The Information. En el memo, originalmente escrito el viernes pasado, Amodei dijo que a los funcionarios del Pentágono no les gustaba la compañía en parte porque "no hemos dado elogios al estilo dictador a Trump."
La publicación del memo interno llegó cuando los inversores de Anthropic corrían para contener el daño causado por el conflicto de la compañía con el Pentágono.
El Departamento de Defensa no respondió de inmediato a las solicitudes de comentarios.
La acción representó una reprimenda extraordinaria por parte de Estados Unidos contra una empresa tecnológica estadounidense que fue más temprana que sus rivales en trabajar con el Pentágono. La acción llega mientras el departamento continúa dependiendo de la tecnología de Anthropic para proporcionar apoyo a operaciones militares, incluyendo en Irán, según una persona familiarizada con el asunto.
Claude probablemente está siendo usado para analizar inteligencia y asistir con planificación operacional.
Un portavoz de Microsoft dijo que los abogados de la compañía estudiaron la designación y concluyeron que: "Los productos de Anthropic, incluyendo Claude, pueden seguir disponibles para nuestros clientes —excepto el Departamento de Guerra— a través de plataformas como M365, GitHub y Microsoft's AI Foundry."
Microsoft puede continuar trabajando con Anthropic en proyectos no relacionados con defensa, agregó el portavoz.
Amazon, un inversor en Anthropic y un cliente significativo del modelo Claude de la compañía, no respondió inmediatamente a una solicitud de comentarios fuera del horario comercial habitual.
Maven Smart Systems de Palantir – una plataforma de software que proporciona a los ejércitos análisis de inteligencia y selección de objetivos de armas – usa múltiples instrucciones y flujos de trabajo que fueron construidos usando el código Claude de Anthropic, informó Reuters anteriormente.
Anthropic fue la más agresiva de sus rivales en cortejar a funcionarios de seguridad nacional estadounidenses. Pero la compañía y el Pentágono han estado en desacuerdo durante meses sobre cómo el ejército puede usar su tecnología en el campo de batalla. Este conflicto estalló a la vista pública a principios de este año.
Anthropic se ha negado a retroceder en las prohibiciones para que su IA Claude impulse armas autónomas y vigilancia masiva estadounidense. El Pentágono ha resistido, diciendo que debería poder usar esta tecnología según sea necesario, siempre que cumpla con la ley estadounidense.
La etiqueta de "riesgo de cadena de suministro" ahora le da a Anthropic un estatus que Washington hasta ahora había usado típicamente para adversarios extranjeros. Una acción estadounidense similar se tomó para eliminar al gigante tecnológico chino Huawei de las cadenas de suministro del Pentágono. – Rappler.com


