El ejército de EE.UU. supuestamente se basó en el Agente de IA Claude de Anthropic durante un importante ataque aéreo en Irán, un desarrollo que surgió pocas horas después de que el presidente Donald Trump ordenara a las agencias federales detener el uso del modelo. Los comandos en la región, incluido CENTCOM, supuestamente usaron Claude para respaldar análisis de inteligencia, verificación de objetivos y simulaciones de campo de batalla. El episodio destaca cuán profundamente las herramientas de IA se han tejido en las operaciones de defensa, incluso mientras los responsables políticos presionan para cortar lazos con ciertos proveedores. El episodio subraya una tensión entre las directivas ejecutivas y la automatización sobre el terreno que podría influir en la adquisición y gestión automatizada de riesgos en los programas de defensa.
<li Anthropic había asegurado previamente un contrato multianual con el Pentágono por un valor de hasta 200 millones de dólares, con colaboraciones que involucran a Palantir y Amazon Web Services para habilitar flujos de trabajo clasificados para Claude.
<li La administración Trump instruyó a las agencias a dejar de trabajar con Anthropic y ordenó al Departamento de Defensa tratar a la compañía como un potencial control de riesgo después de que las conversaciones contractuales se rompieran por el uso militar sin restricciones.
<li El Pentágono comenzó a identificar proveedores de reemplazo y se movió para desplegar otros modelos de Agente de IA en redes clasificadas, incluida una colaboración con OpenAI para tales despliegues.
<li El CEO de Anthropic, Dario Amodei, rechazó públicamente la prohibición, argumentando que ciertas aplicaciones militares cruzan límites éticos y deben permanecer bajo supervisión humana en lugar de vigilancia masiva automatizada o armamentización autónoma.
Sentimiento: Neutral
Contexto del mercado: El episodio se sitúa en la intersección de la adquisición de defensa, la ética de IA y la gestión de riesgo de seguridad nacional, mientras las agencias reevalúan las dependencias de proveedores y la clasificación de herramientas de IA para operaciones sensibles.
El incidente ofrece una visión rara de cómo los modelos comerciales de IA se integran en flujos de trabajo militares de alto riesgo. Claude, originalmente diseñado para tareas cognitivas amplias, supuestamente respaldó análisis de inteligencia y el modelado de escenarios de campo de batalla, sugiriendo un nivel de confianza operacional que se extiende más allá de entornos de laboratorio hacia misiones del mundo real. Esto plantea preguntas importantes sobre la confiabilidad, auditoría y controlabilidad de la IA en la planificación de combate, especialmente cuando las señales de política gubernamental cambian rápidamente en torno al uso de proveedores.
A nivel de política, la fricción entre una relación contractual y una directiva presidencial destaca un debate más amplio sobre cómo deben tratarse los proveedores de IA en entornos seguros. La negativa de Anthropic a otorgar uso militar sin restricciones se alinea con sus límites éticos declarados, señalando que los proveedores del sector privado pueden rechazar cada vez más configuraciones que consideran éticamente problemáticas. La respuesta del Pentágono, recurrir a proveedores alternativos para cargas de trabajo clasificadas, ilustra cómo los departamentos de defensa pueden diversificar ecosistemas de IA para reducir la exposición al riesgo, mientras mantienen la capacidad en operaciones sensibles.
La tensión también toca la dinámica competitiva del mercado de IA como servicio. Con OpenAI supuestamente interviniendo para proporcionar modelos para redes clasificadas, es probable que el sector sea testigo de una experimentación continua y renegociación de términos en torno a clasificaciones de seguridad, gobernanza de datos y riesgo de cadena de suministro. La situación subraya la necesidad de marcos de gobernanza rigurosos que puedan adaptarse al cambio tecnológico rápido sin comprometer la seguridad operacional o los estándares éticos.
Los funcionarios describieron a Claude como desempeñando un papel en el análisis de inteligencia y la planificación operacional durante un importante ataque aéreo en Irán, una afirmación que ilustra cuán cerca se han movido las herramientas de IA a la toma de decisiones en el campo de batalla. Mientras la administración Trump se movió para cortar lazos con Anthropic, el uso operacional de Claude supuestamente persistió en ciertos comandos, subrayando una desconexión entre declaraciones de política y flujos de trabajo de defensa del día a día. La realidad práctica es que los análisis impulsados por IA, simulaciones y evaluación de riesgo pueden deslizarse en la planificación de misiones incluso mientras las agencias reevalúan el riesgo del proveedor y los requisitos de cumplimiento en todos los departamentos.
El compromiso previo del Pentágono con Anthropic fue sustancial: un contrato multianual valorado en hasta 200 millones de dólares y una red de asociaciones, incluidas Palantir y Amazon Web Services, que habilitaron el uso de Claude en el manejo de información clasificada y procesamiento de inteligencia. El acuerdo destacó una estrategia más amplia: diversificar las capacidades de IA en un ecosistema de confianza para garantizar la resiliencia en entornos sensibles. Sin embargo, cuando las direcciones de política cambiaron, la administración se movió para reformular la relación con el proveedor, señalando una recalibración basada en riesgos en lugar de un retiro total de las operaciones de defensa habilitadas por IA.
Entre bastidores, las tensiones entre la política pública y la ética del sector privado salieron a la luz. El Secretario de Defensa Pete Hegseth supuestamente presionó a Anthropic para permitir el uso militar sin restricciones de sus modelos, una solicitud que el liderazgo de Anthropic rechazó como cruzar líneas éticas que la compañía no cruzaría. La postura de la empresa se centra en la creencia de que ciertos usos, vigilancia doméstica masiva y armas completamente autónomas, plantean profundas preocupaciones éticas y legales, y que la supervisión humana significativa debe sobrevivir la transición del concepto a la ejecución. Esta posición se alinea con debates en curso sobre cómo equilibrar la adopción rápida de IA con salvaguardias contra el abuso y las consecuencias no deseadas.
Por su parte, el Pentágono no se quedó quieto. Enfrentando una posible brecha de proveedor, comenzó a alinear reemplazos y supuestamente llegó a un acuerdo con OpenAI para desplegar modelos en redes clasificadas. El cambio subraya un movimiento estratégico más amplio para garantizar la continuidad de la capacidad, incluso mientras los proveedores reevalúan sus términos para despliegues sensibles. El contraste entre los límites éticos de Anthropic y las necesidades operacionales del departamento revela una tensión de política más amplia: cómo aprovechar la tecnología transformadora de manera responsable mientras se preservan los imperativos de seguridad nacional.
Los observadores de la industria también notaron los efectos del ecosistema de tales transiciones. El mercado de IA está evolucionando hacia configuraciones más modulares y con autorización de seguridad que pueden intercambiarse o actualizarse a medida que cambian las políticas y evaluación de riesgo. El acuerdo de OpenAI, en particular, señala un apetito continuo por integrar modelos líderes en redes de defensa, aunque bajo gobernanza y supervisión estrictas. Si bien esta trayectoria promete una capacidad mejorada para analistas y planificadores militares, también eleva el escrutinio en torno al manejo de datos, interpretabilidad del modelo y el riesgo de dependencia excesiva en sistemas automatizados para decisiones críticas.
El CEO de Anthropic, Dario Amodei, ha argumentado que mientras la IA puede aumentar el juicio humano, no puede reemplazarlo en decisiones de defensa centrales. En comentarios públicos, reafirmó el compromiso de la compañía con los límites éticos y mantener el control humano en momentos cruciales. La tensión entre mantener el acceso a herramientas de vanguardia y mantener estándares éticos probablemente dará forma a futuras negociaciones con agencias federales, particularmente a medida que los legisladores y reguladores examinan el papel de la IA en contextos civiles y de seguridad nacional.
A medida que el panorama evoluciona, las comunidades más amplias de cripto y tecnología estarán observando cómo estas dinámicas de política y adquisición influyen en el desarrollo y despliegue de sistemas avanzados de IA en entornos de alto riesgo. El episodio sirve como un estudio de caso para equilibrar el avance tecnológico rápido con gobernanza, supervisión y la pregunta perdurable de dónde termina la responsabilidad humana y comienza la toma de decisiones automatizada.
Este artículo fue publicado originalmente como US military used Anthropic for Iran strike despite Trump's ban: WSJ en Crypto Breaking News, su fuente confiable de noticias de cripto, noticias de Bitcoin y actualizaciones de blockchain.

En el MWC 2026, HONOR presentó el Magic V6 como su nueva carta fuerte. Se trata de su smartphone plegable más ambicioso hasta ahora, uno que bu
