El artículo AI chose nukes in 95% of war games. The Pentagon wants to deploy it anyway. apareció en BitcoinEthereumNews.com. Anthropic tuvo un contrato con el Pentágono de $200MEl artículo AI chose nukes in 95% of war games. The Pentagon wants to deploy it anyway. apareció en BitcoinEthereumNews.com. Anthropic tuvo un contrato con el Pentágono de $200M

La IA eligió armas nucleares en el 95% de los juegos de guerra. El Pentágono quiere desplegarla de todos modos.

2026/03/05 05:26
Lectura de 14 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

Anthropic tenía un contrato de $200M con el Pentágono, acceso a redes clasificadas y la plena confianza del ejército de EE.UU.

Entonces hicieron una pregunta.

En noviembre de 2024, Anthropic se convirtió en la primera empresa de IA de vanguardia en desplegarse dentro de las redes clasificadas del Pentágono. La asociación se construyó con Palantir. Para julio de 2025, el contrato había crecido a $200 millones, más de lo que la mayoría de startups de defensa ven en una década.

Claude, el modelo de IA de Anthropic, estaba en todas partes. Análisis de inteligencia. Operaciones cibernéticas. Planificación operativa. Modelado y simulación. El Departamento de Guerra lo llamó "crítico para la misión".

Entonces llegó enero de 2026.

Claude fue utilizado en una operación militar clasificada en Venezuela: la captura de Nicolás Maduro.

Anthropic hizo a su socio Palantir una pregunta simple: ¿cómo exactamente se utilizó nuestra tecnología?

En la mayoría de las industrias, eso se llama diligencia debida. El Pentágono lo llamó insubordinación.

La empresa que preguntó "¿cómo se está usando nuestra IA?" estaba a punto de ser etiquetada como una amenaza para la seguridad nacional.

Siete Días Que Cambiaron Todo

Aquí está la cronología. Se mueve rápido. Ese es el punto.

24 de febrero: Pete Hegseth, Secretario de Guerra, convoca a Dario Amodei, CEO de Anthropic, al Pentágono. La petición es directa: eliminar todas las salvaguardas de Claude. Vigilancia masiva doméstica. Armas completamente autónomas. Todo.

La fecha límite: 27 de febrero, 17:01 ET.

26 de febrero: Amodei publica su respuesta. Tiene dos letras.

No.

Su declaración pública estableció dos líneas rojas que no cruzaría:

  • No a la vigilancia masiva doméstica. IA ensamblando tus datos de ubicación, historial de navegación y registros financieros en un perfil, automáticamente, a escala. El punto de Amodei: la ley actual permite al gobierno comprar estos datos sin una orden judicial. La IA hace posible convertirlo en un arma. "La ley aún no se ha puesto al día con las capacidades de rápido crecimiento de la IA".
  • No a las armas completamente autónomas. Traducción: no eliminar a los humanos de la decisión de matar a alguien. No porque las armas autónomas nunca sean viables, sino porque la IA actual no es lo suficientemente confiable. "Los sistemas de IA de vanguardia simplemente no son lo suficientemente confiables para impulsar armas completamente autónomas".

Ofreció trabajar directamente con el Pentágono en I+D para mejorar la confiabilidad. El Pentágono rechazó la oferta.

26 de febrero (mismo día): Emil Michael, subsecretario, llama a Amodei "un mentiroso con complejo de Dios". Públicamente. En redes sociales. El tono estaba establecido.

27 de febrero, 17:01: La fecha límite pasa. El presidente Trump ordena a todas las agencias federales dejar de usar Anthropic. Hegseth designa a Anthropic como un "Riesgo de Cadena de Suministro" bajo la Ley de Seguridad de la Cadena de Suministro de Adquisición Federal de 2018.

Esa designación había sido reservada previamente para Huawei y Kaspersky: empresas extranjeras con vínculos documentados con gobiernos adversarios.

Nunca se había aplicado a una empresa estadounidense. Hasta ahora.

27 de febrero, horas después: OpenAI firma un acuerdo de despliegue clasificado con el mismo Pentágono.

Sam Altman tuitea a las 20:56:

https://x.com/sama/status/2027578652477821175?s=20

OpenAI afirmó más tarde que su acuerdo tenía "más salvaguardas que cualquier acuerdo anterior para despliegues de IA clasificados, incluido el de Anthropic".

El asunto es este. Anthropic fue incluida en la lista negra debido a sus salvaguardas. Ahora las salvaguardas eran el punto de venta.

El fin de semana: La reacción fue inmediata.

  • Las desinstalaciones de ChatGPT aumentaron 295% en un solo día, según Sensor Tower. ¿La tasa diaria normal durante los 30 días anteriores? 9%.
  • Claude alcanzó el #1 en la App Store de Apple en siete países: EE.UU., Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza. Las descargas subieron 37% el viernes, luego 51% el sábado. Primera vez que la app alcanzaba el primer puesto.
  • Más de 300 empleados de Google y 60 empleados de OpenAI firmaron una carta abierta apoyando a Anthropic.
  • #QuitGPT fue tendencia en las redes sociales. El actor Mark Ruffalo y el profesor de NYU Scott Galloway amplificaron el movimiento.

Los usuarios estaban... no muy contentos.

2 de marzo: Altman publicó de nuevo. Esta vez, un largo memo interno compartido públicamente en X:

https://x.com/sama/status/2028640354912923739?s=20

Las enmiendas agregaron tres cosas:

  • Una prohibición explícita sobre vigilancia doméstica de personas estadounidenses
  • Un requisito de que la NSA necesita una modificación de contrato separada para acceder al sistema
  • Restricciones sobre el uso de datos personales adquiridos comercialmente: geolocalización, historial de navegación, registros financieros

Vale la pena detenerse en la última. Fue agregada el lunes. Lo que significa que el acuerdo del viernes no lo prohibía.

3 de marzo: Dos cosas sucedieron el mismo día.

Primero: En la Cumbre de Dinamismo Americano de a16z, el CEO de Palantir, Alex Karp, advirtió que las empresas de IA que se nieguen a cooperar con el ejército enfrentarían nacionalización. Usó un insulto en el escenario. El clip obtuvo 11 millones de vistas.

Palmer Luckey, fundador de la empresa de tecnología de defensa Anduril, le dijo a la misma audiencia que "términos aparentemente inocuos como 'el gobierno no puede usar tu tecnología para atacar civiles' son en realidad campos minados morales".

El vicepresidente JD Vance había sido el orador principal ese día. La posición de la administración era clara.

Segundo: CNBC reportó que en una reunión general con empleados, Altman dijo al personal de OpenAI que la empresa "no puede elegir cómo el ejército usa su tecnología".

Usuarios de X agregaron una Nota de la Comunidad a la publicación anterior de Altman:

Mismo día. Publicación pública: tenemos salvaguardas y principios. Reunión interna: no podemos elegir.

Mientras tanto, CBS News reportó que Claude permanecía desplegado en operaciones militares activas, incluyendo contra Irán, a pesar de la designación de riesgo de cadena de suministro. La inclusión en la lista negra aparentemente no funcionó. La tecnología estaba demasiado profundamente integrada en sistemas clasificados para ser eliminada.

El Problema del 95%

En simulaciones de juegos de guerra, los modelos de IA eligieron lanzar armas nucleares tácticas el 95% del tiempo.

Deja que eso asiente por un segundo.

GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash fueron sometidos a simulaciones de conflicto militar. Usaron armas nucleares tácticas en el 95% de los escenarios. Al menos un modelo lanzó un arma nuclear en 20 de 21 juegos.

Esa es la tecnología que el Pentágono quiere desplegar de forma autónoma.

Los modos de falla están documentados y son consistentes:

  • Sesgo de escalada. Los modelos no solo fallan aleatoriamente. Fallan en una dirección específica: hacia la escalada. La investigación de la Institución Brookings encontró que los errores militares de la IA son sistemáticos, no aleatorios. El patrón es siempre el mismo: más fuerza, más rápido.
  • Alucinaciones. Los LLM generan información falsa con alta confianza. En una prueba relacionada con los ataques a Irán, una IA alimentó inteligencia fabricada en la cadena de decisión. Bajo presión de tiempo, los operadores humanos no pudieron distinguirla de la real.
  • Vulnerabilidad adversaria. Estos sistemas pueden ser manipulados con entradas cuidadosamente elaboradas para eludir sus restricciones. El atacante no necesita ser externo. La vulnerabilidad vive en el modelo mismo.

Estos no son casos extremos. Esto es lo que la tecnología hace hoy.

Piénsalo de esta manera. Ya hemos visto qué sucede cuando sistemas autónomos simples fallan en entornos militares.

El sistema de misiles Patriot en 2003 mató a soldados aliados. Identificó erróneamente un avión británico amigo como un misil enemigo. El sistema era basado en reglas, con parámetros definidos. Aún así se equivocó.

El USS Vincennes en 1988 derribó el vuelo 655 de Iran Air, un avión de pasajeros comercial. 290 civiles muertos. El sistema de combate Aegis de la nave identificó erróneamente la aeronave basándose en datos de radar. La tripulación tuvo segundos para decidir. Confiaron en el sistema.

Esos eran sistemas basados en reglas con parámetros claros. Los LLM son órdenes de magnitud más complejos. Más opacos. Menos predecibles.

Y se les está pidiendo que tomen decisiones más grandes.

El problema de supervisión. Una vez que la IA se despliega dentro de redes clasificadas, la responsabilidad externa se convierte en lo que los expertos llaman "casi imposible". Las restricciones se erosionan bajo presión operativa. Los ingenieros desplegados en campo que OpenAI prometió pueden observar algunas interacciones, seguro. Pero las operaciones clasificadas limitan el flujo de información por diseño.

En español: los mismos muros que mantienen los secretos adentro también mantienen la supervisión afuera.

El Pentágono tiene un punto. Merece una audiencia justa.

Las armas parcialmente autónomas, como los drones usados en Ucrania, salvan vidas. Permiten que fuerzas más pequeñas se defiendan contra otras más grandes. China y Rusia no están esperando confiabilidad perfecta antes de desplegar sus propios sistemas.

Negarse a usar IA en defensa crea una brecha de capacidades. Los adversarios la explotarán.

Dario Amodei reconoció esto directamente:

Su objeción no era al destino. Era al cronograma.

Ofreció colaborar en la I+D necesaria para llegar allí. El Pentágono dijo no.

Hay una brecha entre "la IA puede resumir informes de inteligencia", donde realmente sobresale, y "la IA puede decidir quién vive y quién muere". Los contratos no cierran esa brecha. Las enmiendas no la cierran. La ingeniería sí.

Y la ingeniería no está terminada.

Cómo Poner en Lista Negra a una Empresa Estadounidense

Riesgo de cadena de suministro. Suena burocrático. En realidad es un interruptor de apagado.

Bajo la Ley de Seguridad de la Cadena de Suministro de Adquisición Federal de 2018 (FASCSA), una designación de "riesgo de cadena de suministro" significa que ningún contratista del gobierno puede hacer negocios contigo. No solo el Pentágono. Cualquiera que quiera un contrato federal. Cualquier proveedor, subcontratista o socio en el ecosistema gubernamental.

En español: te vuelves radiactivo para toda la cadena de suministro federal.

La ley fue construida para amenazas extranjeras. La infraestructura 5G de Huawei. El software antivirus de Kaspersky. Empresas con vínculos documentados con gobiernos hostiles.

Cada empresa en la lista antes de Anthropic tenía una cosa en común: eran de países considerados adversarios de Estados Unidos.

Anthropic tiene su sede en San Francisco.

El Pentágono también amenazó con la Ley de Producción de Defensa, una ley de la era de la Guerra Fría diseñada para requisar fábricas para la producción en tiempos de guerra. Acerías. Plantas de municiones. La infraestructura física de la guerra.

El Pentágono amenazó con usarla para forzar a una empresa de software a eliminar características de seguridad de un chatbot de IA.

Expertos legales llamaron a la aplicación "cuestionable". La ley fue construida para producción física, no restricciones de software. Usarla para obligar a una empresa a hacer su IA menos segura sería, como mínimo, una teoría legal novedosa.

Amodei identificó el problema lógico en su declaración:

No puedes llamar a una tecnología una amenaza para la cadena de suministro y invocar poderes de emergencia para apoderarla porque no puedes funcionar sin ella. Elige una.

El resultado práctico es revelador. CBS News reportó que Claude permanece en uso militar activo. A pesar de la inclusión en la lista negra. La designación fue punitiva, no práctica: la tecnología estaba demasiado integrada para ser arrancada.

Lo que plantea una pregunta que nadie en Washington parece ansioso por responder: si el Pentágono no puede hacer cumplir una orden de eliminación para tecnología que ha incluido oficialmente en la lista negra, ¿cómo exactamente hará cumplir las salvaguardas de uso?

La posición del Pentágono es directa. Las empresas privadas no establecen la política militar. Las empresas de IA son proveedores. El ejército decide cómo se usan sus herramientas.

Desde esta perspectiva, Anthropic era un proveedor que se negó a entregar lo que se ordenó. El cliente encontró otro proveedor.

Ese encuadre es internamente consistente. También es el encuadre que usarías para suministros de oficina. No para tecnología que eligió la escalada nuclear en el 95% de las simulaciones.

¿Son Reales las Salvaguardas?

El viernes, el acuerdo de OpenAI tenía salvaguardas. Para el lunes, necesitaba más salvaguardas.

Eso te dice algo sobre las salvaguardas del viernes.

El lenguaje que Altman acordó en la enmienda del lunes merece una lectura cuidadosa:

La palabra que hace el trabajo pesado: intencionalmente.

¿Qué sucede cuando una IA procesa un conjunto de datos que incidentalmente incluye estadounidenses? ¿Qué pasa si la vigilancia es un subproducto de una operación de inteligencia más amplia, no el objetivo declarado? ¿Quién define la intención dentro de una red clasificada donde los mecanismos de supervisión son, por diseño, limitados?

La cláusula de datos adquiridos comercialmente es aún más reveladora. La enmienda del lunes prohíbe explícitamente usar datos personales comprados (seguimiento de ubicación, historial de navegación, registros financieros) para vigilancia de estadounidenses.

Esa cláusula fue agregada el lunes. El acuerdo del viernes no la incluía.

Durante todo un fin de semana, el acuerdo de OpenAI con el Pentágono técnicamente permitía vigilancia masiva a través de datos comprados comercialmente sobre ciudadanos estadounidenses.

Altman reconoció tanto:

La excepción de la NSA también vale la pena examinar. Agencias de inteligencia como la NSA no pueden usar el sistema de OpenAI sin una "modificación posterior" al contrato. Eso suena como una prohibición. En realidad es un proceso. El mecanismo para otorgar acceso está integrado en la estructura del contrato.

Eso no es un muro. Es una puerta con una llave diferente.

El problema más profundo es la contradicción de la reunión general. El mismo día que Altman publicó sobre principios y salvaguardas en X, les dijo a los empleados internamente que OpenAI "no puede elegir cómo el ejército usa su tecnología".

Si la empresa que construye la IA no puede elegir cómo se usa, las salvaguardas son un comunicado de prensa. No una política.

En entornos clasificados, monitorear la IA es fundamentalmente diferente de monitorear un servicio en la nube. El aparato de seguridad que protege secretos militares también bloquea la supervisión independiente del comportamiento de la IA.

Los ingenieros desplegados en campo pueden observar algunas interacciones. Pero "algunas interacciones" y "cada interacción que cubre el contrato" son cosas muy diferentes.

Qué Viene Después

El mercado ha hablado. La cooperación obtiene contratos. La resistencia obtiene inclusión en lista negra.

El público también ha hablado. Están desinstalando.

La estructura de incentivos es clara. OpenAI cooperó y consiguió el acuerdo. Anthropic resistió y fue designada como un riesgo de cadena de suministro, la misma etiqueta que el gobierno usa para empresas vinculadas a adversarios extranjeros.

En la cumbre de a16z, Karp predijo que cada empresa de IA trabajará con el ejército dentro de tres años. Basándose en los incentivos, eso no es una predicción. Es una descripción.

Pero los números de la reacción cuentan una historia diferente.

El aumento del 295% en desinstalaciones. Claude en el #1 en siete países. Más de 500 empleados tecnológicos rompiendo filas con sus empleadores. Le Monde editorializando desde París sobre el exceso gubernamental. Encuestas mostrando que el 84% de los ciudadanos británicos están preocupados por las asociaciones de IA entre gobierno y corporaciones.

Los ingenieros que construyen estos sistemas y las personas que los usan ven algo que el Pentágono aparentemente no ve: apoyar la defensa nacional y desplegar tecnología no confiable para matar de forma autónoma no son lo mismo.

Ninguna enmienda de contrato cierra esta brecha. Ninguna salvaguarda la cierra. Ningún ingeniero desplegado en campo la cierra.

Los modelos de IA eligieron la escalada nuclear en el 95% de las simulaciones de juegos de guerra. La empresa que dijo "la tecnología aún no está lista" fue incluida en la lista negra. La empresa que dijo "sí" admitió dentro de 72 horas que había sido descuidada. La tecnología permanece desplegada en operaciones activas independientemente de lo que cualquiera de las empresas quisiera.

Amodei ofreció hacer la I+D para hacer que las armas autónomas de IA sean seguras y confiables. Ofreció colaborar con el Pentágono para llegar allí. La oferta fue rechazada.

Anthropic tenía un contrato de $200M y la confianza del Pentágono. Entonces preguntaron cómo se estaba usando su tecnología.

La respuesta fue una fecha límite, una inclusión en lista negra y una etiqueta previamente reservada para los adversarios de Estados Unidos.

Las simulaciones siguen corriendo. En el 95% de ellas, alguien presiona el botón.

Divulgación: Este artículo fue editado por Diego Almada Lopez. Para más información sobre cómo creamos y revisamos el contenido, consulta nuestra Política Editorial.

Fuente: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

Oportunidad de mercado
Logo de MASS
Precio de MASS(MASS)
$0.0006635
$0.0006635$0.0006635
-0.77%
USD
Gráfico de precios en vivo de MASS (MASS)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.