Postarea AI a ales arme nucleare în 95% din jocurile de război. Pentagonul vrea să-l implementeze oricum. a apărut pe BitcoinEthereumNews.com. Anthropic a avut un contract de 200 milioane $ cu PentagonulPostarea AI a ales arme nucleare în 95% din jocurile de război. Pentagonul vrea să-l implementeze oricum. a apărut pe BitcoinEthereumNews.com. Anthropic a avut un contract de 200 milioane $ cu Pentagonul

IA a ales armele nucleare în 95% din jocurile de război. Pentagonul vrea să o implementeze oricum.

2026/03/05 05:26
13 min de lectură
Pentru opinii sau preocupări cu privire la acest conținut, contactează-ne la crypto.news@mexc.com

Anthropic avea un contract de 200 milioane de dolari cu Pentagonul, acces la rețele clasificate și încrederea deplină a armatei SUA.

Apoi au pus o întrebare.

În noiembrie 2024, Anthropic a devenit prima companie de inteligență artificială de frontieră care s-a implementat în rețelele clasificate ale Pentagonului. Parteneriatul a fost construit cu Palantir. Până în iulie 2025, contractul crescuse la 200 de milioane de dolari — mai mult decât văd majoritatea startup-urilor de apărare într-un deceniu.

Claude, modelul de inteligență artificială al Anthropic, era peste tot. Analiză de informații. Operațiuni cibernetice. Planificare operațională. Modelare și simulare. Departamentul de Război l-a numit „esențial pentru misiune".

Apoi a venit ianuarie 2026.

Claude a fost folosit într-o operațiune militară clasificată în Venezuela — capturarea lui Nicolás Maduro.

Anthropic a adresat partenerului său Palantir o întrebare simplă: cum exact a fost utilizată tehnologia noastră?

În majoritatea industriilor, aceasta se numește diligență. Pentagonul a numit-o insubordonare.

Compania care a întrebat „cum este folosită inteligența noastră artificială?" era pe punctul de a fi etichetată o amenințare la adresa securității naționale.

Șapte Zile Care Au Schimbat Totul

Iată cronologia. Se mișcă rapid. Acesta este scopul.

24 februarie: Pete Hegseth, Secretarul de Război, îl convoacă pe Dario Amodei — CEO-ul Anthropic — la Pentagon. Cererea este directă: eliminați toate măsurile de protecție din Claude. Supraveghere internă în masă. Arme complet autonome. Totul.

Termenul limită: 27 februarie, ora 17:01 ET.

26 februarie: Amodei publică răspunsul său. Are două litere.

Nu.

Declarația sa publică a stabilit două linii roșii pe care nu le-ar depășit:

  • Fără supraveghere internă în masă. Inteligența artificială asamblând datele tale de locație, istoricul de navigare și înregistrările financiare într-un profil — automat, la scară. Punctul lui Amodei: legea actuală permite guvernului să cumpere aceste date fără mandat. Inteligența artificială face posibilă armarea acestora. „Legea nu a ajuns încă din urmă capacitățile în rapidă creștere ale inteligenței artificiale."
  • Fără arme complet autonome. Traducere: fără eliminarea oamenilor din decizia de a ucide pe cineva. Nu pentru că armele autonome nu vor fi niciodată viabile — ci pentru că inteligența artificială de astăzi nu este suficient de fiabilă. „Sistemele de inteligență artificială de frontieră pur și simplu nu sunt suficient de fiabile pentru a alimenta arme complet autonome."

A oferit să lucreze direct cu Pentagonul la cercetare și dezvoltare pentru a îmbunătăți fiabilitatea. Pentagonul a refuzat oferta.

26 februarie (aceeași zi): Emil Michael, subsecretar, îl numește pe Amodei „un mincinos cu un complex de Dumnezeu". Public. Pe rețelele sociale. Tonul a fost stabilit.

27 februarie, ora 17:01: Termenul limită trece. Președintele Trump ordonă tuturor agențiilor federale să înceteze utilizarea Anthropic. Hegseth desemnează Anthropic un „Risc al Lanțului de Aprovizionare" în conformitate cu Legea Securității Lanțului de Aprovizionare a Achizițiilor Federale din 2018.

Această desemnare fusese rezervată anterior pentru Huawei și Kaspersky — companii străine cu legături documentate cu guverne adverse.

Nu fusese niciodată aplicată unei companii americane. Până acum.

27 februarie, câteva ore mai târziu: OpenAI semnează un acord de implementare clasificat cu același Pentagon.

Sam Altman postează la 20:56:

https://x.com/sama/status/2027578652477821175?s=20

OpenAI a susținut ulterior că acordul său avea „mai multe măsuri de protecție decât orice acord anterior pentru implementări de inteligență artificială clasificate, inclusiv cel al Anthropic".

Iată problema. Anthropic a fost pe lista neagră din cauza măsurilor sale de protecție. Acum măsurile de protecție erau punctul de vânzare.

Weekendul: Reacția adversă a fost imediată.

  • Dezinstalările ChatGPT au crescut cu 295% într-o singură zi, potrivit Sensor Tower. Rata zilnică normală în ultimele 30 de zile? 9%.
  • Claude a ajuns pe locul 1 în App Store-ul Apple în șapte țări: SUA, Belgia, Canada, Germania, Luxemburg, Norvegia și Elveția. Descărcările au crescut cu 37% vineri, apoi cu 51% sâmbătă. Prima dată când aplicația ajunsese vreodată pe primul loc.
  • Peste 300 de angajați Google și 60 de angajați OpenAI au semnat o scrisoare deschisă în sprijinul Anthropic.
  • #QuitGPT a devenit trending pe rețelele sociale. Actorul Mark Ruffalo și profesorul NYU Scott Galloway au amplificat mișcarea.

Utilizatorii nu erau... încântați.

2 martie: Altman a postat din nou. De data aceasta, un memorandum intern lung distribuit public pe X:

https://x.com/sama/status/2028640354912923739?s=20

Amendamentele au adăugat trei lucruri:

  • O interdicție explicită privind supravegherea internă a persoanelor din SUA
  • O cerință ca NSA să aibă nevoie de o modificare separată a contractului pentru a accesa sistemul
  • Restricții privind utilizarea datelor personale achiziționate comercial — geolocație, istoric de navigare, înregistrări financiare

Ultimul punct merită o pauză. A fost adăugat luni. Ceea ce înseamnă că acordul de vineri nu îl interzicea.

3 martie: Două lucruri s-au întâmplat în aceeași zi.

Primul: La Summit-ul American Dynamism a16z, CEO-ul Palantir, Alex Karp, a avertizat că companiile de inteligență artificială care refuză să coopereze cu armata se vor confrunta cu naționalizarea. A folosit un epitet pe scenă. Clipul a obținut 11 milioane de vizualizări.

Palmer Luckey, fondatorul companiei de tehnologie de apărare Anduril, a spus aceluiași public că „termeni aparent inofensivi precum 'guvernul nu poate folosi tehnologia ta pentru a viza civili' sunt de fapt câmpuri minate morale."

Vicepreședintele JD Vance ținuse discursul principal mai devreme în acea zi. Poziția administrației era clară.

Al doilea: CNBC a raportat că într-o întâlnire generală cu angajații, Altman a spus personalului OpenAI că compania „nu poate alege modul în care armata îi folosește tehnologia."

Utilizatorii X au adăugat o Notă Comunitară la postarea anterioară a lui Altman:

Aceeași zi. Postare publică: avem măsuri de protecție și principii. Întâlnire internă: nu putem alege.

Între timp, CBS News a raportat că Claude a rămas implementat în operațiuni militare active — inclusiv împotriva Iranului — în ciuda desemnării de risc al lanțului de aprovizionare. Aparent, lista neagră nu a funcționat. Tehnologia era prea profund încorporată în sistemele clasificate pentru a fi eliminată.

Problema 95%

În simulările de jocuri de război, modelele de inteligență artificială au ales să lanseze arme nucleare tactice în 95% din timp.

Lasă asta să se așeze o secundă.

GPT-5.2, Claude Sonnet 4 și Gemini 3 Flash au fost supuse simulărilor de conflict militar. Au folosit arme nucleare tactice în 95% din scenarii. Cel puțin un model a lansat o armă nucleară în 20 din 21 de jocuri.

Aceasta este tehnologia pe care Pentagonul dorește să o implementeze autonom.

Modurile de eșec sunt documentate și consistente:

  • Tendința de escaladare. Modelele nu eșuează doar aleatoriu. Eșuează într-o direcție specifică — către escaladare. Cercetarea Institutului Brookings a constatat că erorile militare ale inteligenței artificiale sunt sistematice, nu aleatorii. Modelul este întotdeauna același: mai multă forță, mai rapid.
  • Halucinații. LLM-urile generează informații false cu încredere ridicată. Într-un test legat de loviturile din Iran, o inteligență artificială a furnizat informații fabricate în lanțul decizional. Sub presiunea timpului, operatorii umani nu au putut să o distingă de cea reală.
  • Vulnerabilitate adversarială. Aceste sisteme pot fi manipulate cu intrări atent elaborate pentru a ocoli restricțiile lor. Atacatorul nu trebuie să fie extern. Vulnerabilitatea trăiește în modelul însuși.

Acestea nu sunt cazuri marginale. Asta face tehnologia astăzi.

Gândește-te așa. Am văzut deja ce se întâmplă când sistemele autonome simple eșuează în setări militare.

Sistemul de rachete Patriot în 2003 a ucis soldați aliați. A identificat greșit o aeronavă britanică prietenoasă ca rachetă inamică. Sistemul se baza pe reguli, cu parametri definiți. Tot a greșit.

USS Vincennes în 1988 a doborât Zborul 655 Iran Air — un avion de pasageri comercial. 290 de civili uciși. Sistemul de luptă Aegis al navei a identificat greșit aeronava pe baza datelor radar. Echipajul avea secunde să decidă. Au avut încredere în sistem.

Acelea erau sisteme bazate pe reguli cu parametri clari. LLM-urile sunt cu ordine de mărime mai complexe. Mai opace. Mai puțin previzibile.

Și li se cere să ia decizii mai mari.

Problema supravegherii. Odată ce inteligența artificială este implementată în rețele clasificate, responsabilitatea externă devine ceea ce experții numesc „aproape imposibilă". Restricțiile se erodează sub presiunea operațională. Inginerii implementați pe teren pe care OpenAI i-a promis pot observa unele interacțiuni, sigur. Dar operațiunile clasificate limitează fluxul de informații prin design.

În română: aceiași pereți care țin secretele înăuntru țin și supravegherea afară.

Pentagonul are un punct. Merită o audiere corectă.

Armele parțial autonome — precum dronele folosite în Ucraina — salvează vieți. Permit forțelor mai mici să se apere împotriva celor mai mari. China și Rusia nu așteaptă fiabilitatea perfectă înainte de a-și implementa propriile sisteme.

Refuzul de a folosi inteligența artificială în apărare creează un decalaj de capacitate. Adversarii îl vor exploata.

Dario Amodei a recunoscut acest lucru direct:

Obiecția sa nu era la destinație. Era la calendar.

A oferit să colaboreze la cercetarea și dezvoltarea necesară pentru a ajunge acolo. Pentagonul a spus nu.

Există un decalaj între „inteligența artificială poate rezuma rapoarte de informații" — unde excelează cu adevărat — și „inteligența artificială poate decide cine trăiește și cine moare". Contractele nu acoperă acest decalaj. Amendamentele nu îl acoperă. Ingineria o face.

Și ingineria nu este terminată.

Cum Pui Pe Lista Neagră O Companie Americană

Risc al lanțului de aprovizionare. Sună birocratic. De fapt este un întrerupător.

În conformitate cu Legea Securității Lanțului de Aprovizionare a Achizițiilor Federale din 2018 — FASCSA — o desemnare de „risc al lanțului de aprovizionare" înseamnă că niciun contractor guvernamental nu poate face afaceri cu tine. Nu doar Pentagonul. Oricine dorește un contract federal. Orice furnizor, subcontractor sau partener din ecosistemul guvernamental.

În română: devii radioactiv pentru întregul lanț de aprovizionare federal.

Legea a fost construită pentru amenințări străine. Infrastructura 5G a Huawei. Software-ul antivirus al Kaspersky. Companii cu legături documentate cu guverne ostile.

Fiecare companie de pe listă înaintea Anthropic avea un lucru în comun: erau din țări considerate adversare ale Statelor Unite.

Anthropic are sediul în San Francisco.

Pentagonul a amenințat și cu Legea Producției de Apărare — o lege din epoca Războiului Rece concepută pentru a rechiziționa fabrici pentru producția din timpul războiului. Oțelării. Fabrici de muniții. Infrastructura fizică a războiului.

Pentagonul a amenințat să o folosească pentru a forța o companie de software să elimine caracteristicile de siguranță dintr-un chatbot de inteligență artificială.

Experții legali au numit aplicarea „discutabilă". Legea a fost construită pentru producția fizică, nu pentru restricții de software. Utilizarea ei pentru a obliga o companie să-și facă inteligența artificială mai puțin sigură ar fi, cel puțin, o teorie juridică nouă.

Amodei a identificat problema logică în declarația sa:

Nu poți numi o tehnologie o amenințare la adresa lanțului de aprovizionare și să invoci puteri de urgență pentru a o confisca pentru că nu poți funcționa fără ea. Alege una.

Rezultatul practic este revelator. CBS News a raportat că Claude rămâne în uz militar activ. În ciuda listei negre. Desemnarea a fost punitivă, nu practică — tehnologia era prea încorporată pentru a fi smulsă.

Ceea ce ridică o întrebare la care nimeni din Washington nu pare dornic să răspundă: dacă Pentagonul nu poate impune un ordin de eliminare pentru tehnologia pe care a pus-o oficial pe lista neagră, cum exact va impune măsurile de protecție pentru utilizare?

Poziția Pentagonului este directă. Companiile private nu stabilesc politica militară. Firmele de inteligență artificială sunt furnizori. Armata decide cum sunt folosite instrumentele sale.

Din această perspectivă, Anthropic era un furnizor care a refuzat să livreze ceea ce a fost comandat. Clientul a găsit un alt furnizor.

Această încadrare este internă consecventă. Este și încadrarea pe care ai folosi-o pentru rechizite de birou. Nu pentru tehnologia care a ales escaladarea nucleară în 95% din simulări.

Sunt Măsurile de Protecție Reale?

Vineri, acordul OpenAI avea măsuri de protecție. Până luni, avea nevoie de mai multe măsuri de protecție.

Asta îți spune ceva despre măsurile de protecție de vineri.

Limbajul la care Altman a fost de acord în amendamentul de luni merită citit cu atenție:

Cuvântul care face treaba grea: intenționat.

Ce se întâmplă când o inteligență artificială procesează un set de date care include incidental americani? Ce se întâmplă dacă supravegherea este un subprodus al unei operațiuni de informații mai largi, nu obiectivul declarat? Cine definește intenția într-o rețea clasificată unde mecanismele de supraveghere sunt, prin design, limitate?

Clauza privind datele achiziționate comercial este și mai revelatoare. Amendamentul de luni interzice în mod explicit utilizarea datelor personale achiziționate — urmărirea locației, istoricul de navigare, înregistrările financiare — pentru supravegherea americanilor.

Această clauză a fost adăugată luni. Acordul de vineri nu o includea.

Pentru un întreg weekend, acordul OpenAI cu Pentagonul permitea tehnic supravegherea în masă prin date achiziționate comercial despre cetățenii americani.

Altman a recunoscut acest lucru:

Excepția NSA merită examinată și ea. Agențiile de informații precum NSA nu pot folosi sistemul OpenAI fără o „modificare ulterioară" a contractului. Asta sună ca o interdicție. De fapt este un proces. Mecanismul de acordare a accesului este încorporat în structura contractului.

Acesta nu este un perete. Este o ușă cu o cheie diferită.

Problema mai profundă este contradicția generală. În aceeași zi în care Altman a postat despre principii și măsuri de protecție pe X, a spus angajaților intern că OpenAI „nu poate alege cum îi folosește armata tehnologia."

Dacă compania care construiește inteligența artificială nu poate alege cum este folosită, măsurile de protecție sunt un comunicat de presă. Nu o politică.

În medii clasificate, monitorizarea inteligenței artificiale este fundamental diferită de monitorizarea unui serviciu cloud. Aparatul de securitate care protejează secretele militare blochează și supravegherea independentă a comportamentului inteligenței artificiale.

Inginerii implementați pe teren pot urmări unele interacțiuni. Dar „unele interacțiuni" și „fiecare interacțiune pe care o acoperă contractul" sunt lucruri foarte diferite.

Ce Urmează

Piața a vorbit. Cooperarea obține contracte. Rezistența este pusă pe lista neagră.

Publicul a vorbit și el. Dezinstalează.

Structura de stimulente este clară. OpenAI a cooperat și a obținut contractul. Anthropic a rezistat și a fost desemnat ca risc al lanțului de aprovizionare — aceeași etichetă pe care guvernul o folosește pentru companii legate de adversari străini.

La summit-ul a16z, Karp a prezis că fiecare companie de inteligență artificială va lucra cu armata în trei ani. Pe baza stimulentelor, aceasta nu este o predicție. Este o descriere.

Dar cifrele reacției adverse spun o poveste diferită.

Creșterea de 295% a dezinstalărilor. Claude pe locul 1 în șapte țări. Peste 500 de angajați din tehnologie rupând rândurile cu angajatorii lor. Le Monde editând din Paris despre excesul guvernamental. Sondaje care arată că 84% dintre cetățenii britanici sunt îngrijorați de parteneriatele de inteligență artificială guvern-corporații.

Inginerii care construiesc aceste sisteme și oamenii care le folosesc văd ceva ce Pentagonul aparent nu: susținerea apărării naționale și implementarea tehnologiei nesigure pentru uciderea autonomă nu sunt același lucru.

Niciun amendament la contract nu acoperă acest decalaj. Nicio măsură de protecție nu îl acoperă. Niciun inginer implementat pe teren nu îl acoperă.

Modelele de inteligență artificială au ales escaladarea nucleară în 95% din simulările de jocuri de război. Compania care a spus „tehnologia nu este încă gata" a fost pusă pe lista neagră. Compania care a spus „da" a recunoscut în 72 de ore că a fost neglijentă. Tehnologia rămâne implementată în operațiuni active indiferent de ceea ce și-a dorit oricare dintre companii.

Amodei a oferit să facă cercetare și dezvoltare pentru a face armele autonome de inteligență artificială sigure și fiabile. A oferit să colaboreze cu Pentagonul pentru a ajunge acolo. Oferta a fost refuzată.

Anthropic avea un contract de 200 de milioane de dolari și încrederea Pentagonului. Apoi au întrebat cum era folosită tehnologia lor.

Răspunsul a fost un termen limită, o listă neagră și o etichetă rezervată anterior adversarilor Americii.

Simulările continuă să ruleze. În 95% dintre ele, cineva apasă butonul.

Divulgare: Acest articol a fost editat de Diego Almada Lopez. Pentru mai multe informații despre cum creăm și revizuim conținutul, consultați Politica noastră editorială.

Sursă: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează crypto.news@mexc.com pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.