Armata SUA s-a bazat reportedly pe AI-ul Claude de la Anthropic în timpul unui atac aerian major în Iran, o evoluție care a apărut la doar câteva ore după ce președintele Donald TrumpArmata SUA s-a bazat reportedly pe AI-ul Claude de la Anthropic în timpul unui atac aerian major în Iran, o evoluție care a apărut la doar câteva ore după ce președintele Donald Trump

Armata SUA a folosit Anthropic pentru lovitura asupra Iranului în ciuda interdicției lui Trump: WSJ

2026/03/01 19:49
8 min de lectură
Armata SUA a folosit Anthropic pentru lovitura în Iran în ciuda interdicției lui Trump: WSJ

Se raportează că armata SUA s-a bazat pe Claude AI de la Anthropic în timpul unei lovituri aeriene majore în Iran, o evoluție care a apărut la doar câteva ore după ce președintele Donald Trump a ordonat agențiilor federale să oprească utilizarea modelului. Comandamentele din regiune, inclusiv CENTCOM, au utilizat Claude pentru a sprijini analiza informațiilor, verificarea țintelor și simulările de pe câmpul de luptă. Episodul evidențiază cât de profund au fost integrate instrumentele AI în operațiunile de apărare, chiar și în condițiile în care factorii de decizie politică insistă să întrerupă relațiile cu anumiți furnizori. Episodul subliniază tensiunea dintre directivele executive și automatizarea de la fața locului, care ar putea influența achizițiile și gestionarea riscurilor în cadrul programelor de apărare.

Puncte cheie

  • <li Claude AI a fost implementat pentru analiza informațiilor, verificarea țintelor și simulările de pe câmpul de luptă în legătură cu o lovitură aeriană majoră, la câteva ore după o directivă de la Casa Albă de a întrerupe utilizarea sistemului.
  • <li Anthropic obținuse anterior un contract cu Pentagonul pe mai mulți ani în valoare de până la 200 de milioane de dolari, cu colaborări care implică Palantir și Amazon Web Services pentru a permite fluxuri de lucru clasificate pentru Claude.

  • <li Administrația Trump a instruit agențiile să înceteze colaborarea cu Anthropic și a ordonat Departamentului Apărării să trateze compania ca un potențial risc de securitate după ce negocierile contractuale au eșuat în privința utilizării militare nelimitate.

  • <li Pentagonul a început să identifice furnizori de înlocuire și s-a mutat să implementeze alte modele AI pe rețele clasificate, inclusiv o colaborare cu OpenAI pentru astfel de implementări.

  • <li CEO-ul Anthropic, Dario Amodei, a ripostat public împotriva interdicției, argumentând că anumite aplicații militare trec peste granițele etice și ar trebui să rămână sub supraveghere umană, mai degrabă decât sub supraveghere automatizată de masă sau armament autonom.

Sentiment: Neutru

Context de piață: Episodul se situează la intersecția dintre achiziții de apărare, etică AI și gestionarea riscurilor de securitate națională, pe măsură ce agențiile reevaluează dependențele de furnizori și clasificarea instrumentelor AI pentru operațiuni sensibile.

De ce contează

Incidentul oferă o perspectivă rară asupra modului în care modelele AI comerciale sunt integrate în fluxurile de lucru militare cu miză mare. Claude, conceput inițial pentru sarcini cognitive ample, a sprijinit analiza informațiilor și modelarea scenariilor de pe câmpul de luptă, sugerând un nivel de încredere operațională care se extinde dincolo de mediile de laborator în misiuni din lumea reală. Acest lucru ridică întrebări importante despre fiabilitatea, auditarea și controlabilitatea AI în planificarea de luptă, mai ales când semnalele politicii guvernamentale se schimbă rapid în jurul utilizării furnizorilor.

La nivel de politici, fricțiunea dintre o relație contractuală și o directivă prezidențială evidențiază o dezbatere mai largă despre modul în care furnizorii de AI ar trebui tratați în medii securizate. Refuzul Anthropic de a acorda utilizare militară nelimitată se aliniază cu limitele sale etice declarate, semnalând că furnizorii din sectorul privat pot riposta din ce în ce mai mult împotriva configurațiilor pe care le consideră problematice din punct de vedere etic. Răspunsul Pentagonului - orientarea către furnizori alternativi pentru sarcini clasificate - ilustrează modul în care departamentele de apărare pot diversifica ecosistemele AI pentru a reduce expunerea la risc, menținând în același timp capacitatea în operațiuni sensibile.

Tensiunea atinge, de asemenea, dinamica competitivă a pieței AI-ca-serviciu. Cu OpenAI care ar intra în scenă pentru a furniza modele pentru rețele clasificate, sectorul va fi probabil martorul continuării experimentării și renegocierii termenilor în jurul clasificărilor de securitate, guvernanței datelor și riscului lanțului de aprovizionare. Situația subliniază necesitatea unor cadre de guvernanță riguroase care să se poată adapta la schimbările tehnologice rapide fără a compromite securitatea operațională sau standardele etice.

Ce urmează

  • Actualizări de reglementare și politici de la Departamentul Apărării și Casa Albă în ceea ce privește utilizarea furnizorilor de AI și clasificările de securitate.
  • Orice achiziții sau parteneriate noi care extind capacitățile AI pentru misiuni clasificate, inclusiv acorduri potențiale cu furnizori alternativi pentru a înlocui sau suplimenta ofertele Anthropic.
  • Declarații publice de la Anthropic și OpenAI despre natura implementărilor pe rețele securizate și orice noi restricții sau măsuri de protecție.
  • Detalii suplimentare despre rezultatul negocierilor anterioare privind utilizarea nelimitată și modul în care acestea vor modela viitoarea contractare de apărare cu furnizorii de AI.

Surse și verificare

  • Rapoarte despre utilizarea Claude într-o operațiune din Orientul Mijlociu și ordinul de oprire al administrației, inclusiv dovezi discutate cu surse familiarizate cu problema.
  • Informații de fond despre contractul Anthropic cu Pentagonul, inclusiv aranjamentul pe mai mulți ani în valoare de până la 200 de milioane de dolari și parteneriatele cu Palantir și AWS pentru fluxuri de lucru clasificate.
  • Declarații ale conducerii Anthropic și comentarii publice privind utilizarea militară și limitele etice, inclusiv interviuri și răspunsuri oficiale la acțiuni de reglementare.
  • Implementarea OpenAI pe rețele clasificate și discuții conexe, inclusiv discursul public în jurul unui acord cu armata SUA și acoperirea asociată.
  • Discuții publice și referințe pe rețelele sociale conectate la aranjamentul OpenAI cu armata, cum ar fi postări care documentează reacțiile industriei.

Claude de la Anthropic în vizor: AI, etică și politică se ciocnesc în operațiunile de apărare

Oficialii au descris Claude ca jucând un rol în analiza informațiilor și planificarea operațională în timpul unei lovituri aeriene majore în Iran, o afirmație care ilustrează cât de aproape s-au mutat instrumentele AI de luarea deciziilor pe câmpul de luptă. În timp ce administrația Trump s-a mutat să rupă legăturile cu Anthropic, utilizarea operațională a Claude ar fi persistat în anumite comandamente, subliniind o deconectare între declarațiile de politică și fluxurile de lucru de apărare de zi cu zi. Realitatea practică este că analizele conduse de AI, simulările și evaluările de risc pot aluneca în planificarea misiunilor chiar și în condițiile în care agențiile reevaluează riscul furnizorilor și cerințele de conformitate în toate departamentele.

Angajamentul anterior al Pentagonului cu Anthropic a fost substanțial: un contract pe mai mulți ani evaluat la până la 200 de milioane de dolari și o rețea de parteneriate, inclusiv Palantir și Amazon Web Services, care au permis utilizarea Claude în gestionarea informațiilor clasificate și procesarea informațiilor. Aranjamentul a evidențiat o strategie mai largă: diversificarea capacităților AI într-un ecosistem de încredere pentru a asigura reziliența în medii sensibile. Totuși, când direcțiile politicii s-au schimbat, administrația s-a mutat să recadreze relația cu furnizorul, semnalând o recalibrare bazată pe risc, mai degrabă decât o retragere totală din operațiunile de apărare activate de AI.

În culise, tensiunile dintre politica publică și etica sectorului privat au ieșit la suprafață. Secretarul Apărării Pete Hegseth ar fi făcut presiuni asupra Anthropic pentru a permite utilizarea militară nelimitată a modelelor sale, o cerere pe care conducerea Anthropic a respins-o ca trecând peste liniile etice pe care compania nu le-ar trece. Poziția firmei se centrează pe convingerea că anumite utilizări - supravegherea în masă internă și armele complet autonome - ridică preocupări etice și juridice profunde și că supravegherea umană semnificativă ar trebui să supraviețuiască tranziției de la concept la execuție. Această poziție se aliniază cu dezbaterile în curs despre modul de a echilibra adoptarea rapidă a AI cu măsuri de protecție împotriva abuzului și consecințelor neintenționate.

Din partea sa, Pentagonul nu a stat pe loc. Confruntându-se cu o potențială lipsă de furnizori, a început să alinieze înlocuitori și ar fi ajuns la un acord cu OpenAI pentru a implementa modele pe rețele clasificate. Schimbarea subliniază o mișcare strategică mai largă pentru a asigura continuitatea capacității, chiar și în condițiile în care furnizorii reevaluează termenii lor pentru implementări sensibile. Contrastul dintre limitele etice ale Anthropic și nevoile operaționale ale departamentului dezvăluie o tensiune de politici mai largă: cum să valorifice tehnologia transformatoare în mod responsabil, păstrând în același timp imperativele de securitate națională.

Observatorii din industrie au remarcat, de asemenea, efectele de ecosistem ale unor astfel de tranziții. Piața AI evoluează către configurații mai modulare, autorizate din punct de vedere al securității, care pot fi schimbate sau actualizate pe măsură ce politica și evaluările de risc se schimbă. Aranjamentul OpenAI, în special, semnalează apetitul continuu pentru integrarea modelelor de vârf în rețelele de apărare, deși sub guvernanță și supraveghere stricte. În timp ce această traiectorie promite capacități îmbunătățite pentru analiștii și planificatorii militari, ridică, de asemenea, examinarea în jurul gestionării datelor, interpretabilității modelului și riscului de dependență excesivă de sistemele automatizate pentru decizii critice.

CEO-ul Anthropic, Dario Amodei, a argumentat că, deși AI poate augmenta judecata umană, nu o poate înlocui în deciziile de apărare de bază. În observații publice, a reafirmat angajamentul companiei față de limitele etice și menținerea controlului uman în momente pivotante. Tensiunea dintre menținerea accesului la instrumente de ultimă generație și respectarea standardelor etice este probabil să modeleze negocierile viitoare cu agențiile federale, în special pe măsură ce legislatorii și autorități de reglementare examinează rolul AI în contextele civile și de securitate națională.

Pe măsură ce peisajul evoluează, comunitățile mai largi crypto și tech vor urmări modul în care aceste dinamici de politici și achiziții influențează dezvoltarea și implementarea sistemelor AI avansate în medii cu miză mare. Episodul servește ca studiu de caz în echilibrarea progresului tehnologic rapid cu guvernanța, supravegherea și întrebarea persistentă despre unde se termină responsabilitatea umană și unde începe luarea deciziilor automatizate.

Acest articol a fost publicat inițial ca US military used Anthropic for Iran strike despite Trump's ban: WSJ pe Crypto Breaking News – sursa ta de încredere pentru știri crypto, știri Bitcoin și actualizări blockchain.

Oportunitate de piață
Logo StrikeBit AI
Pret StrikeBit AI (STRIKE)
$0.006262
$0.006262$0.006262
-0.06%
USD
StrikeBit AI (STRIKE) graficul prețurilor în timp real
Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează crypto.news@mexc.com pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.