Se raportează că armata SUA s-a bazat pe Claude AI de la Anthropic în timpul unei lovituri aeriene majore în Iran, o evoluție care a apărut la doar câteva ore după ce președintele Donald Trump a ordonat agențiilor federale să oprească utilizarea modelului. Comandamentele din regiune, inclusiv CENTCOM, au utilizat Claude pentru a sprijini analiza informațiilor, verificarea țintelor și simulările de pe câmpul de luptă. Episodul evidențiază cât de profund au fost integrate instrumentele AI în operațiunile de apărare, chiar și în condițiile în care factorii de decizie politică insistă să întrerupă relațiile cu anumiți furnizori. Episodul subliniază tensiunea dintre directivele executive și automatizarea de la fața locului, care ar putea influența achizițiile și gestionarea riscurilor în cadrul programelor de apărare.
<li Anthropic obținuse anterior un contract cu Pentagonul pe mai mulți ani în valoare de până la 200 de milioane de dolari, cu colaborări care implică Palantir și Amazon Web Services pentru a permite fluxuri de lucru clasificate pentru Claude.
<li Administrația Trump a instruit agențiile să înceteze colaborarea cu Anthropic și a ordonat Departamentului Apărării să trateze compania ca un potențial risc de securitate după ce negocierile contractuale au eșuat în privința utilizării militare nelimitate.
<li Pentagonul a început să identifice furnizori de înlocuire și s-a mutat să implementeze alte modele AI pe rețele clasificate, inclusiv o colaborare cu OpenAI pentru astfel de implementări.
<li CEO-ul Anthropic, Dario Amodei, a ripostat public împotriva interdicției, argumentând că anumite aplicații militare trec peste granițele etice și ar trebui să rămână sub supraveghere umană, mai degrabă decât sub supraveghere automatizată de masă sau armament autonom.
Sentiment: Neutru
Context de piață: Episodul se situează la intersecția dintre achiziții de apărare, etică AI și gestionarea riscurilor de securitate națională, pe măsură ce agențiile reevaluează dependențele de furnizori și clasificarea instrumentelor AI pentru operațiuni sensibile.
Incidentul oferă o perspectivă rară asupra modului în care modelele AI comerciale sunt integrate în fluxurile de lucru militare cu miză mare. Claude, conceput inițial pentru sarcini cognitive ample, a sprijinit analiza informațiilor și modelarea scenariilor de pe câmpul de luptă, sugerând un nivel de încredere operațională care se extinde dincolo de mediile de laborator în misiuni din lumea reală. Acest lucru ridică întrebări importante despre fiabilitatea, auditarea și controlabilitatea AI în planificarea de luptă, mai ales când semnalele politicii guvernamentale se schimbă rapid în jurul utilizării furnizorilor.
La nivel de politici, fricțiunea dintre o relație contractuală și o directivă prezidențială evidențiază o dezbatere mai largă despre modul în care furnizorii de AI ar trebui tratați în medii securizate. Refuzul Anthropic de a acorda utilizare militară nelimitată se aliniază cu limitele sale etice declarate, semnalând că furnizorii din sectorul privat pot riposta din ce în ce mai mult împotriva configurațiilor pe care le consideră problematice din punct de vedere etic. Răspunsul Pentagonului - orientarea către furnizori alternativi pentru sarcini clasificate - ilustrează modul în care departamentele de apărare pot diversifica ecosistemele AI pentru a reduce expunerea la risc, menținând în același timp capacitatea în operațiuni sensibile.
Tensiunea atinge, de asemenea, dinamica competitivă a pieței AI-ca-serviciu. Cu OpenAI care ar intra în scenă pentru a furniza modele pentru rețele clasificate, sectorul va fi probabil martorul continuării experimentării și renegocierii termenilor în jurul clasificărilor de securitate, guvernanței datelor și riscului lanțului de aprovizionare. Situația subliniază necesitatea unor cadre de guvernanță riguroase care să se poată adapta la schimbările tehnologice rapide fără a compromite securitatea operațională sau standardele etice.
Oficialii au descris Claude ca jucând un rol în analiza informațiilor și planificarea operațională în timpul unei lovituri aeriene majore în Iran, o afirmație care ilustrează cât de aproape s-au mutat instrumentele AI de luarea deciziilor pe câmpul de luptă. În timp ce administrația Trump s-a mutat să rupă legăturile cu Anthropic, utilizarea operațională a Claude ar fi persistat în anumite comandamente, subliniind o deconectare între declarațiile de politică și fluxurile de lucru de apărare de zi cu zi. Realitatea practică este că analizele conduse de AI, simulările și evaluările de risc pot aluneca în planificarea misiunilor chiar și în condițiile în care agențiile reevaluează riscul furnizorilor și cerințele de conformitate în toate departamentele.
Angajamentul anterior al Pentagonului cu Anthropic a fost substanțial: un contract pe mai mulți ani evaluat la până la 200 de milioane de dolari și o rețea de parteneriate, inclusiv Palantir și Amazon Web Services, care au permis utilizarea Claude în gestionarea informațiilor clasificate și procesarea informațiilor. Aranjamentul a evidențiat o strategie mai largă: diversificarea capacităților AI într-un ecosistem de încredere pentru a asigura reziliența în medii sensibile. Totuși, când direcțiile politicii s-au schimbat, administrația s-a mutat să recadreze relația cu furnizorul, semnalând o recalibrare bazată pe risc, mai degrabă decât o retragere totală din operațiunile de apărare activate de AI.
În culise, tensiunile dintre politica publică și etica sectorului privat au ieșit la suprafață. Secretarul Apărării Pete Hegseth ar fi făcut presiuni asupra Anthropic pentru a permite utilizarea militară nelimitată a modelelor sale, o cerere pe care conducerea Anthropic a respins-o ca trecând peste liniile etice pe care compania nu le-ar trece. Poziția firmei se centrează pe convingerea că anumite utilizări - supravegherea în masă internă și armele complet autonome - ridică preocupări etice și juridice profunde și că supravegherea umană semnificativă ar trebui să supraviețuiască tranziției de la concept la execuție. Această poziție se aliniază cu dezbaterile în curs despre modul de a echilibra adoptarea rapidă a AI cu măsuri de protecție împotriva abuzului și consecințelor neintenționate.
Din partea sa, Pentagonul nu a stat pe loc. Confruntându-se cu o potențială lipsă de furnizori, a început să alinieze înlocuitori și ar fi ajuns la un acord cu OpenAI pentru a implementa modele pe rețele clasificate. Schimbarea subliniază o mișcare strategică mai largă pentru a asigura continuitatea capacității, chiar și în condițiile în care furnizorii reevaluează termenii lor pentru implementări sensibile. Contrastul dintre limitele etice ale Anthropic și nevoile operaționale ale departamentului dezvăluie o tensiune de politici mai largă: cum să valorifice tehnologia transformatoare în mod responsabil, păstrând în același timp imperativele de securitate națională.
Observatorii din industrie au remarcat, de asemenea, efectele de ecosistem ale unor astfel de tranziții. Piața AI evoluează către configurații mai modulare, autorizate din punct de vedere al securității, care pot fi schimbate sau actualizate pe măsură ce politica și evaluările de risc se schimbă. Aranjamentul OpenAI, în special, semnalează apetitul continuu pentru integrarea modelelor de vârf în rețelele de apărare, deși sub guvernanță și supraveghere stricte. În timp ce această traiectorie promite capacități îmbunătățite pentru analiștii și planificatorii militari, ridică, de asemenea, examinarea în jurul gestionării datelor, interpretabilității modelului și riscului de dependență excesivă de sistemele automatizate pentru decizii critice.
CEO-ul Anthropic, Dario Amodei, a argumentat că, deși AI poate augmenta judecata umană, nu o poate înlocui în deciziile de apărare de bază. În observații publice, a reafirmat angajamentul companiei față de limitele etice și menținerea controlului uman în momente pivotante. Tensiunea dintre menținerea accesului la instrumente de ultimă generație și respectarea standardelor etice este probabil să modeleze negocierile viitoare cu agențiile federale, în special pe măsură ce legislatorii și autorități de reglementare examinează rolul AI în contextele civile și de securitate națională.
Pe măsură ce peisajul evoluează, comunitățile mai largi crypto și tech vor urmări modul în care aceste dinamici de politici și achiziții influențează dezvoltarea și implementarea sistemelor AI avansate în medii cu miză mare. Episodul servește ca studiu de caz în echilibrarea progresului tehnologic rapid cu guvernanța, supravegherea și întrebarea persistentă despre unde se termină responsabilitatea umană și unde începe luarea deciziilor automatizate.
Acest articol a fost publicat inițial ca US military used Anthropic for Iran strike despite Trump's ban: WSJ pe Crypto Breaking News – sursa ta de încredere pentru știri crypto, știri Bitcoin și actualizări blockchain.
<html>
<head>
</head>
<body>
<div>
<div>
<div>
<div>
A doua navă ar fi fost atacată în apropierea Strâmtorii Hormuz, pe fondul incendierii mai multor nave
Se raportează că o a doua navă a fost supusă

