Acest articol examinează modul în care măsurile de protecție ale inteligenței artificiale antropice intră în conflict cu cerințele Pentagonului, limitele autonomiei și implicațiile de supraveghere ale IA de apărare.Acest articol examinează modul în care măsurile de protecție ale inteligenței artificiale antropice intră în conflict cu cerințele Pentagonului, limitele autonomiei și implicațiile de supraveghere ale IA de apărare.

Confruntarea cu Pentagonul pune în pericol măsurile de siguranță AI ale Anthropic și contractul de apărare de 200 milioane dolari

2026/02/27 20:13
6 min de lectură
anthropic ai

Tensiunea crescândă între un laborator principal de inteligență artificială și instituțiile de apărare ale SUA a escaladat într-un conflict major privind anthropic ai și utilizarea pe câmpul de luptă.

Anthropic rezistă ferm presiunii Pentagonului

Anthropic a refuzat cererile Departamentului Apărării SUA de a elimina limitele cheie de siguranță AI din sistemele sale, chiar dacă contractul său de 200 de milioane de dolari este acum în pericol. Compania a lămurit că nu va ceda în disputa sa cu DoD cu privire la modul în care modelele sale avansate pot fi implementate în rețelele militare.

Rivalii startup-ului OpenAI, Google și xAI au obținut contracte similare cu DoD de până la 200 de milioane de dolari în 2023. Cu toate acestea, acele companii au fost de acord să permită Pentagonului să utilizeze sistemele lor pentru toate misiunile legale în mediile neclasificate ale armatei, oferind guvernului o flexibilitate operațională mai largă.

În schimb, Anthropic a semnat propriul contract de 200 de milioane de dolari cu DoD în iulie și a devenit primul laborator AI care și-a integrat direct modelele în fluxurile de lucru ale misiunilor pe rețele clasificate. Mai mult, instrumentele sale au fost integrate în operațiuni de apărare sensibile, plasând compania în centrul construcției AI pentru securitatea națională a SUA.

Negocierile cu oficialii Pentagonului au devenit din ce în ce mai tensionate în ultimele săptămâni. O persoană familiarizată cu discuțiile a spus că frecarea "datează de câteva luni", cu mult înainte ca să devină public faptul că Claude a fost folosit într-o operațiune SUA legată de capturarea președintelui venezuelean Nicolás Maduro.

Dispută privind supravegherea și armele autonome

În centrul confruntării se află cât de departe pot împinge autoritățile militare modelele AI puternice către supraveghere și autonomie. Anthropic solicită asigurări obligatorii că tehnologia sa nu va fi utilizată pentru arme complet autonome sau pentru supravegherea în masă a americanilor, în timp ce DoD dorește să evite astfel de limite.

Acestea fiind spuse, aceasta nu este o dezacord comercial restrâns, ci o dispută de profil înalt privind garanțiile AI cu implicații directe pentru viitoarea automatizare a câmpului de luptă. Pentagonul insistă asupra unei latitudini legale maxime, în timp ce Anthropic argumentează că sistemele actuale nu pot fi încă încredințate cu decizii de viață și moarte la scară largă.

Într-o declarație detaliată, CEO-ul Dario Amodei a avertizat că într-un "set restrâns de cazuri" inteligența artificială poate "submina, mai degrabă decât să apere, valorile democratice". El a subliniat că unele aplicații sunt "pur și simplu în afara limitelor a ceea ce tehnologia de astăzi poate face în siguranță și fiabil", evidențiind riscurile de utilizare greșită în timpul operațiunilor militare complexe.

Extinzându-se asupra preocupărilor legate de supraveghere, Amodei a argumentat că sistemele puternice fac acum posibil să "asambleze aceste date dispersate, individual inofensive, într-o imagine cuprinzătoare a vieții oricărei persoane, automat și la scară masivă". Mai mult, el a avertizat că o astfel de capacitate, dacă este îndreptată spre interior, ar putea remodela fundamental relația dintre cetățeni și stat.

Amodei a reiterat că Anthropic susține utilizarea AI pentru colectarea legală de informații externe. Cu toate acestea, el a adăugat că "utilizarea acestor sisteme pentru supravegherea în masă internă este incompatibilă cu valorile democratice", trasând o linie etică clară între informațiile externe și monitorizarea internă a persoanelor din SUA.

Amenințări, termene limită și presiune juridică

Lupta de putere s-a intensificat în timpul unei întâlniri de marți la Pentagon între Amodei și secretarul apărării Pete Hegseth. Hegseth a amenințat să eticheteze Anthropic drept "risc pentru lanțul de aprovizionare" sau să invoce Legea Producției de Apărare pentru a impune conformitatea. Miercuri seara, DoD a livrat ceea ce a numit "ultima și finala ofertă", acordând companiei până la 17:01 ora ET vineri pentru a răspunde.

O purtătoare de cuvânt Anthropic a recunoscut primirea formulării revizuite a contractului miercuri, dar a spus că aceasta reprezenta "practic niciun progres". Conform acesteia, noua formulare prezentată ca un compromis a fost asociată cu o formulare juridică care ar permite efectiv ca garanțiile critice să "fie ignorate după voință", subminând protecțiile declarate.

Abordând presiunea crescândă, Amodei a spus: "Departamentul Apărării a declarat că va contracta doar cu companiile AI care acceptă 'orice utilizare legală' și elimină garanțiile în cazurile menționate mai sus". El a adăugat că oficialii au amenințat să elimine Anthropic din sistemele lor și să desemneze firma drept "risc pentru lanțul de aprovizionare" dacă aceasta refuză; cu toate acestea, a insistat, "nu putem în cunoștință de cauză să acceptăm cererea lor".

Pentru Pentagon, problema este încadrată diferit. Purtătorul principal de cuvânt Sean Parnell a declarat joi că DoD nu are "niciun interes" să utilizeze sistemele Anthropic pentru arme complet autonome sau să efectueze supravegherea în masă a americanilor, menționând că astfel de practici ar fi ilegale. În schimb, el a susținut că departamentul dorește pur și simplu ca compania să permită utilizarea tehnologiei sale pentru "toate scopurile legale", descriind aceasta ca o "cerere simplă, de bun simț".

Atacuri personale și sprijin public

Disputa a devenit, de asemenea, personală la niveluri superioare. Joi seară, subsecretarul de stat american pentru apărare Emil Michael l-a atacat pe Amodei pe X, susținând că executivul "nu dorește nimic mai mult decât să încerce să controleze personal armata SUA". Michael a mers mai departe, scriind: "Este o rușine că Dario Amodei este un mincinos și are un complex de Dumnezeu".

Cu toate acestea, Anthropic a câștigat sprijin semnificativ din părți ale sectorului tehnologic. Într-o scrisoare deschisă, mai mult de 200 de angajați de la Google și OpenAI au susținut public poziția companiei. Mai mult, un fost oficial DoD a declarat pentru BBC că justificarea lui Hegseth pentru utilizarea etichetei "risc pentru lanțul de aprovizionare" părea "extrem de fragilă", ridicând întrebări cu privire la soliditatea argumentației Pentagonului.

Confruntarea a devenit, de asemenea, un punct de referință în dezbaterea mai largă privind politica eticii AI militare. Cercetătorii AI și susținătorii libertăților civile urmăresc îndeaproape, văzând cazul ca un test timpuriu al cât de departe pot împinge agențiile de apărare laboratoarele private să relaxeze restricțiile încorporate asupra sistemelor avansate.

Mize strategice pentru AI de apărare SUA

În ciuda retoricii în creștere, Amodei a subliniat că este "profund convins de importanța existențială a utilizării AI pentru a apăra Statele Unite". El a încadrat problema ca fiind una de implementare responsabilă, nu de opoziție față de apărarea națională, argumentând că credibilitatea pe termen lung a capacităților AI ale SUA depinde de respectarea normelor democratice.

Un reprezentant al Anthropic a declarat că organizația rămâne "pregătită să continue discuțiile și angajată pentru continuitatea operațională pentru Departament și luptătorii Americii". Cu toate acestea, cu cronometrul termenului limită al Pentagonului apropiindu-se și amenințările unei desemnări ca risc pentru lanțul de aprovizionare încă pe masă, ambele părți se confruntă cu presiunea de a rezolva impasul fără a deraia inovația critică.

În cele din urmă, confruntarea Anthropic-Pentagon privind garanțiile, supravegherea și autonomia a devenit un caz definitoriu timpuriu în guvernanța AI militară. Rezultatul său va modela probabil modul în care viitoarele modele anthropic ai și sistemele rivale sunt contractate, constrânse și implementate în operațiunile de apărare ale SUA.

Oportunitate de piață
Logo Clash
Pret Clash (CLASH)
$0,030856
$0,030856$0,030856
-%0,27
USD
Clash (CLASH) graficul prețurilor în timp real
Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează crypto.news@mexc.com pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.