Narastające napięcie między wiodącym laboratorium sztucznej inteligencji a amerykańskim establishmentem obronnym przerodziło się w konflikt wysokiej stawki dotyczący anthropic ai i zastosowań bojowych.
Anthropic odmówił spełnienia żądań Departamentu Obrony USA dotyczących usunięcia kluczowych zabezpieczeń AI ze swoich systemów, mimo że jego kontrakt o wartości 200 milionów dolarów jest teraz zagrożony. Firma jasno zaznaczyła, że nie cofnie się w sporze z DoD dotyczącym sposobu wdrażania jej zaawansowanych modeli w sieciach wojskowych.
Rywale startupu OpenAI, Google i xAI zdobyli podobne kontrakty DoD o wartości do 200 milionów dolarów w 2023 roku. Jednak te firmy zgodziły się pozwolić Pentagonowi wykorzystywać ich systemy do wszystkich legalnych misji w niejawnych środowiskach wojskowych, dając rządowi szerszą elastyczność operacyjną.
W przeciwieństwie do nich, Anthropic podpisał własną umowę o wartości 200 milionów dolarów z DoD w lipcu i stał się pierwszym laboratorium AI, które osadzało swoje modele bezpośrednio w przepływach pracy misji w sieciach klasyfikowanych. Co więcej, jego narzędzia zostały zintegrowane z wrażliwymi operacjami obronnymi, stawiając firmę w centrum budowy AI dla bezpieczeństwa narodowego USA.
Negocjacje z urzędnikami Pentagonu stały się coraz bardziej napięte w ostatnich tygodniach. Osoba zaznajomiona z rozmowami powiedziała, że tarcia "sięgają kilku miesięcy wstecz", na długo przed tym, zanim stało się publiczne, że Claude został wykorzystany w operacji USA związanej z schwytaniem wenezuelskiego prezydenta Nicolása Maduro.
W centrum konfliktu leży kwestia, jak daleko władze wojskowe mogą posunąć potężne modele AI w kierunku nadzoru i autonomii. Anthropic domaga się wiążących zapewnień, że jego technologia nie będzie wykorzystywana do w pełni autonomicznej broni ani do masowej krajowej inwigilacji Amerykanów, podczas gdy DoD chce uniknąć takich ograniczeń.
To nie jest wąski spór handlowy, ale głośny spór o zabezpieczenia AI z bezpośrednimi konsekwencjami dla przyszłej automatyzacji pola bitwy. Pentagon nalega na maksymalną swobodę prawną, podczas gdy Anthropic twierdzi, że obecne systemy nie mogą być jeszcze zaufane w podejmowaniu decyzji o życiu i śmierci na dużą skalę.
W szczegółowym oświadczeniu, CEO Dario Amodei ostrzegł, że w "wąskim zestawie przypadków" sztuczna inteligencja może "podkopywać, a nie bronić wartości demokratycznych". Podkreślił, że niektóre zastosowania są "po prostu poza granicami tego, co dzisiejsza technologia może bezpiecznie i niezawodnie zrobić", zwracając uwagę na ryzyko nadużyć podczas złożonych operacji wojskowych.
Rozwijając obawy dotyczące nadzoru, Amodei argumentował, że potężne systemy umożliwiają teraz "zestawienie tych rozproszonych, indywidualnie niewinnych danych w kompleksowy obraz życia każdej osoby, automatycznie i na masową skalę". Co więcej, ostrzegł, że taka możliwość, jeśli zostanie skierowana do wewnątrz, może fundamentalnie zmienić relację między obywatelami a państwem.
Amodei powtórzył, że Anthropic popiera wykorzystanie AI do legalnego zbierania wywiadu zagranicznego. Jednak dodał, że "wykorzystywanie tych systemów do masowej krajowej inwigilacji jest niezgodne z wartościami demokratycznymi", wyznaczając twardą granicę etyczną między wywiadem zagranicznym a wewnętrznym monitorowaniem obywateli USA.
Walka o władzę zintensyfikowała się podczas wtorkowego spotkania w Pentagonie między Amodei a sekretarzem obrony Pete'em Hegsethem. Hegseth groził oznaczeniem Anthropic jako "ryzyka łańcucha dostaw" lub przywołaniem ustawy o produkcji obronnej, aby wymusić zgodność. W środę wieczorem DoD dostarczył to, co nazwał swoją "ostatnią i ostateczną ofertą", dając firmie czas do 17:01 czasu wschodniego w piątek na odpowiedź.
Rzeczniczka Anthropic potwierdziła otrzymanie poprawionego języka kontraktu w środę, ale powiedziała, że reprezentował on "praktycznie żaden postęp". Według niej, nowe sformułowanie przedstawione jako kompromis zostało sparowane z frazą prawną, która skutecznie pozwalałaby krytycznym zabezpieczeniom "być ignorowanymi według woli", podkopując deklarowane ochrony.
Odnosząc się do narastającej presji, Amodei powiedział: "Departament Wojny stwierdził, że będzie zawierał kontrakty tylko z firmami AI, które zgodzą się na 'każde legalne użycie' i usuną zabezpieczenia w wyżej wymienionych przypadkach". Dodał, że urzędnicy grozili odcięciem Anthropic od ich systemów i oznaczeniem firmy jako "ryzyka łańcucha dostaw", jeśli odmówi; niemniej jednak nalegał: "nie możemy w dobrej wierze przystać na ich żądanie".
Dla Pentagonu kwestia ta jest ujęta inaczej. Główny rzecznik Sean Parnell powiedział w czwartek, że DoD "nie jest zainteresowany" wykorzystywaniem systemów Anthropic do w pełni autonomicznej broni ani do prowadzenia masowej inwigilacji Amerykanów, zauważając, że takie praktyki byłyby nielegalne. Zamiast tego utrzymywał, że departament po prostu chce, aby firma pozwoliła na wykorzystanie swojej technologii do "wszystkich legalnych celów", opisując to jako "prostą, rozsądną prośbę".
Spór przybrał również osobisty charakter na wyższych szczeblach. W czwartek wieczorem amerykański podsekretarz obrony Emil Michael zaatakował Amodei na X, twierdząc, że dyrektor "nie chce nic więcej, jak tylko próbować osobiście kontrolować armię USA". Michael poszedł dalej, pisząc: "Szkoda, że Dario Amodei jest kłamcą i ma kompleks boga".
Jednak Anthropic zyskał znaczące poparcie ze strony części sektora technologicznego. W otwartym liście ponad 200 pracowników z Google i OpenAI publicznie poparło stanowisko firmy. Co więcej, były urzędnik DoD powiedział BBC, że uzasadnienie Hegsetha dla użycia etykiety "ryzyko łańcucha dostaw" wydawało się "niezwykle wątłe", podnosząc pytania o solidność sprawy Pentagonu.
Konfrontacja stała się również kamieniem probierczym w szerszej debacie nad polityką etyki AI w wojsku. Badacze AI i obrońcy swobód obywatelskich obserwują uważnie, postrzegając sprawę jako wczesny test, jak daleko agencje obronne mogą naciskać prywatne laboratoria, aby złagodziły wbudowane ograniczenia zaawansowanych systemów.
Pomimo eskalacji retoryki, Amodei podkreślił, że jest "głęboko przekonany o egzystencjalnym znaczeniu wykorzystania AI do obrony Stanów Zjednoczonych". Przedstawił kwestię jako kwestię odpowiedzialnego wdrożenia, a nie sprzeciwu wobec obrony narodowej, argumentując, że długoterminowa wiarygodność zdolności AI USA zależy od podtrzymywania norm demokratycznych.
Przedstawiciel Anthropic powiedział, że organizacja pozostaje "gotowa do kontynuowania rozmów i zaangażowana w ciągłość operacyjną dla Departamentu i amerykańskich żołnierzy". Jednak z zegarem liczącym termin Pentagonu i groźbami oznaczenia łańcucha dostaw wciąż na stole, obie strony stoją przed presją rozwiązania impasu bez wykolejania kluczowej innowacji.
Ostatecznie, konflikt Anthropic-Pentagon dotyczący zabezpieczeń, nadzoru i autonomii stał się definiującą wczesną sprawą w zarządzaniu wojskowym AI. Jego wynik prawdopodobnie ukształtuje sposób, w jaki przyszłe modele anthropic ai i systemy konkurencyjne będą kontraktowane, ograniczane i wdrażane w operacjach obronnych USA.
