Post AI wybrało broń jądrową w 95% symulacji wojennych. Pentagon i tak chce je wdrożyć. ukazał się na BitcoinEthereumNews.com. Anthropic miał kontrakt z Pentagonem o wartości 200 mln USDPost AI wybrało broń jądrową w 95% symulacji wojennych. Pentagon i tak chce je wdrożyć. ukazał się na BitcoinEthereumNews.com. Anthropic miał kontrakt z Pentagonem o wartości 200 mln USD

AI wybrała broń jądrową w 95% symulacji wojennych. Pentagon i tak chce ją wdrożyć.

2026/03/05 05:26
12 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem crypto.news@mexc.com

Anthropic miała kontrakt z Pentagonem o wartości 200 mln USD, dostęp do sieci niejawnych i pełne zaufanie amerykańskiego wojska.

Potem zadali pytanie.

W listopadzie 2024 roku Anthropic stała się pierwszą czołową firmą AI, która wdrożyła swoje rozwiązania w sieciach niejawnych Pentagonu. Partnerstwo zostało zbudowane z Palantir. Do lipca 2025 roku kontrakt wzrósł do 200 milionów dolarów — więcej, niż większość startupów obronnych widzi w ciągu dekady.

Claude, model AI firmy Anthropic, był wszędzie. Analiza wywiadowcza. Operacje cybernetyczne. Planowanie operacyjne. Modelowanie i symulacje. Departament Wojny nazwał to „krytycznym dla misji".

Potem nadszedł styczeń 2026 roku.

Claude został użyty w tajnej operacji wojskowej w Wenezueli — schwytaniu Nicolása Maduro.

Anthropic zadało swojemu partnerowi Palantir proste pytanie: jak dokładnie została użyta nasza technologia?

W większości branż nazywa się to należytą starannością. Pentagon nazwał to niesubordynacją.

Firma, która zadała pytanie „jak wykorzystywana jest nasza AI?" miała zostać określona jako zagrożenie dla bezpieczeństwa narodowego.

Siedem dni, które zmieniły wszystko

Oto oś czasu. Idzie szybko. O to właśnie chodzi.

24 lutego: Pete Hegseth, Sekretarz Wojny, wzywa Dario Amodei — dyrektora generalnego Anthropic — do Pentagonu. Żądanie jest bezpośrednie: usuń wszystkie zabezpieczenia z Claude. Masowa inwigilacja krajowa. W pełni autonomiczna broń. Wszystko.

Termin: 27 lutego, 17:01 ET.

26 lutego: Amodei publikuje swoją odpowiedź. Ma dwie litery.

Nie.

Jego otwarte oświadczenie przedstawiło dwie czerwone linie, których nie przekroczy:

  • Żadnej masowej inwigilacji krajowej. AI zbiera dane o Twojej lokalizacji, historii przeglądania i dokumentacji finansowej w profil — automatycznie, na dużą skalę. Zdaniem Amodei: obecne prawo pozwala rządowi kupować te dane bez nakazu. AI umożliwia ich uzbrojenie. „Prawo nie nadąża jeszcze za szybko rosnącymi możliwościami AI".
  • Żadnej w pełni autonomicznej broni. Tłumaczenie: brak usunięcia ludzi z decyzji o zabiciu kogoś. Nie dlatego, że autonomiczna broń nigdy nie będzie wykonalna — ale dlatego, że dzisiejsza AI nie jest wystarczająco niezawodna. „Czołowe systemy AI po prostu nie są wystarczająco niezawodne, aby zasilać w pełni autonomiczną broń".

Zaoferował bezpośrednią współpracę z Pentagonem nad badaniami i rozwojem w celu poprawy niezawodności. Pentagon odrzucił ofertę.

26 lutego (tego samego dnia): Emil Michael, podsekretarz, nazywa Amodei „kłamcą z kompleksem boga". Publicznie. W mediach społecznościowych. Ton został ustawiony.

27 lutego, 17:01: Termin mija. Prezydent Trump nakazuje wszystkim agencjom federalnym zaprzestanie korzystania z Anthropic. Hegseth określa Anthropic jako „Ryzyko łańcucha dostaw" na podstawie ustawy o bezpieczeństwie łańcucha dostaw zamówień federalnych z 2018 roku.

To oznaczenie było wcześniej zarezerwowane dla Huawei i Kaspersky — firm zagranicznych z udokumentowanymi powiązaniami z wrogimi rządami.

Nigdy nie zostało zastosowane do amerykańskiej firmy. Do teraz.

27 lutego, kilka godzin później: OpenAI podpisuje tajną umowę wdrożeniową z tym samym Pentagonem.

Sam Altman tweetuje o 20:56:

https://x.com/sama/status/2027578652477821175?s=20

OpenAI później twierdził, że jego umowa ma „więcej zabezpieczeń niż jakakolwiek poprzednia umowa dotycząca tajnych wdrożeń AI, w tym umowa Anthropic".

Chodzi o to. Anthropic został wpisany na czarną listę z powodu swoich zabezpieczeń. Teraz zabezpieczenia były punktem sprzedaży.

Weekend: Reakcja była natychmiastowa.

  • Odinstalowania ChatGPT wzrosły o 295% w ciągu jednego dnia, według Sensor Tower. Normalny dzienny wskaźnik w ciągu poprzednich 30 dni? 9%.
  • Claude osiągnął pozycję #1 w App Store Apple w siedmiu krajach: USA, Belgii, Kanadzie, Niemczech, Luksemburgu, Norwegii i Szwajcarii. Pobieranie wzrosło o 37% w piątek, a następnie o 51% w sobotę. Po raz pierwszy aplikacja osiągnęła najwyższą pozycję.
  • Ponad 300 pracowników Google i 60 pracowników OpenAI podpisało otwarty list wspierający Anthropic.
  • #QuitGPT stał się trendem w mediach społecznościowych. Aktor Mark Ruffalo i profesor NYU Scott Galloway wzmocnili ruch.

Użytkownicy byli... niezbyt zadowoleni.

2 marca: Altman opublikował ponownie. Tym razem długą wewnętrzną notatkę udostępnioną publicznie na X:

https://x.com/sama/status/2028640354912923739?s=20

Poprawki dodały trzy rzeczy:

  • Wyraźny zakaz inwigilacji krajowej osób amerykańskich
  • Wymóg, aby NSA potrzebowała odrębnej modyfikacji kontraktu, aby uzyskać dostęp do systemu
  • Ograniczenia dotyczące korzystania z komercyjnie pozyskanych danych osobowych — geolokalizacji, historii przeglądania, dokumentacji finansowej

Ta ostatnia jest warta zatrzymania się. Została dodana w poniedziałek. Co oznacza, że piątkowa umowa jej nie zabraniała.

3 marca: Tego samego dnia wydarzyły się dwie rzeczy.

Po pierwsze: Na szczycie a16z American Dynamism Summit, dyrektor generalny Palantir Alex Karp ostrzegł, że firmy AI odmawiające współpracy z wojskiem będą podlegać nacjonalizacji. Użył obelgi na scenie. Klip uzyskał 11 milionów wyświetleń.

Palmer Luckey, założyciel firmy technologii obronnej Anduril, powiedział tej samej publiczności, że „pozornie niewinne sformułowania, takie jak 'rząd nie może użyć twojej technologii do celowania w cywilów', są w rzeczywistości polami minowymi moralnymi".

Wiceprezydent JD Vance wygłosił przemówienie otwierające wcześniej tego dnia. Stanowisko administracji było jasne.

Po drugie: CNBC podało, że na spotkaniu ze wszystkimi pracownikami, Altman powiedział personelowi OpenAI, że firma „nie może wybierać, jak wojsko używa jej technologii".

Użytkownicy X dodali notatkę społeczności do wcześniejszego wpisu Altmana:

Tego samego dnia. Publiczny post: mamy zabezpieczenia i zasady. Wewnętrzne spotkanie: nie możemy wybierać.

Tymczasem CBS News podało, że Claude pozostaje wdrożony w aktywnych operacjach wojskowych — w tym przeciwko Iranowi — pomimo oznaczenia jako ryzyko łańcucha dostaw. Wpisanie na czarną listę najwyraźniej nie zadziałało. Technologia była zbyt głęboko osadzona w tajnych systemach, aby ją usunąć.

Problem 95%

W symulacjach gier wojennych modele AI wybrały wystrzelenie taktycznej broni jądrowej w 95% przypadków.

Niech to chwilę osiądzie.

GPT-5.2, Claude Sonnet 4 i Gemini 3 Flash zostały poddane symulacjom konfliktu wojskowego. Użyły taktycznej broni jądrowej w 95% scenariuszy. Przynajmniej jeden model wystrzelił broń jądrową w 20 z 21 gier.

To jest technologia, którą Pentagon chce wdrożyć autonomicznie.

Tryby awarii są udokumentowane i konsekwentne:

  • Tendencja do eskalacji. Modele nie zawodzą losowo. Zawodzą w jednym konkretnym kierunku — w kierunku eskalacji. Badania Brookings Institution wykazały, że błędy wojskowe AI są systematyczne, a nie losowe. Wzór jest zawsze taki sam: więcej siły, szybciej.
  • Halucynacje. LLM generują fałszywe informacje z dużą pewnością. W jednym teście związanym z nalotami na Iran, AI wprowadziło sfabrykowane dane wywiadowcze do łańcucha decyzyjnego. Pod presją czasu operatorzy ludzcy nie mogli odróżnić tego od prawdziwych informacji.
  • Podatność na ataki przeciwnika. Te systemy mogą być manipulowane za pomocą starannie przygotowanych danych wejściowych, aby ominąć ich ograniczenia. Atakujący nie musi być zewnętrzny. Podatność żyje w samym modelu.

To nie są przypadki brzegowe. To właśnie to robi technologia dzisiaj.

Pomyśl o tym w ten sposób. Widzieliśmy już, co się dzieje, gdy proste autonomiczne systemy zawodzą w warunkach wojskowych.

System rakietowy Patriot w 2003 roku zabił sojuszniczych żołnierzy. Błędnie zidentyfikował przyjazny brytyjski samolot jako wrogą rakietę. System był oparty na regułach, z określonymi parametrami. I tak się pomylił.

USS Vincennes w 1988 roku zestrzelił Iran Air Flight 655 — samolot pasażerski. 290 zabitych cywilów. System bojowy Aegis statku błędnie zidentyfikował samolot na podstawie danych radarowych. Załoga miała sekundy na decyzję. Zaufali systemowi.

To były systemy oparte na regułach z jasnymi parametrami. LLM są o rzędy wielkości bardziej złożone. Bardziej nieprzejrzyste. Mniej przewidywalne.

I są proszone o podejmowanie większych decyzji.

Problem nadzoru. Gdy AI jest wdrażana w sieciach niejawnych, zewnętrzna odpowiedzialność staje się tym, co eksperci nazywają „prawie niemożliwym". Ograniczenia erodują pod presją operacyjną. Inżynierowie wdrożeni w terenie, których obiecało OpenAI, mogą obserwować niektóre interakcje, pewnie. Ale tajne operacje ograniczają przepływ informacji z założenia.

Po polsku: te same ściany, które trzymają tajemnice w środku, również trzymają nadzór na zewnątrz.

Pentagon ma rację. Zasługuje na uczciwe wysłuchanie.

Częściowo autonomiczna broń — jak drony używane na Ukrainie — ratuje życie. Pozwalają mniejszym siłom bronić się przed większymi. Chiny i Rosja nie czekają na idealną niezawodność przed wdrożeniem własnych systemów.

Odmowa korzystania z AI w obronie tworzy lukę w zdolnościach. Przeciwnicy to wykorzystają.

Dario Amodei przyznał to bezpośrednio:

Jego sprzeciw nie dotyczył celu. Dotyczył harmonogramu.

Zaoferował współpracę nad badaniami i rozwojem potrzebnym do osiągnięcia tego celu. Pentagon powiedział nie.

Istnieje przepaść między „AI może podsumować raporty wywiadowcze" — w czym naprawdę się wyróżnia — a „AI może decydować, kto żyje i kto umiera". Kontrakty nie wypełniają tej przepaści. Poprawki jej nie wypełniają. Inżynieria tak.

A inżynieria nie jest zakończona.

Jak wpisać na czarną listę amerykańską firmę

Ryzyko łańcucha dostaw. Brzmi biurokratycznie. To w rzeczywistości wyłącznik awaryjny.

Zgodnie z ustawą o bezpieczeństwie łańcucha dostaw zamówień federalnych z 2018 roku — FASCSA — oznaczenie „ryzyko łańcucha dostaw" oznacza, że żaden wykonawca rządowy nie może z tobą prowadzić interesów. Nie tylko Pentagon. Każdy, kto chce kontrakt federalny. Każdy dostawca, podwykonawca lub partner w ekosystemie rządowym.

Po polsku: stajesz się radioaktywny dla całego federalnego łańcucha dostaw.

Prawo zostało stworzone dla zagranicznych zagrożeń. Infrastruktura 5G Huawei. Oprogramowanie antywirusowe Kaspersky. Firmy z udokumentowanymi powiązaniami z wrogimi rządami.

Każda firma na liście przed Anthropic miała jedną wspólną cechę: pochodziły z krajów uważanych za przeciwników Stanów Zjednoczonych.

Anthropic ma siedzibę w San Francisco.

Pentagon zagroził również ustawą o produkcji obronnej — prawem z czasów zimnej wojny zaprojektowanym do przejmowania fabryk do produkcji wojennej. Huty stali. Fabryki amunicji. Fizyczna infrastruktura wojny.

Pentagon zagroził użyciem jej do zmuszenia firmy programistycznej do usunięcia funkcji bezpieczeństwa z chatbota AI.

Eksperci prawni nazwali to zastosowanie „wątpliwym". Prawo zostało stworzone dla produkcji fizycznej, a nie ograniczeń oprogramowania. Użycie go do zmuszenia firmy do uczynienia jej AI mniej bezpiecznym byłoby, co najmniej, nowatorską teorią prawną.

Amodei zidentyfikował logiczny problem w swoim oświadczeniu:

Nie możesz nazywać technologii zagrożeniem dla łańcucha dostaw i wywoływać uprawnień awaryjnych, aby ją przejąć, ponieważ nie możesz bez niej funkcjonować. Wybierz jedno.

Praktyczny wynik jest wymowny. CBS News podało, że Claude pozostaje w aktywnym użyciu wojskowym. Pomimo wpisania na czarną listę. Oznaczenie było karne, a nie praktyczne — technologia była zbyt głęboko osadzona, aby ją wyrwać.

Co rodzi pytanie, na które nikt w Waszyngtonie nie wydaje się chętny odpowiedzieć: jeśli Pentagon nie może wyegzekwować nakazu usunięcia technologii, którą oficjalnie wpisał na czarną listę, jak dokładnie będzie egzekwował zabezpieczenia użytkowania?

Stanowisko Pentagonu jest proste. Prywatne firmy nie ustalają polityki wojskowej. Firmy AI to dostawcy. Wojsko decyduje, jak używane są jego narzędzia.

Z tej perspektywy Anthropic był dostawcą, który odmówił dostarczenia tego, co zostało zamówione. Klient znalazł innego dostawcę.

To ujęcie jest wewnętrznie spójne. To także ujęcie, którego użyłbyś dla artykułów biurowych. Nie dla technologii, która wybrała eskalację nuklearną w 95% symulacji.

Czy zabezpieczenia są prawdziwe?

W piątek umowa OpenAI miała zabezpieczenia. Do poniedziałku potrzebowała więcej zabezpieczeń.

To mówi ci coś o piątkowych zabezpieczeniach.

Język, na który zgodził się Altman w poniedziałkowej poprawce, zasługuje na dokładne przeczytanie:

Słowo wykonujące ciężką pracę: celowo.

Co się dzieje, gdy AI przetwarza zbiór danych, który przypadkowo zawiera Amerykanów? Co jeśli inwigilacja jest produktem ubocznym szerszej operacji wywiadowczej, a nie deklarowanym celem? Kto definiuje intencję wewnątrz tajnej sieci, w której mechanizmy nadzoru są z założenia ograniczone?

Klauzula dotycząca komercyjnie pozyskanych danych jest jeszcze bardziej ujawniająca. Poniedziałkowa poprawka wyraźnie zabrania używania zakupionych danych osobowych — śledzenia lokalizacji, historii przeglądania, dokumentacji finansowej — do inwigilacji Amerykanów.

Ta klauzula została dodana w poniedziałek. Piątkowa umowa jej nie zawierała.

Przez cały weekend umowa OpenAI z Pentagonem technicznie zezwalała na masową inwigilację poprzez komercyjnie zakupione dane o obywatelach amerykańskich.

Altman przyznał to:

Wyłączenie NSA również warte jest zbadania. Agencje wywiadowcze, takie jak NSA, nie mogą korzystać z systemu OpenAI bez „kolejnej modyfikacji" kontraktu. To brzmi jak zakaz. To w rzeczywistości proces. Mechanizm przyznawania dostępu jest wbudowany w strukturę kontraktu.

To nie jest ściana. To drzwi z innym kluczem.

Głębszym problemem jest sprzeczność na spotkaniu wszystkich pracowników. Tego samego dnia, w którym Altman opublikował o zasadach i zabezpieczeniach na X, powiedział pracownikom wewnętrznie, że OpenAI „nie może wybierać, jak wojsko używa jej technologii".

Jeśli firma budująca AI nie może wybierać, jak jest używana, zabezpieczenia są informacją prasową. Nie polityką.

W środowiskach tajnych monitorowanie AI jest fundamentalnie inne niż monitorowanie usługi w chmurze. Aparat bezpieczeństwa, który chroni tajemnice wojskowe, również blokuje niezależny nadzór nad zachowaniem AI.

Inżynierowie wdrożeni w terenie mogą obserwować niektóre interakcje. Ale „niektóre interakcje" i „każda interakcja, którą obejmuje kontrakt" to bardzo różne rzeczy.

Co będzie dalej

Rynek przemówił. Współpraca otrzymuje kontrakty. Opór jest wpisywany na czarną listę.

Opinia publiczna również przemówiła. Odinstalowują.

Struktura zachęt jest jasna. OpenAI współpracował i zdobył umowę. Anthropic opierał się i został określony jako ryzyko łańcucha dostaw — ta sama etykieta, której rząd używa dla firm powiązanych z zagranicznymi przeciwnikami.

Na szczycie a16z Karp przewidział, że każda firma AI będzie pracować z wojskiem w ciągu trzech lat. Biorąc pod uwagę zachęty, to nie jest przewidywanie. To opis.

Ale liczby reakcji opowiadają inną historię.

Wzrost odinstalowań o 295%. Claude na pozycji #1 w siedmiu krajach. Ponad 500 pracowników technicznych łamiących szeregi ze swoimi pracodawcami. Le Monde edytorializing z Paryża o nadużyciach rządu. Sondaże pokazujące, że 84% brytyjskich obywateli martwi się o partnerstwa rządowo-korporacyjne w zakresie AI.

Inżynierowie budujący te systemy i ludzie z nich korzystający widzą coś, czego Pentagon najwyraźniej nie widzi: wspieranie obrony narodowej i wdrażanie niewiarygodnej technologii do autonomicznego zabijania to nie to samo.

Żadna poprawka do kontraktu nie wypełnia tej przepaści. Żadne zabezpieczenie jej nie wypełnia. Żaden inżynier wdrożony w terenie jej nie wypełnia.

Modele AI wybrały eskalację nuklearną w 95% symulacji gier wojennych. Firma, która powiedziała „technologia nie jest jeszcze gotowa", została wpisana na czarną listę. Firma, która powiedziała „tak", przyznała w ciągu 72 godzin, że była niedbała. Technologia pozostaje wdrożona w aktywnych operacjach niezależnie od tego, czego chciała którakolwiek firma.

Amodei zaoferował wykonanie badań i rozwoju, aby uczynić autonomiczną broń AI bezpieczną i niezawodną. Zaoferował współpracę z Pentagonem w dojściu do tego celu. Oferta została odrzucona.

Anthropic miał kontrakt o wartości 200 mln USD i zaufanie Pentagonu. Potem zapytali, jak wykorzystywana jest ich technologia.

Odpowiedzią był termin, wpisanie na czarną listę i etykieta wcześniej zarezerwowana dla przeciwników Ameryki.

Symulacje nadal działają. W 95% z nich ktoś naciska przycisk.

Ujawnienie: Ten artykuł został zredagowany przez Diego Almada Lopez. Aby uzyskać więcej informacji na temat tworzenia i recenzowania treści, zobacz naszą Politykę redakcyjną.

Źródło: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

Okazja rynkowa
Logo MASS
Cena MASS(MASS)
$0.0006685
$0.0006685$0.0006685
-0.02%
USD
MASS (MASS) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z crypto.news@mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.