Amerykańskie siły zbrojne podobno polegały na AI Claude firmy Anthropic podczas dużego uderzenia powietrznego w Iranie, co ujawniono zaledwie kilka godzin po tym, jak prezydent Donald TrumpAmerykańskie siły zbrojne podobno polegały na AI Claude firmy Anthropic podczas dużego uderzenia powietrznego w Iranie, co ujawniono zaledwie kilka godzin po tym, jak prezydent Donald Trump

Armia USA użyła Anthropic do ataku na Iran pomimo zakazu Trumpa: WSJ

2026/03/01 19:49
7 min. lektury
Armia USA Użyła Anthropic Do Uderzenia Na Iran Pomimo Zakazu Trumpa: Wsj

Armia USA podobno polegała na sztucznej inteligencji Claude firmy Anthropic podczas poważnego nalotu powietrznego w Iranie, co wyszło na jaw zaledwie kilka godzin po tym, jak prezydent Donald Trump nakazał agencjom federalnym zaprzestać korzystania z tego modelu. Dowództwa w regionie, w tym CENTCOM, podobno wykorzystywały Claude do wspierania analiz wywiadowczych, weryfikacji celów i symulacji pola bitwy. Incydent podkreśla, jak głęboko narzędzia AI zostały wplecione w operacje obronne, nawet gdy decydenci naciskają na zerwanie więzi z niektórymi dostawcami. Epizod uwydatnia napięcie między dyrektywami wykonawczymi a automatyzacją w terenie, które może wpłynąć na zamówienia publiczne i zarządzanie ryzykiem w programach obronnych.

Kluczowe wnioski

  • <li Sztuczna inteligencja Claude została podobno wdrożona do analizy wywiadowczej, weryfikacji celów i symulacji pola bitwy w związku z poważnym nalotem powietrznym, zaledwie godziny po dyrektywie Białego Domu o wstrzymaniu korzystania z systemu.
  • <li Anthropic wcześniej zabezpieczyło wieloletnią umowę z Pentagonem o wartości do 200 milionów dolarów, z współpracą obejmującą Palantir i Amazon Web Services w celu umożliwienia tajnych przepływów pracy dla Claude.

  • <li Administracja Trumpa poinstruowała agencje, aby zaprzestały współpracy z Anthropic i nakazała Departamentowi Obrony traktować firmę jako potencjalne zagrożenie dla bezpieczeństwa po tym, jak rozmowy kontraktowe załamały się w sprawie nieograniczonego użytku wojskowego.

  • <li Pentagon rozpoczął identyfikację zastępczych dostawców i przeszedł do wdrażania innych modeli AI w tajnych sieciach, w tym współpracy z OpenAI w celu takich wdrożeń.

  • <li Prezes Anthropic Dario Amodei publicznie sprzeciwił się zakazowi, argumentując, że niektóre zastosowania wojskowe przekraczają granice etyczne i powinny pozostać pod nadzorem ludzkim, a nie zautomatyzowane, masowy nadzór lub autonomiczna militaryzacja.

Sentyment: Neutralny

Kontekst rynkowy: Incydent znajduje się na skrzyżowaniu zamówień obronnych, etyki AI i zarządzania ryzykiem bezpieczeństwa narodowego, podczas gdy agencje ponownie oceniają zależności od dostawców i klasyfikację narzędzi AI dla wrażliwych operacji.

Dlaczego to jest ważne

Incydent oferuje rzadki wgląd w to, jak komercyjne modele AI są integrowane z wysokostawkowymi przepływami pracy wojskowej. Claude, pierwotnie zaprojektowany do szerokiego zakresu zadań poznawczych, podobno wspierał analizę wywiadowczą i modelowanie scenariuszy na polu bitwy, co sugeruje poziom zaufania operacyjnego, który wykracza poza środowiska laboratoryjne do misji w świecie rzeczywistym. To rodzi ważne pytania dotyczące niezawodności, audytu i kontrolowalności AI w planowaniu walk, zwłaszcza gdy sygnały polityki rządowej szybko się zmieniają w odniesieniu do użycia dostawców.

Na poziomie politycznym, tarcie między relacją kontraktową a dyrektywą prezydencką podkreśla szerszą debatę na temat tego, jak dostawcy AI powinni być traktowani w bezpiecznych środowiskach. Odmowa Anthropic przyznania nieograniczonego użytku wojskowego jest zgodna z deklarowanymi granicami etycznymi firmy, sygnalizując, że dostawcy z sektora prywatnego mogą coraz częściej sprzeciwiać się konfiguracjom, które uważają za problematyczne etycznie. Odpowiedź Pentagonu — zwrócenie się do alternatywnych dostawców dla tajnych obciążeń roboczych — ilustruje, jak departamenty obrony mogą dywersyfikować ekosystemy AI w celu zmniejszenia narażenia na ryzyko, zachowując jednocześnie zdolności w wrażliwych operacjach.

Napięcie dotyczy również dynamiki konkurencyjnej rynku AI-as-a-service. Ponieważ OpenAI podobno wkracza, aby dostarczać modele dla tajnych sieci, sektor prawdopodobnie będzie świadkiem ciągłych eksperymentów i renegocjacji warunków dotyczących klasyfikacji bezpieczeństwa, zarządzania danymi i ryzyka łańcucha dostaw. Sytuacja podkreśla potrzebę rygorystycznych ram zarządzania, które mogą dostosować się do szybkich zmian technologicznych bez narażania bezpieczeństwa operacyjnego lub standardów etycznych.

Na co zwrócić uwagę

  • Aktualizacje regulacyjne i polityczne z Departamentu Obrony i Białego Domu dotyczące użycia dostawców AI i klasyfikacji bezpieczeństwa.
  • Wszelkie nowe zamówienia lub partnerstwa, które rozszerzają możliwości AI dla tajnych misji, w tym potencjalne umowy z alternatywnymi dostawcami w celu zastąpienia lub uzupełnienia oferty Anthropic.
  • Publiczne oświadczenia Anthropic i OpenAI dotyczące charakteru wdrożeń w zabezpieczonych sieciach oraz wszelkich nowych ograniczeń lub zabezpieczeń.
  • Dalsze szczegóły dotyczące wyniku wcześniejszych negocjacji w sprawie nieograniczonego użytkowania i tego, jak wpłynie to na przyszłe kontraktowanie obronne z dostawcami AI.

Źródła i weryfikacja

  • Raporty o wykorzystaniu Claude w operacji na Bliskim Wschodzie i zarządzeniu wstrzymania przez administrację, w tym dowody omówione ze źródłami zaznajomionymi ze sprawą.
  • Informacje ogólne na temat umowy Anthropic z Pentagonem, w tym wieloletniego porozumienia o wartości do 200 milionów dolarów i partnerstw z Palantir i AWS dla tajnych przepływów pracy.
  • Oświadczenia kierownictwa Anthropic i publiczne komentarze na temat użytku wojskowego i granic etycznych, w tym wywiady i oficjalne odpowiedzi na działania regulacyjne.
  • Wdrożenie OpenAI w tajnych sieciach i powiązane dyskusje, w tym publiczny dyskurs wokół umowy z armią USA i powiązane relacje.
  • Publiczne dyskusje i odniesienia w mediach społecznościowych związane z porozumieniem OpenAI z wojskiem, takie jak posty dokumentujące reakcje branży.

Claude firmy Anthropic na celowniku: AI, etyka i polityka zderzają się w operacjach obronnych

Urzędnicy opisali Claude jako odgrywającego rolę w analizie wywiadowczej i planowaniu operacyjnym podczas poważnego nalotu powietrznego w Iranie, twierdzenie, które ilustruje, jak blisko narzędzia AI zbliżyły się do podejmowania decyzji na polu bitwy. Podczas gdy administracja Trumpa zaczęła zrywać więzi z Anthropic, operacyjne użycie Claude podobno utrzymywało się w niektórych dowództwach, podkreślając rozdźwięk między oświadczeniami politycznymi a codziennymi przepływami pracy obronnymi. Praktyczna rzeczywistość jest taka, że analizy kierowane przez AI, symulacje i oceny ryzyka mogą wślizgnąć się do planowania misji, nawet gdy agencje ponownie oceniają ryzyko dostawców i wymagania dotyczące zgodności w departamentach.

Wcześniejsze zaangażowanie Pentagonu z Anthropic było znaczące: wieloletnia umowa o wartości do 200 milionów dolarów i sieć partnerstw, w tym Palantir i Amazon Web Services, które umożliwiły wykorzystanie Claude w obsłudze tajnych informacji i przetwarzaniu wywiadowczym. Porozumienie podkreśliło szerszą strategię: dywersyfikację możliwości AI w zaufanym ekosystemie w celu zapewnienia odporności w wrażliwych środowiskach. Jednak gdy kierunki polityczne się zmieniły, administracja zaczęła przekształcać relację z dostawcą, sygnalizując rekalibrację opartą na ryzyku, a nie całkowite wycofanie się z operacji obronnych wspieranych przez AI.

Za kulisami, napięcia między polityką publiczną a etyką sektora prywatnego wyszły na pierwszy plan. Sekretarz Obrony Pete Hegseth podobno naciskał na Anthropic, aby zezwoliło na nieograniczone użycie wojskowe swoich modeli, prośba, którą kierownictwo Anthropic odrzuciło jako przekraczającą granice etyczne, których firma nie przekroczy. Stanowisko firmy skupia się na przekonaniu, że niektóre zastosowania — masowy nadzór krajowy i w pełni autonomiczne bronie — budzą głębokie obawy etyczne i prawne oraz że znaczący nadzór ludzki powinien przetrwać przejście od koncepcji do wykonania. To stanowisko jest zgodne z trwającymi debatami na temat tego, jak zrównoważyć szybkie przyjęcie AI z zabezpieczeniami przed nadużyciami i niezamierzonymi konsekwencjami.

Ze swojej strony, Pentagon nie stał bezczynnie. W obliczu potencjalnej luki dostawcy, rozpoczął ustawianie zastępstw i podobno osiągnął porozumienie z OpenAI w celu wdrożenia modeli w tajnych sieciach. Zmiana podkreśla szerszy ruch strategiczny w celu zapewnienia ciągłości zdolności, nawet gdy dostawcy ponownie oceniają swoje warunki dla wrażliwych wdrożeń. Kontrast między granicami etycznymi Anthropic a potrzebami operacyjnymi departamentu ujawnia szersze napięcie polityczne: jak wykorzystać transformacyjną technologię w sposób odpowiedzialny, zachowując jednocześnie imperatywy bezpieczeństwa narodowego.

Obserwatorzy branży zauważyli również efekty ekosystemowe takich przejść. Rynek AI ewoluuje w kierunku bardziej modułowych konfiguracji dopuszczonych do bezpieczeństwa, które można zamieniać lub aktualizować w miarę zmiany polityki i ocen ryzyka. Porozumienie OpenAI, w szczególności, sygnalizuje ciągły apetyt na integrację wiodących modeli z sieciami obronnymi, choć pod rygorystycznym zarządzaniem i nadzorem. Chociaż ta trajektoria obiecuje zwiększone możliwości dla analityków wojskowych i planistów, podnosi również kontrolę wokół obsługi danych, interpretowalności modelu i ryzyka nadmiernego polegania na zautomatyzowanych systemach w przypadku krytycznych decyzji.

Prezes Anthropic, Dario Amodei, argumentował, że chociaż AI może wzmocnić ludzki osąd, nie może go zastąpić w podstawowych decyzjach obronnych. W publicznych uwagach potwierdził zaangażowanie firmy w granice etyczne i utrzymanie ludzkiej kontroli w kluczowych momentach. Napięcie między utrzymaniem dostępu do najnowocześniejszych narzędzi a przestrzeganiem standardów etycznych prawdopodobnie ukształtuje przyszłe negocjacje z agencjami federalnymi, szczególnie gdy prawodawcy i regulatorzy badają rolę AI w kontekstach cywilnych i bezpieczeństwa narodowego.

W miarę rozwoju krajobrazu, szersze społeczności kryptowalut i technologii będą obserwować, jak ta polityka i dynamika zamówień wpływają na rozwój i wdrażanie zaawansowanych systemów AI w środowiskach wysokiego ryzyka. Epizod służy jako studium przypadku równoważenia szybkiego postępu technologicznego z zarządzaniem, nadzorem i trwałym pytaniem o to, gdzie kończy się ludzka odpowiedzialność, a zaczyna automatyczne podejmowanie decyzji.

Ten artykuł został pierwotnie opublikowany jako US military used Anthropic for Iran strike despite Trump's ban: WSJ na Crypto Breaking News – twoje zaufane źródło wiadomości o kryptowalutach, wiadomości Bitcoin i aktualizacjach blockchain.

Okazja rynkowa
Logo StrikeBit AI
Cena StrikeBit AI(STRIKE)
$0.006266
$0.006266$0.006266
0.00%
USD
StrikeBit AI (STRIKE) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z crypto.news@mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.