Armia USA podobno polegała na sztucznej inteligencji Claude firmy Anthropic podczas poważnego nalotu powietrznego w Iranie, co wyszło na jaw zaledwie kilka godzin po tym, jak prezydent Donald Trump nakazał agencjom federalnym zaprzestać korzystania z tego modelu. Dowództwa w regionie, w tym CENTCOM, podobno wykorzystywały Claude do wspierania analiz wywiadowczych, weryfikacji celów i symulacji pola bitwy. Incydent podkreśla, jak głęboko narzędzia AI zostały wplecione w operacje obronne, nawet gdy decydenci naciskają na zerwanie więzi z niektórymi dostawcami. Epizod uwydatnia napięcie między dyrektywami wykonawczymi a automatyzacją w terenie, które może wpłynąć na zamówienia publiczne i zarządzanie ryzykiem w programach obronnych.
<li Anthropic wcześniej zabezpieczyło wieloletnią umowę z Pentagonem o wartości do 200 milionów dolarów, z współpracą obejmującą Palantir i Amazon Web Services w celu umożliwienia tajnych przepływów pracy dla Claude.
<li Administracja Trumpa poinstruowała agencje, aby zaprzestały współpracy z Anthropic i nakazała Departamentowi Obrony traktować firmę jako potencjalne zagrożenie dla bezpieczeństwa po tym, jak rozmowy kontraktowe załamały się w sprawie nieograniczonego użytku wojskowego.
<li Pentagon rozpoczął identyfikację zastępczych dostawców i przeszedł do wdrażania innych modeli AI w tajnych sieciach, w tym współpracy z OpenAI w celu takich wdrożeń.
<li Prezes Anthropic Dario Amodei publicznie sprzeciwił się zakazowi, argumentując, że niektóre zastosowania wojskowe przekraczają granice etyczne i powinny pozostać pod nadzorem ludzkim, a nie zautomatyzowane, masowy nadzór lub autonomiczna militaryzacja.
Sentyment: Neutralny
Kontekst rynkowy: Incydent znajduje się na skrzyżowaniu zamówień obronnych, etyki AI i zarządzania ryzykiem bezpieczeństwa narodowego, podczas gdy agencje ponownie oceniają zależności od dostawców i klasyfikację narzędzi AI dla wrażliwych operacji.
Incydent oferuje rzadki wgląd w to, jak komercyjne modele AI są integrowane z wysokostawkowymi przepływami pracy wojskowej. Claude, pierwotnie zaprojektowany do szerokiego zakresu zadań poznawczych, podobno wspierał analizę wywiadowczą i modelowanie scenariuszy na polu bitwy, co sugeruje poziom zaufania operacyjnego, który wykracza poza środowiska laboratoryjne do misji w świecie rzeczywistym. To rodzi ważne pytania dotyczące niezawodności, audytu i kontrolowalności AI w planowaniu walk, zwłaszcza gdy sygnały polityki rządowej szybko się zmieniają w odniesieniu do użycia dostawców.
Na poziomie politycznym, tarcie między relacją kontraktową a dyrektywą prezydencką podkreśla szerszą debatę na temat tego, jak dostawcy AI powinni być traktowani w bezpiecznych środowiskach. Odmowa Anthropic przyznania nieograniczonego użytku wojskowego jest zgodna z deklarowanymi granicami etycznymi firmy, sygnalizując, że dostawcy z sektora prywatnego mogą coraz częściej sprzeciwiać się konfiguracjom, które uważają za problematyczne etycznie. Odpowiedź Pentagonu — zwrócenie się do alternatywnych dostawców dla tajnych obciążeń roboczych — ilustruje, jak departamenty obrony mogą dywersyfikować ekosystemy AI w celu zmniejszenia narażenia na ryzyko, zachowując jednocześnie zdolności w wrażliwych operacjach.
Napięcie dotyczy również dynamiki konkurencyjnej rynku AI-as-a-service. Ponieważ OpenAI podobno wkracza, aby dostarczać modele dla tajnych sieci, sektor prawdopodobnie będzie świadkiem ciągłych eksperymentów i renegocjacji warunków dotyczących klasyfikacji bezpieczeństwa, zarządzania danymi i ryzyka łańcucha dostaw. Sytuacja podkreśla potrzebę rygorystycznych ram zarządzania, które mogą dostosować się do szybkich zmian technologicznych bez narażania bezpieczeństwa operacyjnego lub standardów etycznych.
Urzędnicy opisali Claude jako odgrywającego rolę w analizie wywiadowczej i planowaniu operacyjnym podczas poważnego nalotu powietrznego w Iranie, twierdzenie, które ilustruje, jak blisko narzędzia AI zbliżyły się do podejmowania decyzji na polu bitwy. Podczas gdy administracja Trumpa zaczęła zrywać więzi z Anthropic, operacyjne użycie Claude podobno utrzymywało się w niektórych dowództwach, podkreślając rozdźwięk między oświadczeniami politycznymi a codziennymi przepływami pracy obronnymi. Praktyczna rzeczywistość jest taka, że analizy kierowane przez AI, symulacje i oceny ryzyka mogą wślizgnąć się do planowania misji, nawet gdy agencje ponownie oceniają ryzyko dostawców i wymagania dotyczące zgodności w departamentach.
Wcześniejsze zaangażowanie Pentagonu z Anthropic było znaczące: wieloletnia umowa o wartości do 200 milionów dolarów i sieć partnerstw, w tym Palantir i Amazon Web Services, które umożliwiły wykorzystanie Claude w obsłudze tajnych informacji i przetwarzaniu wywiadowczym. Porozumienie podkreśliło szerszą strategię: dywersyfikację możliwości AI w zaufanym ekosystemie w celu zapewnienia odporności w wrażliwych środowiskach. Jednak gdy kierunki polityczne się zmieniły, administracja zaczęła przekształcać relację z dostawcą, sygnalizując rekalibrację opartą na ryzyku, a nie całkowite wycofanie się z operacji obronnych wspieranych przez AI.
Za kulisami, napięcia między polityką publiczną a etyką sektora prywatnego wyszły na pierwszy plan. Sekretarz Obrony Pete Hegseth podobno naciskał na Anthropic, aby zezwoliło na nieograniczone użycie wojskowe swoich modeli, prośba, którą kierownictwo Anthropic odrzuciło jako przekraczającą granice etyczne, których firma nie przekroczy. Stanowisko firmy skupia się na przekonaniu, że niektóre zastosowania — masowy nadzór krajowy i w pełni autonomiczne bronie — budzą głębokie obawy etyczne i prawne oraz że znaczący nadzór ludzki powinien przetrwać przejście od koncepcji do wykonania. To stanowisko jest zgodne z trwającymi debatami na temat tego, jak zrównoważyć szybkie przyjęcie AI z zabezpieczeniami przed nadużyciami i niezamierzonymi konsekwencjami.
Ze swojej strony, Pentagon nie stał bezczynnie. W obliczu potencjalnej luki dostawcy, rozpoczął ustawianie zastępstw i podobno osiągnął porozumienie z OpenAI w celu wdrożenia modeli w tajnych sieciach. Zmiana podkreśla szerszy ruch strategiczny w celu zapewnienia ciągłości zdolności, nawet gdy dostawcy ponownie oceniają swoje warunki dla wrażliwych wdrożeń. Kontrast między granicami etycznymi Anthropic a potrzebami operacyjnymi departamentu ujawnia szersze napięcie polityczne: jak wykorzystać transformacyjną technologię w sposób odpowiedzialny, zachowując jednocześnie imperatywy bezpieczeństwa narodowego.
Obserwatorzy branży zauważyli również efekty ekosystemowe takich przejść. Rynek AI ewoluuje w kierunku bardziej modułowych konfiguracji dopuszczonych do bezpieczeństwa, które można zamieniać lub aktualizować w miarę zmiany polityki i ocen ryzyka. Porozumienie OpenAI, w szczególności, sygnalizuje ciągły apetyt na integrację wiodących modeli z sieciami obronnymi, choć pod rygorystycznym zarządzaniem i nadzorem. Chociaż ta trajektoria obiecuje zwiększone możliwości dla analityków wojskowych i planistów, podnosi również kontrolę wokół obsługi danych, interpretowalności modelu i ryzyka nadmiernego polegania na zautomatyzowanych systemach w przypadku krytycznych decyzji.
Prezes Anthropic, Dario Amodei, argumentował, że chociaż AI może wzmocnić ludzki osąd, nie może go zastąpić w podstawowych decyzjach obronnych. W publicznych uwagach potwierdził zaangażowanie firmy w granice etyczne i utrzymanie ludzkiej kontroli w kluczowych momentach. Napięcie między utrzymaniem dostępu do najnowocześniejszych narzędzi a przestrzeganiem standardów etycznych prawdopodobnie ukształtuje przyszłe negocjacje z agencjami federalnymi, szczególnie gdy prawodawcy i regulatorzy badają rolę AI w kontekstach cywilnych i bezpieczeństwa narodowego.
W miarę rozwoju krajobrazu, szersze społeczności kryptowalut i technologii będą obserwować, jak ta polityka i dynamika zamówień wpływają na rozwój i wdrażanie zaawansowanych systemów AI w środowiskach wysokiego ryzyka. Epizod służy jako studium przypadku równoważenia szybkiego postępu technologicznego z zarządzaniem, nadzorem i trwałym pytaniem o to, gdzie kończy się ludzka odpowiedzialność, a zaczyna automatyczne podejmowanie decyzji.
Ten artykuł został pierwotnie opublikowany jako US military used Anthropic for Iran strike despite Trump's ban: WSJ na Crypto Breaking News – twoje zaufane źródło wiadomości o kryptowalutach, wiadomości Bitcoin i aktualizacjach blockchain.


