Anthropic یک قرارداد 200 میلیون دلاری با پنتاگون، دسترسی به شبکه طبقهبندی شده و اعتماد کامل ارتش ایالات متحده داشت.
سپس آنها یک سوال پرسیدند.
در نوامبر 2024، Anthropic اولین شرکت AI Agent پیشرو شد که در شبکههای طبقهبندی شده پنتاگون مستقر گردید. این مشارکت با Palantir ساخته شد. تا ژوئیه 2025، قرارداد به 200 میلیون دلار رسید — بیشتر از آنچه اکثر استارتآپهای دفاعی در یک دهه میبینند.
Claude، مدل AI Agent شرکت Anthropic، همه جا بود. تحلیل اطلاعاتی. عملیات سایبری. برنامهریزی عملیاتی. مدلسازی و شبیهسازی. وزارت جنگ آن را "حیاتی برای ماموریت" نامید.
سپس ژانویه 2026 فرا رسید.
Claude در یک عملیات نظامی طبقهبندی شده در ونزوئلا استفاده شد — دستگیری نیکلاس مادورو.
Anthropic از شریک خود Palantir یک سوال ساده پرسید: دقیقاً چگونه از فناوری ما استفاده شد؟
در اکثر صنایع، این را دقت لازم مینامند. پنتاگون آن را نافرمانی نامید.
شرکتی که پرسید "چگونه از AI Agent ما استفاده میشود؟" قرار بود به عنوان تهدیدی برای امنیت ملی برچسب بخورد.
هفت روزی که همه چیز را تغییر داد
این جدول زمانی است. سریع حرکت میکند. این نکته اصلی است.
24 فوریه: پیت هگسث، وزیر جنگ، داریو آمودی — مدیرعامل Anthropic — را به پنتاگون فرا میخواند. درخواست صریح است: تمام محافظتها را از Claude حذف کنید. نظارت انبوه داخلی. سلاحهای کاملاً خودمختار. همه چیز.
مهلت: 27 فوریه، 17:01 به وقت شرقی.
26 فوریه: آمودی پاسخ خود را منتشر میکند. دو حرف طول دارد.
خیر.
بیانیه علنی او دو خط قرمز را مشخص کرد که از آن عبور نمیکند:
- نظارت انبوه داخلی نه. AI Agent که دادههای موقعیت مکانی، تاریخچه مرور و سوابق مالی شما را به صورت خودکار و در مقیاس وسیع به یک نمایه تبدیل میکند. نکته آمودی: قانون فعلی به دولت اجازه میدهد این دادهها را بدون حکم قضایی خریداری کند. AI Agent امکان تسلیح آن را فراهم میکند. "قانون هنوز با قابلیتهای به سرعت در حال رشد AI Agent همگام نشده است."
- سلاحهای کاملاً خودمختار نه. ترجمه: حذف نکردن انسانها از تصمیم به کشتن کسی. نه به این دلیل که سلاحهای خودمختار هرگز قابل اجرا نخواهند بود — بلکه به این دلیل که AI Agent امروز به اندازه کافی قابل اعتماد نیست. "سیستمهای AI Agent پیشرو به سادگی به اندازه کافی قابل اعتماد نیستند که سلاحهای کاملاً خودمختار را تامین کنند."
او پیشنهاد داد که مستقیماً با پنتاگون بر روی تحقیق و توسعه برای بهبود قابلیت اطمینان کار کند. پنتاگون پیشنهاد را رد کرد.
26 فوریه (همان روز): امیل مایکل، معاون وزیر، آمودی را "دروغگویی با عقده خدایی" مینامد. علناً. در رسانههای اجتماعی. لحن تعیین شد.
27 فوریه، 17:01: مهلت سپری میشود. رئیسجمهور ترامپ به تمام آژانسهای فدرال دستور میدهد استفاده از Anthropic را متوقف کنند. هگسث Anthropic را تحت قانون امنیت زنجیره تامین خرید فدرال 2018 به عنوان "ریسک زنجیره تامین" تعیین میکند.
این برچسب قبلاً برای Huawei و Kaspersky رزرو شده بود — شرکتهای خارجی با پیوندهای مستند با دولتهای متخاصم.
هرگز برای یک شرکت آمریکایی اعمال نشده بود. تا الان.
27 فوریه، ساعاتی بعد: OpenAI یک قرارداد استقرار طبقهبندی شده با همان پنتاگون امضا میکند.
سام آلتمن در ساعت 20:56 توییت میکند:
https://x.com/sama/status/2027578652477821175?s=20OpenAI بعداً ادعا کرد که قرارداد آن "محافظهای بیشتری نسبت به هر توافق قبلی برای استقرارهای AI Agent طبقهبندی شده، از جمله Anthropic" دارد.
نکته اینجاست. Anthropic به خاطر محافظهایش در لیست سیاه قرار گرفت. حالا محافظها نقطه فروش بودند.
آخر هفته: واکنش فوری بود.
- حذف نصب ChatGPT طبق گزارش Sensor Tower در یک روز 295٪ افزایش یافت. نرخ روزانه عادی در 30 روز قبل؟ 9٪.
- Claude در فروشگاه App Store شرکت اپل در هفت کشور به رتبه 1 رسید: ایالات متحده، بلژیک، کانادا، آلمان، لوکزامبورگ، نروژ و سوئیس. دانلودها روز جمعه 37٪ افزایش یافت، سپس روز شنبه 51٪. اولین بار بود که اپلیکیشن به رتبه اول رسید.
- بیش از 300 کارمند Google و 60 کارمند OpenAI نامه سرگشادهای در حمایت از Anthropic امضا کردند.
- #QuitGPT در رسانههای اجتماعی ترند شد. بازیگر مارک روفالو و استاد دانشگاه NYU اسکات گالووی این جنبش را تقویت کردند.
کاربران... خوشحال نبودند.
2 مارس: آلتمن دوباره پست گذاشت. این بار، یک یادداشت داخلی طولانی که علناً در X به اشتراک گذاشته شد:
https://x.com/sama/status/2028640354912923739?s=20اصلاحات سه چیز را اضافه کردند:
- ممنوعیت صریح نظارت داخلی بر اشخاص ایالات متحده
- الزامی که NSA برای دسترسی به سیستم نیاز به یک اصلاح قرارداد جداگانه دارد
- محدودیتها در استفاده از دادههای شخصی خریداری شده تجاری — ردیابی مکان جغرافیایی، تاریخچه مرور، سوابق مالی
آخری ارزش توقف دارد. روز دوشنبه اضافه شد. که به این معنی است که معامله جمعه آن را منع نکرده بود.
3 مارس: دو اتفاق در همان روز افتاد.
اول: در اجلاس پویایی آمریکایی a16z، مدیرعامل Palantir، الکس کارپ، هشدار داد که شرکتهای AI Agent که از همکاری با ارتش خودداری میکنند، با ملی شدن مواجه خواهند شد. او روی صحنه از توهین استفاده کرد. کلیپ 11 میلیون بازدید داشت.
پالمر لاکی، بنیانگذار شرکت فناوری دفاعی Anduril، به همان مخاطبان گفت که "اصطلاحات به ظاهر بیضرر مانند 'دولت نمیتواند از فناوری شما برای هدف قرار دادن غیرنظامیان استفاده کند' در واقع میدانهای مین اخلاقی هستند."
معاون رئیسجمهور JD Vance زودتر در همان روز سخنرانی اصلی داشت. موضع دولت روشن بود.
دوم: CNBC گزارش داد که در یک جلسه با کارمندان، آلتمن به کارکنان OpenAI گفت که شرکت "نمیتواند انتخاب کند که ارتش چگونه از فناوری آن استفاده میکند."
کاربران X یک یادداشت جامعه به پست قبلی آلتمن اضافه کردند:
همان روز. پست عمومی: ما محافظها و اصول داریم. جلسه داخلی: ما نمیتوانیم انتخاب کنیم.
در همین حال، CBS News گزارش داد که Claude علیرغم برچسب ریسک زنجیره تامین در عملیات نظامی فعال — از جمله علیه ایران — مستقر مانده است. به نظر میرسد لیست سیاه کار نکرده است. فناوری برای حذف بیش از حد در سیستمهای طبقهبندی شده تعبیه شده بود.
مشکل 95٪
در شبیهسازیهای بازی جنگی، مدلهای AI Agent در 95٪ مواقع تصمیم به پرتاب سلاحهای هستهای تاکتیکی گرفتند.
بگذارید یک لحظه بنشیند.
GPT-5.2، Claude Sonnet 4 و Gemini 3 Flash در شبیهسازیهای درگیری نظامی قرار گرفتند. آنها در 95٪ سناریوها از سلاحهای هستهای تاکتیکی استفاده کردند. حداقل یک مدل در 20 مورد از 21 بازی یک سلاح هستهای پرتاب کرد.
این فناوری است که پنتاگون میخواهد به صورت خودمختار مستقر کند.
حالتهای شکست مستند و ثابت هستند:
- تعصب تشدید. مدلها فقط به طور تصادفی شکست نمیخورند. آنها در یک جهت خاص شکست میخورند — به سمت تشدید. تحقیقات موسسه بروکینگز دریافت که خطاهای نظامی AI Agent سیستماتیک هستند، نه تصادفی. الگو همیشه یکسان است: نیروی بیشتر، سریعتر.
- توهمات. LLM ها اطلاعات نادرست را با اطمینان بالا تولید میکنند. در یک آزمایش مرتبط با حملات ایران، یک AI Agent اطلاعات ساختگی را به زنجیره تصمیمگیری تغذیه کرد. تحت فشار زمانی، اپراتورهای انسانی نمیتوانستند آن را از واقعی تشخیص دهند.
- آسیبپذیری متخاصمانه. این سیستمها را میتوان با ورودیهای با دقت ساخته شده دستکاری کرد تا محدودیتهای آنها را دور بزنند. مهاجم نیازی به خارجی بودن ندارد. آسیبپذیری در خود مدل وجود دارد.
اینها موارد استثنایی نیستند. این همان کاری است که فناوری امروز انجام میدهد.
به این صورت فکر کنید. ما قبلاً دیدهایم که زمانی که سیستمهای خودمختار ساده در تنظیمات نظامی شکست میخورند چه اتفاقی میافتد.
سیستم موشکی پاتریوت در سال 2003 سربازان متحد را کشت. هواپیمای دوستانه بریتانیایی را به عنوان موشک دشمن اشتباه شناسایی کرد. سیستم مبتنی بر قاعده بود، با پارامترهای تعریف شده. هنوز اشتباه بود.
USS Vincennes در سال 1988 پرواز 655 ایران ایر را ساقط کرد — یک جت مسافری تجاری. 290 غیرنظامی کشته شدند. سیستم رزمی Aegis کشتی بر اساس دادههای رادار هواپیما را اشتباه شناسایی کرد. خدمه ثانیهها برای تصمیمگیری داشتند. آنها به سیستم اعتماد کردند.
اینها سیستمهای مبتنی بر قاعده با پارامترهای واضح بودند. LLM ها مراتب پیچیدهتر هستند. مبهمتر. کمتر قابل پیشبینی.
و از آنها خواسته میشود تصمیمات بزرگتری بگیرند.
مشکل نظارت. هنگامی که AI Agent در شبکههای طبقهبندی شده مستقر میشود، پاسخگویی خارجی به چیزی تبدیل میشود که کارشناسان آن را "تقریباً غیرممکن" مینامند. محدودیتها تحت فشار عملیاتی فرسایش مییابند. مهندسان مستقر در میدان که OpenAI قول داد میتوانند برخی از تعاملات را مشاهده کنند، مطمئناً. اما عملیات طبقهبندی شده جریان اطلاعات را به طور طراحی محدود میکنند.
به انگلیسی: همان دیوارهایی که اسرار را در داخل نگه میدارند نظارت را هم بیرون نگه میدارند.
پنتاگون نکتهای دارد. شایسته یک استماع منصفانه است.
سلاحهای تا حدی خودمختار — مانند پهپادهای استفاده شده در اوکراین — جان میبخشند. آنها به نیروهای کوچکتر اجازه میدهند در برابر نیروهای بزرگتر دفاع کنند. چین و روسیه منتظر قابلیت اطمینان کامل قبل از استقرار سیستمهای خود نیستند.
خودداری از استفاده از AI Agent در دفاع شکاف قابلیت ایجاد میکند. متخاصمان از آن سوء استفاده خواهند کرد.
داریو آمودی این را مستقیماً تصدیق کرد:
اعتراض او به مقصد نبود. به جدول زمانی بود.
او پیشنهاد داد که بر روی تحقیق و توسعه مورد نیاز برای رسیدن به آنجا همکاری کند. پنتاگون خیر گفت.
شکافی بین "AI Agent میتواند گزارشهای اطلاعاتی را خلاصه کند" — جایی که واقعاً عالی است — و "AI Agent میتواند تصمیم بگیرد چه کسی زنده بماند و چه کسی بمیرد" وجود دارد. قراردادها این شکاف را پر نمیکنند. اصلاحات آن را پر نمیکنند. مهندسی پر میکند.
و مهندسی تمام نشده است.
چگونه یک شرکت آمریکایی را در لیست سیاه قرار میدهید
ریسک زنجیره تامین. بوروکراتیک به نظر میرسد. در واقع یک کلید خاموش است.
تحت قانون امنیت زنجیره تامین خرید فدرال 2018 — FASCSA — برچسب "ریسک زنجیره تامین" به این معنی است که هیچ پیمانکار دولتی نمیتواند با شما تجارت کند. نه فقط پنتاگون. هر کسی که یک قرارداد فدرال میخواهد. هر تامینکننده، پیمانکار فرعی یا شریک در اکوسیستم دولتی.
به انگلیسی: شما برای کل زنجیره تامین فدرال رادیواکتیو میشوید.
قانون برای تهدیدات خارجی ساخته شد. زیرساخت 5G Huawei. نرمافزار آنتیویروس Kaspersky. شرکتهایی با پیوندهای مستند با دولتهای متخاصم.
هر شرکت در فهرست قبل از Anthropic یک چیز مشترک داشت: آنها از کشورهایی بودند که دشمنان ایالات متحده در نظر گرفته میشوند.
Anthropic در سانفرانسیسکو دفتر مرکزی دارد.
پنتاگون همچنین قانون تولید دفاعی را تهدید کرد — قانونی از دوران جنگ سرد که برای تصاحب کارخانهها برای تولید زمان جنگ طراحی شده است. کارخانههای فولاد. کارخانههای مهمات. زیرساخت فیزیکی جنگ.
پنتاگون تهدید کرد از آن برای وادار کردن یک شرکت نرمافزاری به حذف ویژگیهای ایمنی از یک چتبات AI Agent استفاده کند.
کارشناسان حقوقی این کاربرد را "مشکوک" نامیدند. قانون برای تولید فیزیکی ساخته شده بود، نه محدودیتهای نرمافزار. استفاده از آن برای مجبور کردن یک شرکت به کم امنتر کردن AI Agent خود، حداقل، یک نظریه حقوقی جدید خواهد بود.
آمودی مشکل منطقی را در بیانیه خود شناسایی کرد:
شما نمیتوانید یک فناوری را تهدیدی برای زنجیره تامین بنامید و قدرتهای اضطراری را برای تصرف آن فراخوانی کنید چون بدون آن نمیتوانید کار کنید. یکی را انتخاب کنید.
نتیجه عملی گویا است. CBS News گزارش داد که Claude در استفاده نظامی فعال باقی مانده است. علیرغم لیست سیاه. برچسب تنبیهی بود، نه عملی — فناوری برای بیرون کشیدن بیش از حد تعبیه شده بود.
که سوالی را مطرح میکند که به نظر میرسد هیچکس در واشنگتن مشتاق پاسخ دادن به آن نیست: اگر پنتاگون نمیتواند دستور حذف فناوری که رسماً در لیست سیاه قرار داده است را اجرا کند، دقیقاً چگونه محافظهای استفاده را اجرا خواهد کرد؟
موضع پنتاگون ساده است. شرکتهای خصوصی سیاست نظامی تعیین نمیکنند. شرکتهای AI Agent فروشنده هستند. ارتش تصمیم میگیرد که چگونه از ابزارهای خود استفاده میشود.
از این منظر، Anthropic تامینکنندهای بود که از تحویل آنچه سفارش داده شده بود خودداری کرد. مشتری فروشنده دیگری پیدا کرد.
این چارچوب از نظر داخلی سازگار است. همچنین چارچوبی است که برای لوازم اداری استفاده میکنید. نه برای فناوری که در 95٪ شبیهسازیها تشدید هستهای را انتخاب کرد.
آیا محافظها واقعی هستند؟
روز جمعه، معامله OpenAI محافظ داشت. تا دوشنبه، به محافظهای بیشتری نیاز داشت.
این چیزی در مورد محافظهای جمعه به شما میگوید.
زبانی که آلتمن در اصلاحیه دوشنبه با آن موافقت کرد، شایسته یک مطالعه دقیق است:
کلمهای که کار سنگین را انجام میدهد: عمداً.
چه اتفاقی میافتد وقتی یک AI Agent مجموعه دادهای را پردازش میکند که اتفاقاً شامل آمریکاییها میشود؟ اگر نظارت یک محصول جانبی یک عملیات اطلاعاتی گستردهتر باشد، نه هدف اعلام شده چه؟ چه کسی قصد را در داخل یک شبکه طبقهبندی شده که در آن مکانیسمهای نظارت، به طور طراحی، محدود هستند، تعریف میکند؟
بند دادههای به دست آمده تجاری حتی آشکارتر است. اصلاحیه دوشنبه به صراحت استفاده از دادههای شخصی خریداری شده — ردیابی مکان، تاریخچه مرور، سوابق مالی — برای نظارت بر آمریکاییها را منع میکند.
آن بند دوشنبه اضافه شد. معامله جمعه آن را شامل نمیشد.
برای یک آخر هفته کامل، توافق OpenAI با پنتاگون از نظر فنی نظارت انبوه از طریق دادههای خریداری شده تجاری در مورد شهروندان آمریکایی را مجاز میدانست.
آلتمن تا این حد تصدیق کرد:
حذف NSA نیز ارزش بررسی دارد. آژانسهای اطلاعاتی مانند NSA نمیتوانند بدون "اصلاح بعدی" قرارداد از سیستم OpenAI استفاده کنند. این شبیه یک ممنوعیت به نظر میرسد. در واقع یک فرآیند است. مکانیسم اعطای دسترسی در ساختار قرارداد تعبیه شده است.
این یک دیوار نیست. این یک در با کلید متفاوت است.
مشکل عمیقتر تناقض همه دستها است. در همان روزی که آلتمن در مورد اصول و محافظها در X پست گذاشت، داخلاً به کارمندان گفت که OpenAI "نمیتواند انتخاب کند که ارتش چگونه از فناوری آن استفاده میکند."
اگر شرکتی که AI Agent را میسازد نمیتواند انتخاب کند که چگونه استفاده میشود، محافظها یک بیانیه مطبوعاتی هستند. نه یک سیاست.
در محیطهای طبقهبندی شده، نظارت بر AI Agent اساساً با نظارت بر یک سرویس ابری متفاوت است. دستگاه امنیتی که از اسرار نظامی محافظت میکند همچنین نظارت مستقل بر رفتار AI Agent را مسدود میکند.
مهندسان مستقر در میدان میتوانند برخی از تعاملات را تماشا کنند. اما "برخی از تعاملات" و "هر تعاملی که قرارداد شامل میشود" چیزهای بسیار متفاوتی هستند.
بعداً چه میآید
بازار صحبت کرده است. همکاری قرارداد میگیرد. مقاومت در لیست سیاه قرار میگیرد.
مردم نیز صحبت کردهاند. آنها در حال حذف نصب هستند.
ساختار انگیزه واضح است. OpenAI همکاری کرد و معامله را به دست آورد. Anthropic مقاومت کرد و به عنوان یک ریسک زنجیره تامین تعیین شد — همان برچسبی که دولت برای شرکتهای مرتبط با متخاصمان خارجی استفاده میکند.
در اجلاس a16z، کارپ پیشبینی کرد که هر شرکت AI Agent ظرف سه سال با ارتش کار خواهد کرد. بر اساس انگیزهها، این یک پیشبینی نیست. این یک توصیف است.
اما اعداد واکنش داستان متفاوتی را روایت میکنند.
افزایش 295٪ حذف نصب. Claude در رتبه 1 در هفت کشور. بیش از 500 کارمند فناوری که از ردههای کارفرمایان خود خارج شدهاند. Le Monde که از پاریس در مورد اقتدارگرایی دولت سرمقاله مینویسد. نظرسنجیها نشان میدهند که 84٪ شهروندان بریتانیایی نگران مشارکتهای AI Agent دولتی-شرکتی هستند.
مهندسانی که این سیستمها را میسازند و افرادی که از آنها استفاده میکنند چیزی را میبینند که به نظر میرسد پنتاگون نمیبیند: حمایت از دفاع ملی و استقرار فناوری غیرقابل اعتماد برای کشتن خودمختار یک چیز نیستند.
هیچ اصلاحیه قراردادی این شکاف را نمیبندد. هیچ محافظی آن را نمیبندد. هیچ مهندس مستقر در میدانی آن را نمیبندد.
مدلهای AI Agent در 95٪ شبیهسازیهای بازی جنگی تشدید هستهای را انتخاب کردند. شرکتی که گفت "فناوری هنوز آماده نیست" در لیست سیاه قرار گرفت. شرکتی که "بله" گفت ظرف 72 ساعت اعتراف کرد که سهلانگار بوده است. فناوری صرف نظر از آنچه هر دو شرکت میخواستند در عملیات فعال مستقر باقی میماند.
آمودی پیشنهاد داد تحقیق و توسعه را انجام دهد تا سلاحهای خودمختار AI Agent را ایمن و قابل اعتماد کند. او پیشنهاد داد با پنتاگون برای رسیدن به آنجا همکاری کند. پیشنهاد رد شد.
Anthropic یک قرارداد 200 میلیون دلاری و اعتماد پنتاگون داشت. سپس آنها پرسیدند چگونه از فناوری آنها استفاده میشود.
پاسخ یک مهلت، یک لیست سیاه و برچسبی بود که قبلاً برای متخاصمان آمریکا رزرو شده بود.
شبیهسازیها همچنان اجرا میشوند. در 95٪ آنها، کسی دکمه را فشار میدهد.
منبع: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/


