گزارش شده است که ارتش ایالات متحده در طول یک حمله هوایی بزرگ در ایران به هوش مصنوعی Claude شرکت Anthropic متکی بوده است، پیشرفتی که تنها چند ساعت پس از رئیس جمهور دونالد ترامپ به سطح رسیدگزارش شده است که ارتش ایالات متحده در طول یک حمله هوایی بزرگ در ایران به هوش مصنوعی Claude شرکت Anthropic متکی بوده است، پیشرفتی که تنها چند ساعت پس از رئیس جمهور دونالد ترامپ به سطح رسید

ارتش آمریکا از Anthropic برای حمله به ایران علیرغم ممنوعیت ترامپ استفاده کرد: WSJ

2026/03/01 19:49
مدت مطالعه: 8 دقیقه
ارتش آمریکا از Anthropic برای حمله به ایران با وجود ممنوعیت ترامپ استفاده کرد: WSJ

بنا بر گزارش‌ها، ارتش ایالات متحده در جریان یک حمله هوایی بزرگ در ایران به Claude AI شرکت Anthropic متکی بود، پیشرفتی که تنها چند ساعت پس از آنکه رئیس‌جمهور دونالد ترامپ به آژانس‌های فدرال دستور داد استفاده از این مدل را متوقف کنند، آشکار شد. بنا بر گزارش‌ها، فرماندهی‌های منطقه، از جمله CENTCOM، از Claude برای پشتیبانی از تجزیه و تحلیل اطلاعاتی، بررسی اهداف و شبیه‌سازی میدان نبرد استفاده کردند. این رویداد برجسته می‌کند که چگونه ابزارهای هوش مصنوعی به عمق در عملیات دفاعی بافته شده‌اند، حتی در حالی که سیاست‌گذاران تلاش می‌کنند ارتباط با برخی تأمین‌کنندگان را قطع کنند. این رویداد بر تنشی بین دستورالعمل‌های اجرایی و اتوماسیون عملیاتی تأکید می‌کند که می‌تواند بر تدارکات و مدیریت ریسک در سراسر برنامه‌های دفاعی تأثیر بگذارد.

نکات کلیدی

  • بنا بر گزارش‌ها، Claude AI برای تجزیه و تحلیل اطلاعاتی، بررسی اهداف و شبیه‌سازی میدان نبرد در ارتباط با یک حمله هوایی بزرگ، ساعاتی پس از دستورالعمل کاخ سفید برای توقف استفاده از سیستم، مستقر شد.
  • Anthropic قبلاً یک قرارداد چند ساله با پنتاگون به ارزش تا 200 میلیون دلار را تضمین کرده بود، با همکاری‌هایی شامل Palantir و Amazon Web Services برای فعال‌سازی گردش کارهای طبقه‌بندی شده برای Claude.

  • دولت ترامپ به آژانس‌ها دستور داد کار با Anthropic را متوقف کنند و به وزارت دفاع دستور داد با این شرکت به عنوان یک خطر امنیتی احتمالی رفتار کند، پس از آنکه مذاکرات قرارداد بر سر استفاده نظامی نامحدود شکست خورد.

  • پنتاگون شروع به شناسایی تأمین‌کنندگان جایگزین کرد و برای استقرار مدل‌های هوش مصنوعی دیگر در شبکه‌های طبقه‌بندی شده، از جمله همکاری با OpenAI برای چنین استقرارهایی، اقدام کرد.

  • داریو آمودئی، مدیرعامل Anthropic، به طور علنی در برابر این ممنوعیت ایستاد و استدلال کرد که برخی کاربردهای نظامی از مرزهای اخلاقی عبور می‌کنند و باید تحت نظارت انسانی باقی بمانند، نه نظارت خودکار انبوه یا تسلیحاتی خودکار.

احساسات: خنثی

بستر بازار: این رویداد در تقاطع تدارکات دفاعی، اخلاق هوش مصنوعی و مدیریت ریسک امنیت ملی قرار دارد، زیرا آژانس‌ها وابستگی‌های فروشنده و طبقه‌بندی ابزارهای هوش مصنوعی برای عملیات حساس را مجدداً ارزیابی می‌کنند.

چرا مهم است

این حادثه نگاهی نادر به نحوه ادغام مدل‌های تجاری هوش مصنوعی در گردش کارهای نظامی پرخطر ارائه می‌دهد. Claude، که در اصل برای وظایف شناختی گسترده طراحی شده بود، بنا بر گزارش‌ها از تجزیه و تحلیل اطلاعاتی و مدل‌سازی سناریوهای میدان نبرد پشتیبانی کرد، که نشان‌دهنده سطحی از اعتماد عملیاتی است که فراتر از محیط‌های آزمایشگاهی به ماموریت‌های دنیای واقعی گسترش می‌یابد. این سؤالات مهمی درباره قابلیت اطمینان، حسابرسی و کنترل‌پذیری هوش مصنوعی در برنامه‌ریزی رزمی مطرح می‌کند، به‌ویژه زمانی که سیگنال‌های سیاست دولت به سرعت در مورد استفاده از فروشنده تغییر می‌کند.

در سطح سیاست، اصطکاک بین یک رابطه قراردادی و یک دستورالعمل ریاست‌جمهوری بحث گسترده‌تری را درباره نحوه رفتار با فروشندگان هوش مصنوعی در محیط‌های امن برجسته می‌کند. امتناع Anthropic از اعطای استفاده نظامی نامحدود با مرزهای اخلاقی اعلام شده آن همسو است و نشان می‌دهد که ارائه‌دهندگان بخش خصوصی ممکن است به طور فزاینده‌ای در برابر پیکربندی‌هایی که از نظر اخلاقی مشکل‌ساز می‌دانند، مقاومت کنند. پاسخ پنتاگون - روی آوردن به تأمین‌کنندگان جایگزین برای بارهای کاری طبقه‌بندی شده - نشان می‌دهد که چگونه بخش‌های دفاعی ممکن است اکوسیستم‌های هوش مصنوعی را برای کاهش قرار گرفتن در معرض ریسک متنوع کنند، در حالی که قابلیت را در عملیات حساس حفظ می‌کنند.

این تنش همچنین به پویایی‌های رقابتی بازار هوش مصنوعی به عنوان سرویس نیز مربوط می‌شود. با گزارش‌ها مبنی بر اینکه OpenAI برای ارائه مدل‌ها برای شبکه‌های طبقه‌بندی شده وارد شده است، این بخش احتمالاً شاهد آزمایش‌های مداوم و مذاکره مجدد شرایط در مورد طبقه‌بندی‌های امنیتی، حاکمیت داده و ریسک زنجیره تأمین خواهد بود. این وضعیت بر نیاز به چارچوب‌های حاکمیتی دقیق که می‌توانند با تغییرات تکنولوژیکی سریع سازگار شوند بدون به خطر انداختن امنیت عملیاتی یا استانداردهای اخلاقی، تأکید می‌کند.

چه چیزی را باید بعداً تماشا کرد

  • به‌روزرسانی‌های نظارتی و سیاستی از وزارت دفاع و کاخ سفید در مورد استفاده از فروشنده هوش مصنوعی و طبقه‌بندی‌های امنیتی.
  • هرگونه تدارکات یا مشارکت جدید که قابلیت‌های هوش مصنوعی را برای ماموریت‌های طبقه‌بندی شده گسترش می‌دهد، از جمله توافقات احتمالی با ارائه‌دهندگان جایگزین برای جایگزینی یا تکمیل پیشنهادات Anthropic.
  • بیانیه‌های عمومی از Anthropic و OpenAI درباره ماهیت استقرارها در شبکه‌های ایمن و هرگونه محدودیت یا حفاظ جدید.
  • جزئیات بیشتر در مورد نتیجه مذاکرات قبلی استفاده نامحدود و اینکه چگونه این موضوع قراردادهای دفاعی آینده با فروشندگان هوش مصنوعی را شکل خواهد داد.

منابع و تأیید

  • گزارش‌ها درباره استفاده از Claude در یک عملیات خاورمیانه و دستور توقف دولت، از جمله شواهدی که با منابع آشنا به موضوع مورد بحث قرار گرفت.
  • پیشینه قرارداد Anthropic با پنتاگون، از جمله ترتیبات چند ساله به ارزش تا 200 میلیون دلار و مشارکت‌ها با Palantir و AWS برای گردش کارهای طبقه‌بندی شده.
  • بیانیه‌های رهبری Anthropic و نظرات عمومی در مورد استفاده نظامی و مرزهای اخلاقی، از جمله مصاحبه‌ها و پاسخ‌های رسمی به اقدامات نظارتی.
  • استقرار OpenAI در شبکه‌های طبقه‌بندی شده و بحث‌های مرتبط، از جمله گفتمان عمومی پیرامون یک معامله با ارتش ایالات متحده و پوشش مرتبط.
  • بحث‌های عمومی و ارجاعات رسانه‌های اجتماعی مرتبط با ترتیب OpenAI با ارتش، مانند پست‌هایی که واکنش‌های صنعت را مستند می‌کنند.

Claude شرکت Anthropic در خط نشانه: هوش مصنوعی، اخلاق و سیاست در عملیات دفاعی با هم برخورد می‌کنند

مقامات Claude را به عنوان ایفای نقش در تجزیه و تحلیل اطلاعاتی و برنامه‌ریزی عملیاتی در طول یک حمله هوایی بزرگ در ایران توصیف کردند، ادعایی که نشان می‌دهد ابزارهای هوش مصنوعی چقدر به تصمیم‌گیری میدان نبرد نزدیک شده‌اند. در حالی که دولت ترامپ برای قطع ارتباط با Anthropic حرکت کرد، بنا بر گزارش‌ها استفاده عملیاتی از Claude در برخی فرماندهی‌ها ادامه یافت، که بر عدم ارتباط بین بیانیه‌های سیاستی و گردش کارهای دفاعی روزمره تأکید می‌کند. واقعیت عملی این است که تجزیه و تحلیل‌ها، شبیه‌سازی‌ها و ارزیابی‌های ریسک مبتنی بر هوش مصنوعی می‌توانند به برنامه‌ریزی ماموریت راه یابند، حتی در حالی که آژانس‌ها ریسک فروشنده و الزامات انطباق را در سراسر بخش‌ها مجدداً ارزیابی می‌کنند.

مشارکت قبلی پنتاگون با Anthropic قابل توجه بود: یک قرارداد چند ساله به ارزش تا 200 میلیون دلار و شبکه‌ای از مشارکت‌ها، از جمله Palantir و Amazon Web Services، که استفاده از Claude را در مدیریت اطلاعات طبقه‌بندی شده و پردازش اطلاعاتی امکان‌پذیر کرد. این ترتیب یک استراتژی گسترده‌تر را برجسته کرد: متنوع‌سازی قابلیت‌های هوش مصنوعی در یک اکوسیستم قابل اعتماد برای تضمین انعطاف‌پذیری در تنظیمات حساس. با این حال، زمانی که جهت‌های سیاست تغییر کرد، دولت برای بازتعریف رابطه فروشنده حرکت کرد، که نشان‌دهنده یک تنظیم مجدد مبتنی بر ریسک به جای عقب‌نشینی کامل از عملیات دفاعی مبتنی بر هوش مصنوعی بود.

در پشت صحنه، تنش‌ها بین سیاست عمومی و اخلاق بخش خصوصی به صدر آمد. بنا بر گزارش‌ها، وزیر دفاع پیت هگسث به Anthropic فشار آورد تا استفاده نظامی نامحدود از مدل‌های خود را مجاز کند، درخواستی که رهبری Anthropic آن را به عنوان عبور از خطوط اخلاقی که شرکت از آن عبور نخواهد کرد، رد کرد. موضع این شرکت بر این باور متمرکز است که استفاده‌های خاص - نظارت داخلی انبوه و سلاح‌های کاملاً خودکار - نگرانی‌های اخلاقی و قانونی عمیقی را برمی‌انگیزد، و نظارت معنادار انسانی باید از انتقال از مفهوم به اجرا جان سالم به در ببرد. این موضع با بحث‌های جاری درباره چگونگی تعادل بین پذیرش سریع هوش مصنوعی با حفاظ‌های در برابر سوء استفاده و پیامدهای ناخواسته همسو است.

از طرف خود، پنتاگون بی‌حرکت نماند. با مواجهه با شکاف احتمالی تأمین‌کننده، شروع به ردیف کردن جایگزین‌ها کرد و بنا بر گزارش‌ها به توافق با OpenAI برای استقرار مدل‌ها در شبکه‌های طبقه‌بندی شده رسید. این تغییر بر یک حرکت استراتژیک گسترده‌تر برای تضمین تداوم قابلیت تأکید می‌کند، حتی در حالی که فروشندگان شرایط خود را برای استقرارهای حساس مجدداً ارزیابی می‌کنند. تضاد بین مرزهای اخلاقی Anthropic و نیازهای عملیاتی بخش یک تنش سیاستی گسترده‌تر را آشکار می‌کند: چگونه از فناوری تحول‌آفرین به طور مسئولانه استفاده کنیم در حالی که ضرورت‌های امنیت ملی را حفظ می‌کنیم.

ناظران صنعت همچنین به اثرات اکوسیستم چنین انتقال‌هایی اشاره کردند. بازار هوش مصنوعی به سمت پیکربندی‌های مدولار و دارای مجوز امنیتی بیشتری در حال تکامل است که می‌توانند با تغییر سیاست‌ها و ارزیابی‌های ریسک تعویض یا ارتقا یابند. ترتیب OpenAI، به‌ویژه، اشتهای مستمر برای ادغام مدل‌های پیشرو در شبکه‌های دفاعی را نشان می‌دهد، البته تحت حاکمیت و نظارت دقیق. در حالی که این مسیر قابلیت پیشرفته‌ای را برای تحلیلگران و برنامه‌ریزان نظامی وعده می‌دهد، همچنین بررسی دقیق در مورد مدیریت داده‌ها، تفسیرپذیری مدل و ریسک تکیه بیش از حد به سیستم‌های خودکار برای تصمیمات حیاتی را افزایش می‌دهد.

داریو آمودئی، مدیرعامل Anthropic، استدلال کرده است که در حالی که هوش مصنوعی می‌تواند قضاوت انسانی را تقویت کند، نمی‌تواند آن را در تصمیمات دفاعی اصلی جایگزین کند. او در اظهارات عمومی، تعهد شرکت به مرزهای اخلاقی و حفظ کنترل انسانی در لحظات محوری را تأیید کرد. تنش بین حفظ دسترسی به ابزارهای پیشرفته و حفظ استانداردهای اخلاقی احتمالاً مذاکرات آینده با آژانس‌های فدرال را شکل خواهد داد، به‌ویژه زمانی که قانون‌گذاران و رگولاتورها نقش هوش مصنوعی را در زمینه‌های غیرنظامی و امنیت ملی به دقت بررسی می‌کنند.

همانطور که چشم‌انداز در حال تکامل است، جوامع گسترده‌تر کریپتو و فناوری تماشا خواهند کرد که چگونه این پویایی‌های سیاست و تدارکات بر توسعه و استقرار سیستم‌های پیشرفته هوش مصنوعی در محیط‌های پرخطر تأثیر می‌گذارد. این رویداد به عنوان یک مطالعه موردی در تعادل بین پیشرفت تکنولوژیکی سریع با حاکمیت، نظارت و سؤال پایدار درباره اینکه مسئولیت انسانی کجا به پایان می‌رسد و تصمیم‌گیری خودکار شروع می‌شود، عمل می‌کند.

این مقاله در ابتدا به عنوان ارتش آمریکا از Anthropic برای حمله به ایران با وجود ممنوعیت ترامپ استفاده کرد: WSJ در Crypto Breaking News منتشر شد - منبع قابل اعتماد شما برای اخبار کریپتو، اخبار Bitcoin و به‌روزرسانی‌های بلاکچین.

فرصت‌ های بازار
لوگو StrikeBit AI
StrikeBit AI قیمت لحظه ای(STRIKE)
$0.006266
$0.006266$0.006266
0.00%
USD
نمودار قیمت لحظه ای StrikeBit AI (STRIKE)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل crypto.news@mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.