پست Google پیشرفت عوامل هوش مصنوعی Gemini برای پنتاگون در میان مخالفت‌ها در BitcoinEthereumNews.com ظاهر شد. عوامل هوش مصنوعی Google Gemini از وظایف طبقه‌بندی‌نشده پنتاگون پشتیبانی می‌کنندپست Google پیشرفت عوامل هوش مصنوعی Gemini برای پنتاگون در میان مخالفت‌ها در BitcoinEthereumNews.com ظاهر شد. عوامل هوش مصنوعی Google Gemini از وظایف طبقه‌بندی‌نشده پنتاگون پشتیبانی می‌کنند

گوگل عوامل هوش مصنوعی Gemini را برای پنتاگون در میان مخالفت‌ها پیش می‌برد

2026/03/11 02:51
مدت مطالعه: 4 دقیقه
برای ارائه بازخورد یا طرح هرگونه نگرانی درباره این محتوا، لطفاً با ما از طریق crypto.news@mexc.com تماس بگیرید.

عوامل هوش مصنوعی Google Gemini از وظایف در شبکه‌های طبقه‌بندی نشده پنتاگون پشتیبانی می‌کنند

گوگل عوامل هوش مصنوعی مبتنی بر Gemini را برای کار طبقه‌بندی نشده در شبکه‌های پنتاگون به وزارت دفاع ایالات متحده ارائه خواهد داد، طبق گزارش news.bloomberglaw.com/federal-contracting/google-to-provide-pentagon-with-ai-agents-for-unclassified-work" target="_blank" rel="nofollow noopener">Bloomberg Law (https://news.bloomberglaw.com/federal-contracting/google-to-provide-pentagon-with-ai-agents-for-unclassified-work?utm_source=openai). معاون وزیر دفاع برای تحقیقات و مهندسی، امیل مایکل، اعلام کرد که این عوامل در ابتدا در شبکه‌های طبقه‌بندی نشده که به بیش از 3 میلیون پرسنل وزارتخانه خدمات ارائه می‌دهند، فعالیت خواهند کرد. وزارتخانه همچنین علاقه خود را به گسترش عوامل به سیستم‌های طبقه‌بندی شده یا فوق محرمانه نشان داده است، اما مرحله فعلی طبقه‌بندی نشده باقی می‌ماند.

این استقرار به عنوان پشتیبانی از وظایف در شبکه‌های طبقه‌بندی نشده پنتاگون تعریف شده است. همچنین سوالات فوری حاکمیتی را مطرح می‌کند زیرا تقاضای نظامی با محافظت‌های امنیتی اعمال شده توسط ارائه‌دهنده مواجه می‌شود.

چرا این موضوع برای حاکمیت، اخلاق و عملیات دفاعی اهمیت دارد

همانطور که TechRadar گزارش داده است (https://www.techradar.com/pro/security/pentagon-may-sever-anthropic-relationship-over-ai-safeguards-claude-maker-expresses-concerns-over-hard-limits-around-fully-autonomous-weapons-and-mass-domestic-surveillance?utm_source=openai)، وزیر دفاع از شرکت‌ها خواسته است که استفاده گسترده‌تر از هوش مصنوعی را برای "تمام اهداف قانونی" مجاز کنند، که نشان‌دهنده فشار برای کاهش محدودیت‌های مدل است. این موضع پیامدهای تدارکات، انطباق و نظارت را در سراسر گردش کار دفاعی افزایش می‌دهد. ارائه‌دهندگان با محدودیت‌های سخت ممکن است با اصطکاک قراردادی مواجه شوند اگر زبان به نظر برسد که استقلال فراتر از سیاست‌های آنها را فعال می‌کند.

کار آکادمیک برجسته می‌کند که ریسک با افزایش استقلال عامل هوش مصنوعی و کاهش نظارت انسانی افزایش می‌یابد، بر اساس تحقیقات arXiv (https://arxiv.org/abs/2502.02649?utm_source=openai). برای عملیات دفاعی، این پویایی باعث می‌شود حسابرسی‌پذیری، آستانه‌های تشدید و تعیین پاسخگویی برای استقرار ایمن محوری باشند.

Anthropic رویکرد متضادی را نشان می‌دهد و از کاهش محافظت‌ها در مورد سلاح‌های کاملاً خودمختار یا نظارت انبوه داخلی خودداری می‌کند. داریو آمودئی، مدیرعامل، همانطور که AP News گزارش داده است (https://apnews.com/article/9b28dda41bdb52b6a378fa9fc80b8fda?utm_source=openai)، گفت: "نمی‌توانم با وجدان خوب" با این جنبه‌ها مطابقت کنم. این موضع تاکید می‌کند که چگونه سیاست‌های فروشنده می‌توانند برخی کاربردهای دفاعی را محدود کنند حتی زمانی که استفاده ممکن است از نظر قانونی مجاز باشد.

تأثیر فوری محدود است: عوامل هوش مصنوعی Google Gemini در این مرحله به شبکه‌های طبقه‌بندی نشده پنتاگون محدود می‌شوند. این محدوده به تیم‌های عملیاتی اجازه می‌دهد قبل از هر گسترش گسترده‌تر، قابلیت اطمینان و تناسب سیاست را ارزیابی کنند.

محدودیت‌های کلیدی شامل محافظت‌های ارائه‌دهنده که استفاده‌های خاصی را مجاز نمی‌کنند و فشار وزارتخانه برای مجوز "تمام اهداف قانونی" است. مراحل بعدی به زبان قرارداد، بررسی‌های ریسک و هماهنگی بین محافظت‌های مدل و سیاست دفاعی بستگی دارد.

تنش‌های کلیدی: استقلال، نظارت و محافظت‌های ارائه‌دهنده

فشار وزارت دفاع برای تمام اهداف قانونی در مقابل محافظت‌های سخت

درخواست وزارتخانه برای "تمام اهداف قانونی" اصطکاکی با ارائه‌دهندگانی که محدودیت‌های امنیتی سخت را حفظ می‌کنند، ایجاد می‌کند. نکته اصلی این است که استقلال تا چه حد می‌تواند گسترش یابد در حالی که مسئولیت و نظارت انسانی حفظ شود. این تنش محدوده، معیارهای پذیرش و مسیرهای تشدید را برای عوامل هوش مصنوعی شکل خواهد داد.

امتناع Anthropic در مورد ریسک‌های سلاح‌های خودمختار و نظارت انبوه

Anthropic با امتناع از استفاده‌های مرتبط با سلاح‌های کاملاً خودمختار یا نظارت انبوه داخلی، خط قرمز روشنی ترسیم کرده است، همانطور که در اظهارات عمومی رهبری آن منعکس شده است. این موضع مسیرهای دفاعی خاصی را محدود می‌کند و سیستم‌های کنترل شده توسط انسان را در اولویت قرار می‌دهد.

سوالات متداول درباره عوامل هوش مصنوعی Google Gemini

آیا وزارت دفاع این عوامل هوش مصنوعی را از سیستم‌های طبقه‌بندی نشده به سیستم‌های طبقه‌بندی شده یا فوق محرمانه گسترش خواهد داد و در چه زمانی؟

وزارتخانه علاقه خود را به گسترش به شبکه‌های طبقه‌بندی شده یا فوق محرمانه نشان داده است؛ هیچ جدول زمانی عمومی افشا نشده است.

امتناع Anthropic از کاهش محافظت‌ها چگونه بر تدارکات و سیاست هوش مصنوعی پنتاگون تأثیر می‌گذارد؟

این امر مدل‌های واجد شرایط را کاهش می‌دهد و قراردادها را تحت فشار قرار می‌دهد تا محافظت‌های سختگیرانه را حفظ کنند، که بر زبان استفاده قابل قبول، انتظارات نظارتی و قابلیت‌هایی که پنتاگون می‌تواند اتخاذ کند، تأثیر می‌گذارد.

منبع: https://coincu.com/news/google-advances-gemini-ai-agents-for-pentagon-amid-pushback/

فرصت‌ های بازار
لوگو MASS
MASS قیمت لحظه ای(MASS)
$0.0006533
$0.0006533$0.0006533
+0.36%
USD
نمودار قیمت لحظه ای MASS (MASS)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل crypto.news@mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.