اواخر شب جمعه، همزمان با تشدید تنشهای ژئوپلیتیکی و تبدیل آن به درگیری آشکار در خاورمیانه، سم آلتمن در X اعلام کرد که قراردادی منتشر شد که بسیاری از افراد جامعه فناوری مدتها از آن میترسیدند، اما کمتر کسی انتظار داشت به این سرعت محقق شود.
OpenAI رسماً قراردادی با وزارت جنگ ایالات متحده (DoW) امضا کرده بود تا مدلهای پیشرفته خود را در حساسترین و طبقهبندیشدهترین شبکههای نظامی مستقر کند.
این اعلامیه بلافاصله موجی از بحران آشفته را به راه انداخت. در عرض چند دقیقه، رشته پیامها به میدان نبردی از هشتگهای "لغو ChatGPT"، پرسشهای دقیق از کارشناسان امنیت ملی و اتهامات تحریکآمیز مبنی بر فروش آینده بشریت تبدیل شد.
برای شرکتی که بر اساس اصل اطمینان از اینکه AGI به نفع تمام بشریت باشد تأسیس شده بود، تغییر مسیر به پیمانکار اصلی دفاعی مانند یک تغییر زمینلرزهای در چشمانداز اخلاقی صنعت به نظر میرسید.
زمینه این تغییر ناگهانی به اندازه خود قرارداد چشمگیر است. تنها چند ساعت قبل از اعلامیه آلتمن، رئیسجمهور دونالد ترامپ فرمان اجرایی گستردهای صادر کرد که همه آژانسهای فدرال را مستقیماً ملزم به توقف فوری استفاده از فناوری Anthropic، رقیب اصلی OpenAI، کرد.
وزیر جنگ پیت هگست، Anthropic را به عنوان "ریسک زنجیره تامین برای امنیت ملی" برچسب زد، عنوانی که معمولاً برای رقبای خارجی مانند Huawei رزرو شده است.
بنا به گزارشها، Anthropic از اعطای دسترسی بیقید و شرط به مدلهای Claude خود به پنتاگون خودداری کرده و بر "خطوط قرمز" قراردادی اصرار داشت که استفاده از فناوری برای نظارت انبوه داخلی یا سلاحهای کشنده کاملاً خودمختار را ممنوع میکند.
سم آلتمن، مدیرعامل OpenAI
OpenAI وارد خلأ ایجاد شده توسط خروج رقیب خود شد. در حالی که دولت تقاضا داشت که مدلهای هوش مصنوعی برای "همه اهداف قانونی" در دسترس باشند، OpenAI ورود خود را نه به عنوان تسلیم بلکه به عنوان یک مصالحه پیچیده تعریف کرد.
در رویداد Ask Me Anything (AMA) خود، آلتمن ادعا کرد که OpenAI همان محافظهای ایمنی را که Anthropic به دنبال آن بود تأمین کرده است، اما آنها را از طریق یک رویکرد چندلایه به جای یک اولتیماتوم به دست آورده است.
با موافقت با کار در چارچوبهای قانونی موجود، با استناد به متمم چهارم و قانون Posse Comitatus، OpenAI به طور مؤثری رویارویی که تهدید میکرد ارتش ایالات متحده را در طول یک جنگ فعال بدون قابلیتهای هوش مصنوعی پیشرفته رها کند، کاهش داد.
رشته پیامها به سرعت از روابط عمومی شرکتی به بحث خامی درباره اخلاق جنگ هوش مصنوعی منتقل شد. یکی از پرسشهای محبوب به تغییر اساسی در ماموریت OpenAI پرداخت: چرا از "بهبود انسان" به همکاری دفاعی روی آورد؟
پاسخ آلتمن به طور مشخص عملگرایانه بود: "جهان یک مکان پیچیده، آشفته و گاهی خطرناک است. ما معتقدیم افرادی که مسئولیت دفاع از کشور را دارند باید به بهترین ابزارهای موجود دسترسی داشته باشند."
آلتمن محافظهای فنی طراحی شده برای جلوگیری از تبدیل شدن هوش مصنوعی به یک جلاد خودمختار را شرح داد.
اینها شامل استراتژی استقرار "فقط ابری" است که از جاسازی مستقیم مدلها در دستگاههای لبه یا سختافزار تسلیحاتی جلوگیری میکند، و استقرار "مهندسان استقرار میدانی" (FDEs) برای نظارت بر استفاده طبقهبندی شده.
با این حال، رشته پیامها همچنان شکاک باقی ماند. منتقدان به یادداشت جامعه اشاره کردند که برجسته میکرد تحت قانون USA PATRIOT Act، "استفاده قانونی" هنوز میتواند جمعآوری گسترده دادهها را شامل شود.
وقتی درباره احتمال ایجاد فاجعه جهانی توسط هوش مصنوعی پرسیده شد، آلتمن به طور غیرمعمولی مختصر بود و پیشنهاد کرد که همکاری امنیت ملی ممکن است در واقع ریسک را با حفظ دولت و توسعهدهندگان در یک صفحه کاهش دهد.
یکی از افشاگرترین تبادلات شامل حکمرانی بود. وقتی پرسیده شد که آیا دولت فدرال میتواند در نهایت OpenAI را ملی کند، آلتمن اعتراف کرد: "البته به آن فکر کردهام، اما در مسیر فعلی خیلی محتمل به نظر نمیرسد."
این اعتراف کمکی به آرام کردن کسانی که تغییر نام وزارت جنگ و قرار گرفتن Anthropic در لیست سیاه را به عنوان اولین گامها به سوی یک AGI دولتی میبینند، نکرد.
پیامدهای این قرارداد بسیار فراتر از یک قرارداد واحد است. با پذیرش تعیین ریسک زنجیره تامین رقیب خود، OpenAI به طور ضمنی دنیایی را تأیید کرده است که در آن دولت میتواند برندگان و بازندگان را بر اساس تعهد ایدئولوژیک یک شرکت به مطلوبیت نظامی انتخاب کند.
این یک سابقه ترسناک ایجاد میکند، همانطور که حتی آلتمن نیز اذعان کرد، جایی که شرکتهای خصوصی ممکن است تحت فشار قرار گیرند تا محافظهای اخلاقی خود را کاهش دهند تا از برچسب خوردن به عنوان تهدید امنیت ملی جلوگیری کنند.
از نظر اخلاقی، الزام انسان در حلقه بحثبرانگیزترین نکته باقی میماند.
در حالی که OpenAI اصرار دارد که انسانها مسئولیت استفاده از نیرو را حفظ خواهند کرد، کارشناسان دفاعی در رشته پیامها اشاره کردند که سیاست فعلی DoW (دستورالعمل 3000.09) به طور بدنامی در مورد آنچه کنترل معنادار انسان در نبرد دیجیتال پرسرعت را تشکیل میدهد، مبهم است.
سم آلتمن
اگر یک هوش مصنوعی دادههای هدفگیری را سریعتر از پلک زدن یک انسان پردازش کند، آیا انسان واقعاً در حلقه است یا صرفاً یک مهر تأیید برای تصمیم یک ماشین؟
ریسک از دست دادن کنترل AGI دیگر یک نگرانی نظری برای آینده دور نیست؛ این سؤالی است که این مدلها چگونه در محیط پرمخاطره جنگ طبقهبندی شده رفتار خواهند کرد.
همچنین بخوانید: OpenAI رکورد 110 میلیارد دلار از Amazon، NVIDIA و SoftBank برای تقویت هوش مصنوعی جمعآوری میکند
همانطور که AMA به پایان رسید، تصویر آلتمن در خاطرات کاربران OpenAI آن چیزی نبود که یک رویایی چشمبراه فناوری بود، بلکه یک دیپلمات دیجیتال بود که در دنیایی از قدرت سخت حرکت میکند.
او رشته پیامها را با یک نتیجه هشدار دهنده ترک کرد: عصر توسعه بیطرف هوش مصنوعی به پایان رسیده است. تصمیم OpenAI برای ادغام با وزارت جنگ آغاز فصل جدیدی است که در آن AGI به عنوان یک دارایی استراتژیک دولت، به جای یک کالای عمومی جهانی، رفتار میشود.
پست خلاصه AMA سم آلتمن درباره توافق بحثبرانگیز OpenAI با وزارت جنگ ابتدا در Technext منتشر شد.


