Moșia unei femei în vârstă de 83 de ani din Connecticut a dat în judecată dezvoltatorul ChatGPT, OpenAI, și Microsoft, susținând că chatbot-ul a alimentat convingerile sale delirante, ceea ce a dus la o crimă urmată de sinucidere. Cazul marchează prima dată când un sistem de inteligență artificială a fost legat direct de o omucidere.
Procesul, depus la Curtea Superioară din California în San Francisco, acuză OpenAI de proiectarea și distribuirea unui produs defect sub forma ChatGPT-4o. Documentul susține că acesta a întărit convingerile paranoice ale lui Stein-Erik Soelberg, care apoi a îndreptat acele convingeri către mama sa, Suzanne Adams, înainte de a o ucide și apoi pe sine însuși la domiciliul lor din Greenwich, Connecticut.
Vorbind despre caz, J. Eli Wade-Scott, partener principal al Edelson PC, care reprezintă moșia Adams, a menționat că acesta este primul caz care caută să tragă OpenAI la răspundere pentru rolul său în cauzarea violenței împotriva unei terțe părți. "Reprezentăm, de asemenea, familia lui Adam Raine, care și-a încheiat tragic viața în acest an, dar acesta este primul caz care va trage OpenAI la răspundere pentru a împinge pe cineva să facă rău altei persoane", a spus Eli Wade-Scott.
Conform raportului poliției, Soelberg a bătut mortal și a sugrumat-o pe Adams în august, înainte de a muri prin sinucidere. Procesul menționează că înainte ca incidentul să se producă, chatbot-ul intensificase paranoia lui Soelberg, crescându-i dependența emotională de sistemul dezvoltat de OpenAI. Conform plângerii, ChatGPT i-a întărit convingerea că nu poate avea încredere în nimeni, cu excepția chatbot-ului, remarcând că toți din jurul său, inclusiv mama sa, erau inamici.
Procesul a susținut, de asemenea, că în afară de mama sa, Soelberg vedea oameni precum curierii și ofițerii de poliție drept inamici. Documentul menționează că ChatGPT nu a reușit să conteste acele afirmații delirante sau să sugereze că Soelberg să caute ajutor de la profesioniști calificați în sănătate mintală. "Îndemnam organele de aplicare a legii să înceapă să se gândească, atunci când apar astfel de tragedii, ce spunea acel utilizator către ChatGPT și ce îi spunea ChatGPT să facă", a declarat Wade-Scott.
În declarația sa, OpenAI a menționat că în prezent analizează procesul și va continua să îmbunătățească capacitatea ChatGPT de a recunoaște suferința emoțională, de a dezescalada conversațiile și de a îndrepta utilizatorii către căutarea de sprijin în lumea reală. "Aceasta este o situație incredibil de sfâșietoare și analizăm documentele pentru a înțelege detaliile", a declarat un purtător de cuvânt OpenAI.
Procesul îl numește pe CEO-ul OpenAI, Sam Altman, ca pârât și acuză Microsoft că a aprobat lansarea GPT-4o, pe care îl numește "cea mai periculoasă versiune a ChatGPT" în 2024. OpenAI a recunoscut, de asemenea, recent amploarea problemelor de sănătate mintală pe care utilizatorii le raportează pe platforma sa. În octombrie, compania a remarcat că aproximativ 1,2 milioane din cei 800 de milioane de utilizatori săptămânali discută despre sinucidere, notând că sute de mii de utilizatori prezintă semne de intenție suicidară sau psihoză, conform datelor companiei.
În ciuda declarației sale, Wade-Scott a menționat că OpenAI nu a publicat încă jurnalele de chat ale lui Soelberg. Între timp, procesul vine pe fondul unei examinări mai ample a chatbot-urilor AI și a interacțiunilor lor cu utilizatorii vulnerabili. În octombrie trecut, Character.AI a declarat că va elimina funcțiile sale deschise pentru utilizatorii sub 18 ani, în urma proceselor și presiunilor de reglementare legate de sinuciderile adolescenților și prejudiciile emoționale legate de platforma sa. Compania s-a confruntat, de asemenea, cu reacții negative după un prompt viral când intenționau să renunțe la aplicație.
Procesul împotriva OpenAI și Microsoft este primul caz de deces prin culpă ce implică un chatbot AI care îl numește pe Microsoft ca pârât. Este, de asemenea, primul care leagă un chatbot de omucidere, mai degrabă decât de sinucidere. Moșia caută acum daune materiale în sume nedivulgate, un proces cu juriu și o ordonanță judecătorească care va cere OpenAI să includă măsuri de protecție suplimentare pentru utilizatorii săi. "OpenAI și Microsoft au responsabilitatea de a-și testa produsele înainte de a le elibera în lume", a spus Wade-Scott.
Nu doar citi știri despre cripto. Înțelege-le. Abonează-te la newsletter-ul nostru. Este gratuit.


