Moșia unei femei în vârstă de 83 de ani din Connecticut a dat în judecată dezvoltatorul ChatGPT, OpenAI, și Microsoft, susținând că chatbot-ul a alimentat credințele ei delirante, ceea ce a condus la o crimă urmată de sinucidere. Cazul marchează prima dată când un sistem de inteligență artificială a fost legat direct de o omucidere.
Procesul, depus la Curtea Superioară din California în San Francisco, a acuzat OpenAI de proiectarea și distribuirea unui produs defect sub forma ChatGPT-4o. Documentul susține că acesta a întărit credințele paranoice ale lui Stein-Erik Soelberg, care apoi a îndreptat acele credințe către mama sa, Suzanne Adams, înainte de a o ucide pe aceasta și apoi pe el însuși la locuința lor din Greenwich, Connecticut.
OpenAI și Microsoft vizate în omuciderea care implică ChatGPT
Vorbind despre caz, J. Eli Wade-Scott, partener principal al Edelson PC, care reprezintă moșia Adams, a menționat că acesta este primul caz care caută să-l facă pe OpenAI responsabil pentru rolul său în provocarea violenței asupra unei terțe părți. "Reprezentăm, de asemenea, familia lui Adam Raine, care și-a pus capăt vieții în mod tragic în acest an, dar acesta este primul caz care va face OpenAI responsabil pentru a împinge pe cineva spre a face rău altei persoane," a spus Eli Wade-Scott.
Conform raportului poliției, Soelberg a bătut mortal și a sugrumat-o pe Adams în august înainte de a muri prin sinucidere. Procesul a menționat că înainte ca incidentul să aibă loc, chatbot-ul intensificase paranoia lui Soelberg, crescându-i dependența emotională de sistemul dezvoltat de OpenAI. Conform plângerii, ChatGPT i-a întărit convingerea că nu poate avea încredere în nimeni cu excepția chatbot-ului, observând că toată lumea din jurul său, inclusiv mama sa, era un dușman.
Procesul a susținut, de asemenea, că în afară de mama sa, Soelberg vedea și persoane precum șoferii de livrare și ofițerii de poliție ca fiind dușmani. Documentul a menționat că ChatGPT nu a reușit să conteste acele afirmații delirante sau să sugereze că Soelberg să caute ajutor de la profesioniști calificați în sănătate mintală. "Îndemnăm forțele de ordine să înceapă să se gândească, atunci când apar astfel de tragedii, ce spunea acel utilizator către ChatGPT și ce îi spunea ChatGPT să facă," a spus Wade-Scott.
În declarația sa, OpenAI a menționat că analizează în prezent procesul și va continua să îmbunătățească capacitatea ChatGPT de a recunoaște suferința emoțională, de a dezamorsa conversațiile și de a îndruma utilizatorii către căutarea sprijinului în lumea reală. "Aceasta este o situație incredibil de sfâșietoare și analizăm documentele pentru a înțelege detaliile," a spus un purtător de cuvânt OpenAI într-o declarație.
Moșia dorește ca OpenAI să instaleze măsuri de siguranță pe chatbot-ul său
Procesul îl numește pe CEO-ul OpenAI, Sam Altman, ca pârât și acuză Microsoft că a aprobat lansarea GPT-4o, pe care îl numește "cea mai periculoasă versiune a ChatGPT" în 2024. OpenAI a recunoscut, de asemenea, recent amploarea problemelor de sănătate mintală pe care utilizatorii le raportează pe platforma sa. În octombrie, compania a menționat că aproximativ 1,2 milioane din cele 800 de milioane de utilizatori săptămânali discută despre sinucidere, observând că sute de mii de utilizatori prezintă semne de intenție suicidară sau psihoză, conform datelor companiei.
În ciuda declarației sale, Wade-Scott a menționat că OpenAI nu a publicat încă jurnalele de chat ale lui Soelberg. Între timp, procesul vine pe fondul unei examinări mai ample a chatbot-urilor AI și a interacțiunilor lor cu utilizatorii vulnerabili. În octombrie trecut, Character.AI a spus că va elimina funcțiile sale deschise pentru utilizatorii sub 18 ani în urma proceselor și presiunilor de reglementare legate de sinuciderile adolescenților și prejudiciile emoționale legate de platforma sa. Compania s-a confruntat, de asemenea, cu reacții negative după un prompt viral când au intenționat să părăsească aplicația.
Procesul împotriva OpenAI și Microsoft este primul caz de deces cauzat în mod nejustificat care implică un chatbot AI care îl numește pe Microsoft ca pârât. Este, de asemenea, primul care leagă un chatbot de omucidere mai degrabă decât de sinucidere. Moșia solicită acum daune monetare în sume nedivulgate, un proces cu juri și o ordonanță judecătorească care va impune OpenAI să includă măsuri de siguranță suplimentare pentru utilizatorii săi. "OpenAI și Microsoft au responsabilitatea de a-și testa produsele înainte de a fi lansate în lume," a spus Wade-Scott.
Alătură-te unei comunități premium de tranzacționare crypto gratuit pentru 30 de zile – în mod normal 100 $/lună.
Sursă: https://www.cryptopolitan.com/openai-microsoft-sued-role-in-murder-suicide/







