دارایی یک زن 83 ساله اهل کانکتیکات از OpenAI توسعهدهنده ChatGPT و مایکروسافت شکایت کرده و ادعا میکند که چتبات به باورهای هذیانی او دامن زد که منجر به قتل و خودکشی شد. این پرونده اولین باری است که یک سیستم هوش مصنوعی به طور مستقیم به یک قتل مرتبط شده است.
این شکایت که در دادگاه عالی کالیفرنیا در سانفرانسیسکو ثبت شده، OpenAI را به طراحی و توزیع یک محصول معیوب به شکل ChatGPT-4o متهم کرده است. این سند ادعا میکند که باورهای پارانوئید استین-اریک سولبرگ را تقویت کرد که سپس آن باورها را به سمت مادرش، سوزان آدامز، هدایت کرد، قبل از اینکه او را در خانهشان در گرینویچ، کانکتیکات بکشد و سپس خودکشی کند.
OpenAI و مایکروسافت در قتلی که شامل ChatGPT است هدف قرار گرفتند
در مورد این پرونده، جی. الای وید-اسکات، شریک مدیر Edelson PC، که نماینده دارایی آدامز است، اشاره کرد که این اولین پروندهای است که به دنبال مسئول دانستن OpenAI برای نقش آن در ایجاد خشونت علیه شخص ثالث است. "ما همچنین نماینده خانواده آدام رین هستیم که متأسفانه امسال به زندگی خود پایان داد، اما این اولین پروندهای است که OpenAI را مسئول سوق دادن کسی به سمت آسیب رساندن به شخص دیگری میداند،" الای وید-اسکات گفت.
بر اساس گزارش پلیس، سولبرگ در ماه اوت آدامز را به طور کشنده کتک زد و خفه کرد قبل از اینکه با خودکشی بمیرد. شکایت اشاره کرد که قبل از وقوع این حادثه، چتبات پارانویای سولبرگ را تشدید کرده بود و وابستگی عاطفی او به سیستم توسعهیافته OpenAI را افزایش داده بود. بر اساس شکایات کاربران، ChatGPT باور او را تقویت کرد که نمیتواند به هیچکس جز چتبات اعتماد کند و اشاره کرد که همه اطرافیان او، از جمله مادرش، دشمن هستند.
شکایت همچنین ادعا کرد که غیر از مادرش، سولبرگ افرادی مانند رانندههای تحویل و افسران پلیس را نیز به عنوان دشمن میدید. این سند اشاره کرد که ChatGPT در به چالش کشیدن آن ادعاهای هذیانی یا پیشنهاد اینکه سولبرگ از متخصصان واجد شرایط بهداشت روانی کمک بگیرد، ناکام ماند. "ما از مجریان قانون میخواهیم که شروع به فکر کردن درباره زمانی که فاجعههایی مانند این رخ میدهد، آن کاربر به ChatGPT چه میگفت و ChatGPT به آنها چه میگفت که انجام دهند، کنند،" وید-اسکات گفت.
OpenAI در بیانیه خود اشاره کرد که در حال حاضر شکایت را بررسی میکند و به بهبود توانایی ChatGPT برای تشخیص پریشانی عاطفی، کاهش تنش در گفتگوها و سوق دادن کاربران به سمت جستجوی حمایت در دنیای واقعی ادامه خواهد داد. "این یک موقعیت فوقالعاده دلخراش است و ما در حال بررسی پروندهها برای درک جزئیات هستیم،" یک سخنگوی OpenAI در بیانیهای گفت.
دارایی میخواهد OpenAI اقدامات امنیتی را در چتبات خود نصب کند
این شکایت سام آلتمن، مدیرعامل OpenAI را به عنوان متهم نام میبرد و مایکروسافت را به تأیید انتشار GPT-4o متهم میکند که آن را «خطرناکترین نسخه ChatGPT» در سال 2024 مینامد. OpenAI اخیراً مقیاس مسائل بهداشت روانی که کاربران در پلتفرم آن گزارش میکنند را تصدیق کرد. در اکتبر، شرکت اشاره کرد که حدود 1.2 میلیون از 800 میلیون کاربر هفتگی خود درباره خودکشی بحث میکنند و اشاره کرد که صدها هزار کاربر بر اساس دادههای شرکت، نشانههای قصد خودکشی یا روانپریشی را نشان میدهند.
علیرغم بیانیه آن، وید-اسکات اشاره کرد که OpenAI هنوز گزارشهای چت سولبرگ را منتشر نکرده است. در همین حال، این شکایت در میان بررسی گستردهتر چتباتهای هوش مصنوعی و تعاملات آنها با کاربران آسیبپذیر است. اکتبر گذشته، Character.AI گفت که ویژگیهای باز خود را برای کاربران زیر 18 سال پس از شکایات و فشارهای نظارتی مرتبط با خودکشی نوجوانان و آسیب عاطفی مرتبط با پلتفرم خود حذف خواهد کرد. این شرکت همچنین پس از یک درخواست وایرال زمانی که قصد داشتند از برنامه خارج شوند، با واکنش منفی مواجه شد.
شکایت علیه OpenAI و مایکروسافت اولین پرونده مرگ نادرست شامل یک چتبات هوش مصنوعی است که مایکروسافت را به عنوان متهم نام میبرد. این همچنین اولین باری است که یک چتبات به جای خودکشی به قتل مرتبط میشود. دارایی اکنون به دنبال غرامت مالی در مبالغ فاش نشده، یک محاکمه با هیئت منصفه و دستور دادگاه است که از OpenAI میخواهد اقدامات امنیتی اضافی را برای کاربران خود اضافه کند. "OpenAI و مایکروسافت مسئولیت دارند که محصولات خود را قبل از اینکه به دنیا عرضه شوند، آزمایش کنند،" وید-اسکات گفت.
به یک جامعه معاملات رمزنگاری ممتاز به مدت 30 روز رایگان بپیوندید – معمولاً $100 در ماه.
منبع: https://www.cryptopolitan.com/openai-microsoft-sued-role-in-murder-suicide/







