یک بحران خاموش در سراسر رسانههای اجتماعی در حال رشد است. این بحران توسط هوش مصنوعی مولد هدایت میشود و توسط عوامل بد که دقیقاً میدانند چگونه از ضعیفترین نقاط آن سوء استفاده کنند، تقویت میشود.
در مرکز این طوفان Grok قرار دارد، چتبات توسعه یافته توسط xAI ایلان ماسک. Grok که به عنوان "بدون فیلتر" و آزادتر از رقبایش به بازار عرضه شده، به ابزاری مورد انتخاب برای کاربرانی تبدیل شده است که تصاویر پورنوگرافی دیپ فیک بدون رضایت یا NCDP تولید میکنند.
این فرآیند به طرز نگرانکنندهای ساده است. یک عکس معمولی آپلود میشود. از هوش مصنوعی خواسته میشود که فرد را "لخت" کند. نتیجه یک تصویر جنسی است که بدون رضایت ایجاد شده است. قربانی میتواند یک سلبریتی جهانی، یک فرد خصوصی یا حتی یک کودک باشد.
این یک رفتار حاشیهای نیست. این در مقیاس وسیع در حال وقوع است.
اگرچه این جنجال مدتی است که ادامه دارد و واکنشهای قانونی در سراسر اروپا در راه است. این موضوع روز چهارشنبه پس از آنکه یک اینفلوئنسر نیجریهای و ستاره تلویزیون واقعیت، آنیتا ناتاچا آکیده، که با نام Tacha شناخته میشود، به طور علنی Grok را در X مورد خطاب قرار داد، تشدید شد.
او در یک پست مستقیم به وضوح اعلام کرد که اجازه ویرایش، تغییر یا ریمیکس هیچ یک از عکسها یا ویدیوهای خود را به هیچ شکلی نمیدهد.
درخواست او کاربران را متوقف نکرد. ظرف چند ساعت، دیگران نشان دادند که Grok همچنان میتواند برای دستکاری تصاویر او مورد استفاده قرار گیرد.
این حادثه یک مشکل عمیقتر را آشکار کرد. بیانیههای رضایت وقتی پلتفرمها فاقد حفاظتهای قابل اجرا هستند، معنای کمی دارند. این امر همچنین سؤالات جدی قانونی و اخلاقی را مطرح کرد که فراتر از یک اینفلوئنسر یا یک ابزار هوش مصنوعی است.
برای درک پیامدها، با سناتور Ihenyen، وکیل فناوری و علاقهمند به هوش مصنوعی و شریک ارشد Infusion Lawyers صحبت کردم. ارزیابی او صریح بود.
او وضعیت Grok را به عنوان "یک اپیدمی دیجیتال" توصیف میکند. به گفته او، هوش مصنوعی مولد توسط کاربران شیطانی که میدانند چگونه سیستمهای بدون فیلتر را فراتر از مرزهای اخلاقی سوق دهند، به سلاح تبدیل شده است. او میگوید آسیب واقعی، تهاجمی و عمیقاً شکارگرانه است.
نکته مهم اینکه، Ihenyen این ایده را که فناوری جدید در یک خلأ قانونی وجود دارد، رد میکند. او استدلال میکند که قانون در حال به روز شدن است.
در نیجریه، ممکن است هنوز قانون AI واحدی وجود نداشته باشد. با این حال، این به معنای آن نیست که قربانیان محافظت نشدهاند. در عوض، چیزی وجود دارد که او آن را یک سپر قانونی چند لایه مینامد.
در قلب این موضوع قانون حفاظت از دادههای نیجریه در سال 2023 قرار دارد. بر اساس این قانون، چهره، صدا و شباهت یک فرد به عنوان دادههای شخصی طبقهبندی میشوند. وقتی سیستمهای هوش مصنوعی این دادهها را پردازش میکنند، آنها مشمول قوانین سختگیرانه هستند.
سناتور Ihenyen، شریک ارشد Infusion Lawyers و رئیس اجرایی انجمن ارائهدهندگان خدمات دارایی مجازی
قربانیان این حق را دارند که به پردازش خودکاری که آسیب ایجاد میکند، اعتراض کنند. وقتی دیپ فیکهای جنسی ایجاد میشوند، هوش مصنوعی دادههای شخصی حساس را پردازش میکند. این امر نیاز به رضایت صریح دارد. بدون آن، پلتفرمها و اپراتورها در موقعیت قانونی ضعیفی قرار دارند.
یک بازدارنده مالی نیز وجود دارد. شکایتها میتوانند نزد کمیسیون حفاظت از دادههای نیجریه ثبت شوند. تحریمها میتوانند شامل هزینههای جبرانی تا 10 میلیون نایرا یا دو درصد از درآمد ناخالص سالانه یک شرکت باشند.
برای پلتفرمهای جهانی، این به سرعت توجه را جلب میکند.
کاربرانی که تصاویر را ایجاد میکنند نیز محافظت نمیشوند. بر اساس قانون جرائم سایبری نیجریه که در سال 2024 اصلاح شد، چندین جرم ممکن است اعمال شود. استفاده از هوش مصنوعی برای لخت کردن یا جنسی کردن کسی برای آزار یا تحقیر او میتواند معادل تعقیب سایبری باشد. شبیهسازی شباهت کسی برای اهداف مخرب میتواند سرقت هویت محسوب شود.
وقتی افراد نابالغ درگیر هستند، قانون سازشناپذیر است. محتوای سوء استفاده جنسی از کودکان تولید شده توسط هوش مصنوعی همانند عکاسی فیزیکی تلقی میشود. هیچ دفاعی بر اساس تازگی، طنز یا آزمایش وجود ندارد. این یک جرم جنایی جدی است.
همچنین بخوانید: xAI با سری E بیش از حد اشتراک 20 میلیارد دلار جذب میکند در حالی که Nvidia و Cisco شرط استراتژیک قرار میدهند
برای قربانیان، مسیر قانونی میتواند طاقتفرسا به نظر برسد. Ihenyen یک رویکرد عملی و گام به گام را توصیه میکند.
اولین مورد یک اخطار رسمی حذف است. بر اساس کد عمل NITDA نیجریه، پلتفرمهایی مانند X ملزم به داشتن نمایندگی محلی هستند. پس از اطلاع، آنها باید به سرعت عمل کنند. عدم انجام این کار خطر از دست دادن حفاظتهای بندر امن را به همراه دارد و در را به روی دعاوی مستقیم باز میکند.
Deepfake
دوم دفاع مبتنی بر هوش مصنوعی است. ابزارهایی مانند StopNCII به قربانیان اجازه میدهند یک اثر انگشت دیجیتال از تصویر ایجاد کنند. این به پلتفرمها کمک میکند توزیع بیشتر را بدون اینکه قربانیان مجبور شوند بارها محتوای مضر را آپلود کنند، مسدود کنند.
سوم تشدید نظارتی است. گزارش دادن به پلتفرم کافی نیست. گزارش دادن به تنظیمکنندهها مهم است. مقامات میتوانند شرکتها را مجبور کنند که ویژگیهای خاص هوش مصنوعی را در صورت سوء استفاده مداوم غیرفعال کنند.
این موضوع در مرزها متوقف نمیشود.
بسیاری از مجرمان از خارج از نیجریه فعالیت میکنند. به گفته Ihenyen، این دیگر مانعی که زمانی بود نیست. کنوانسیون مالابو، که در سال 2023 به اجرا درآمد، کمک حقوقی متقابل را در سراسر کشورهای آفریقایی امکانپذیر میکند. آژانسهای مجری قانون میتوانند برای ردیابی و تعقیب مجرمان، صرف نظر از مکان، همکاری کنند.
این ناراحتکنندهترین سؤال را باقی میگذارد. چرا ابزارهایی مانند Grok اصلاً اجازه دارند به این شکل کار کنند؟
xAI طراحی Grok را به عنوان تعهد به بازبودن چارچوببندی میکند. Ihenyen تصویر متفاوتی میبیند. از دیدگاه قانونی، "بدون فیلتر" یک دفاع نیست. این یک خطر است؛ نمیتواند بهانهای برای آسیب یا غیرقانونی بودن باشد.
Grok
او یک قیاس ساده ارائه میدهد. شما نمیتوانید یک ماشین بدون ترمز بسازید و راننده را برای تصادف سرزنش کنید. انتشار سیستمهای هوش مصنوعی بدون کنترلهای ایمنی قوی، سپس تعجب از زمانی که آسیب رخ میدهد، ممکن است معادل غفلت باشد.
بر اساس قوانین حمایت از مصرفکننده نیجریه، محصولات ناامن مسئولیت جذب میکنند. سیاستهای ملی پیشنهادی هوش مصنوعی نیز بر "ایمنی از طریق طراحی" تأکید میکنند. جهت حرکت واضح است.
نوآوری هوش مصنوعی مشکل نیست. هوش مصنوعی غیرقابل پاسخگو مشکل است.
جنجال Grok یک هشدار است. این نشان میدهد که چقدر سریع ابزارهای قدرتمند میتوانند علیه مردم، به ویژه زنان و کودکان، استفاده شوند. این همچنین نشان میدهد که رضایت، کرامت و حقوق شخصی باید در فناوری ساخته شوند، نه اینکه پس از وقوع آسیب اضافه شوند.
پست داخل بحران پورنوگرافی دیپ فیک Grok و حسابرسی قانونی پیش رو ابتدا در Technext ظاهر شد.

![[در داخل اتاق خبر] PTSD ناشی از دوترته](https://www.rappler.com/tachyon/2026/03/DUTERTE-INDUCED-PTSD-MARCH-6-2026.jpg)
