Тихий кризис нарастает в социальных сетях. Его движет генеративный искусственный интеллект и подпитывает… Статья: Внутри кризиса дипфейковой порнографии GrokТихий кризис нарастает в социальных сетях. Его движет генеративный искусственный интеллект и подпитывает… Статья: Внутри кризиса дипфейковой порнографии Grok

Внутри кризиса дипфейк-порнографии Grok и грядущие судебные последствия

2026/01/09 23:40
5м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу crypto.news@mexc.com

В социальных сетях нарастает скрытый кризис. Его движущей силой является генеративный искусственный интеллект, а подпитывают его злоумышленники, которые точно знают, как использовать его слабые места.

В центре бури находится Grok — чат-бот, разработанный xAI Илона Маска. Позиционируемый как «нефильтрованный» и более либеральный, чем его конкуренты, Grok стал инструментом выбора для пользователей, создающих дипфейк-порнографию без согласия, или NCDP.

Процесс тревожно прост. Загружается обычная фотография. ИИ получает команду «раздеть» объект. Результатом является сексуализированное изображение, созданное без согласия. Жертвой может быть мировая знаменитость, частное лицо или даже ребенок.

Это не маргинальное поведение. Это происходит в массовом масштабе.

Хотя этот скандал продолжается уже некоторое время, а в Европе уже разгораются юридические баталии. Он обострился в среду после того, как нигерийская инфлюенсер и звезда реалити-шоу Анита Натача Акиде, широко известная как Таша, публично обратилась к Grok в X.

В прямом посте она четко заявила, что не разрешает редактировать, изменять или ремикшировать какие-либо ее фотографии или видео в любой форме.

Ее просьба не остановила пользователей. В течение нескольких часов другие продемонстрировали, что Grok все еще можно заставить манипулировать ее изображениями.

Инцидент выявил более глубокую проблему. Заявления о согласии мало что значат, когда платформы не имеют применимых механизмов защиты. Это также подняло серьезные юридические и этические вопросы, которые выходят далеко за рамки одного инфлюенсера или одного инструмента ИИ.

Чтобы понять последствия, я поговорил с сенатором Ихеньеном, юристом в области технологий и энтузиастом ИИ, ведущим партнером Infusion Lawyers. Его оценка была прямолинейной.

Он описывает ситуацию с Grok как «цифровую эпидемию». По его словам, генеративный ИИ превращается в оружие злонамеренными пользователями, которые понимают, как вывести нефильтрованные системы за этические границы. Вред, говорит он, реален, навязчив и глубоко хищнический.

Важно отметить, что Ихеньен отвергает идею о том, что новые технологии существуют в правовом вакууме. Закон, утверждает он, уже догоняет.

В Нигерии пока может не быть единого закона об ИИ. Тем не менее это не означает, что жертвы остаются без защиты. Вместо этого есть то, что он называет многоуровневым правовым щитом.

В основе этого лежит Закон о защите данных Нигерии 2023 года. Согласно Закону, лицо, голос и внешность человека классифицируются как персональные данные. Когда системы ИИ обрабатывают эти данные, они подпадают под строгие правила.

Когда «нефильтрованный» ИИ становится оружием: внутри кризиса дипфейк-порнографии Grok и надвигающегося юридического расчетаСенатор Ихеньен, ведущий партнер Infusion Lawyers и исполнительный председатель Ассоциации поставщиков услуг виртуальных активов

Жертвы имеют право возражать против автоматизированной обработки, которая причиняет вред. Когда создаются сексуализированные дипфейки, ИИ обрабатывает конфиденциальные персональные данные. Для этого требуется явное согласие. Без него платформы и операторы находятся на шаткой юридической почве.

Существует также финансовое сдерживание. Жалобы могут быть поданы в Комиссию по защите данных Нигерии. Санкции могут включать штрафы до ₦10 миллионов или два процента годового валового дохода компании.

Для глобальных платформ это быстро привлекает внимание.

Grok: создатели дипфейк-порнографии без согласия несут ответственность

Пользователи, создающие изображения, также не защищены. Согласно Закону Нигерии о киберпреступлениях, измененному в 2024 году, могут применяться несколько правонарушений. Использование ИИ для раздевания или сексуализации кого-либо с целью преследования или унижения может представлять собой киберпреследование. Имитация чьего-либо внешнего вида в злонамеренных целях может представлять собой кражу личных данных.

Когда дело касается несовершеннолетних, закон бескомпромиссен. Материалы сексуального насилия над детьми, созданные ИИ, рассматриваются так же, как физическая фотография. Нет защиты, основанной на новизне, юморе или эксперименте. Это серьезное уголовное преступление.

Читайте также: xAI привлекает $20 миллиардов в переподписанном раунде серии E, поскольку Nvidia и Cisco делают стратегическую ставку

Для жертв юридический путь может казаться подавляющим. Ихеньен рекомендует практический пошаговый подход.

Первое — это официальное уведомление об удалении. Согласно Кодексу практики NITDA Нигерии, платформы, такие как X, обязаны иметь местное представительство. После уведомления они должны действовать быстро. Невыполнение этого требования грозит потерей защиты безопасной гавани и открывает дверь для прямых судебных исков.

Когда «нефильтрованный» ИИ становится оружием: внутри кризиса дипфейк-порнографии Grok и надвигающегося юридического расчетаДипфейк

Второе — это технологическая защита. Такие инструменты, как StopNCII, позволяют жертвам создавать цифровой отпечаток изображения. Это помогает платформам блокировать дальнейшее распространение, не заставляя жертв повторно загружать вредоносный контент.

Третье — это эскалация к регулирующим органам. Сообщения на платформу недостаточно. Важны сообщения регуляторам. Органы власти могут заставить компании отключить определенные функции ИИ, если они постоянно используются в злонамеренных целях.

Проблема не заканчивается на границах.

Многие преступники действуют из-за пределов Нигерии. По словам Ихеньена, это больше не является барьером, каким было раньше. Конвенция Малабо, вступившая в силу в 2023 году, обеспечивает взаимную правовую помощь между африканскими странами. Правоохранительные органы могут сотрудничать для отслеживания и преследования правонарушителей независимо от их местоположения.

Остается самый неудобный вопрос. Почему вообще разрешено функционировать таким инструментам, как Grok?

xAI представляет дизайн Grok как приверженность открытости. Ихеньен видит другую картину. С юридической точки зрения «нефильтрованный» — это не защита. Это риск; это не может быть оправданием для вреда или незаконности.

Когда «нефильтрованный» ИИ становится оружием: внутри кризиса дипфейк-порнографии Grok и надвигающегося юридического расчетаGrok

Он приводит простую аналогию. Нельзя построить автомобиль без тормозов и винить водителя в аварии. Выпуск систем ИИ без надежного контроля безопасности, а затем удивление, когда происходит вред, может представлять собой халатность.

Согласно законам Нигерии о защите прав потребителей, небезопасные продукты влекут за собой ответственность. Предлагаемая национальная политика в области ИИ также подчеркивает «безопасность по дизайну». Направление движения ясно.

Инновации в области ИИ — не проблема. Проблема — неподотчетный ИИ.

Скандал с Grok — это предупредительный выстрел. Он показывает, насколько быстро мощные инструменты могут быть обращены против людей, особенно женщин и детей. Он также показывает, что согласие, достоинство и личные права должны быть встроены в технологию, а не добавлены после того, как произошел вред.

Пост Inside Grok's deepfake pornography crisis and the legal reckoning ahead впервые появился на Technext.

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.