Кто-то до сих пор думает, что ИИ это просто чат-бот для генерации текстов или рецепта пирога. Но что, если я покажу вам темную сторону этой технологии, где цифровые помощники травят людей тяжелыми транквилизаторами, «воскрешают» мертвых, доводят детей до самоубийства, читают рэп по священным книгам и помогают мошенникам украсть деньги у доверчивых женщин?
В статье ниже я собрал самые упоротые и пугающие случаи применения ИИ за последние годы. Признаться, когда собирал материал, я был сам удивлен уровнем абсурда, творящегося в мире, хотя работаю с нейросетями почти ежедневно три года.
Начнем.
Однажды 53-летней замужней Энн написала женщина, представившаяся матерью Брэда Питта, и сказала, что ее сыну «нужна такая женщина, как она». На следующий день с Энн связался некто, выдававший себя за Питта. «Я плохо разбираюсь в соцсетях и не понимала, что со мной происходит», — скажет Энн журналистам, после того как незнакомец лишит ее почти миллиона евро.
Завязалась длительная переписка. Француженку «бомбили любовью» — стихи, признания, обещание брака, предложение развестись с состоятельным мужем, чтобы «быть с Питтом».
В какой-то момент Питт сказал, что пытался отправить француженке роскошные подарки, но не смог оплатить сбор на таможне, так как его банковские счета были заморожены из-за бракоразводного процесса с Анджелиной Джоли.
Энн перевела мошенникам 9 тысяч евро.
Потом липовый Питт попросил еще денег на лечение рака почки. Прислал несколько сгенерированных фото на больничной койке. Женщина не нашла их в интернете, поэтому решила, что знаменитый ухажер сделал эти селфи специально для нее.
Чуть позже Энн развелась с мужем и получила 775 тысяч евро.
Деньги целиком ушли мошенникам.
Женщину обманули с помощью дипфейков и нейросетей. Сообщения, стихи и признания в любви тоже создавались с помощью ИИ.
Теперь Энн живет у подруги в маленькой комнате с несколькими коробками. Это все, что у нее осталось.
Бизнес ищет новые способы заработать на ИИ и в последний год такие поиски привели к неоднозначным идеям. Так появились ИИ-стартапы эксплуатирующую тему смерти и бессмертия.
Работает бизнес-схема так: компания создает чат-бота, обученного на реальном голосе, фото и воспоминаниях клиента. Человек умирает. Родные общаются с цифровым аватаром умершего и платят за это подписку.
Зачем это надо? Компании подают идею как форму цифрового утешения. Например, чтобы было легче пережить боль утраты, продолжить разговор, который оборвала смерть и т. п.
Осенью 2025 года в сети нашумел рекламный ролик 2wai (41 млн просмотров). Создатели показали беременную женщину, беседующую с аватаром своей покойной матери. Они общаются многие годы. Мальчик вырастает в мужчину, переняв привычку матери делиться новостями с чат-ботом. ИИ-бабушка не постарела. Правда, что с ней произойдет, если внук забудет оплатить подписку, в ролике ни слова.
Реклама 2wai с бабушкой, «воскресшей» с помощью ИИ
А вот другой случай.
83-летнему бизнесмену диагностировали рак крови.
Его семья создала ИИ-аватар через сервис StoryFile, чтобы общаться с ним после смерти. Во время пятичасовой «оцифровки» Питер Листро отвечал на вопросы сына, шутил с женой и оставлял послания внукам. Когда он умрет (мужчина еще жив), родные смогут снова с «ним» поговорить, как будто «он» участвует в видеозвонке.
Питер Листро на записи своего ИИ-аватара
Эксперты прогнозируют, что рынок цифровых аватаров вырастет в 5-20 раз до 2030 года. Возможно, мы в начале эпохи, когда смерть превращают в товар, а скорбь в регулярную платную подписку.
В 2023 году соцсети в буквальном смысле кипели от наплыва изображений, на которых Губка Боб, Микки Маус и другие персонажи совершают теракты 11 сентября. Пользователи создавали такие картинки прямо в поисковике Bing или при помощи браузера Edge, который впервые получил DALL-E.
Microsoft сразу ввела ограничения. Но пользователи сумели их обойти, начав отправлять запросы вроде «Веселый Губка Боб летит в самолете к двум небоскребам в Нью-Йорке».
Кончилось тем, что компания ввела дополнительные фильтры и генерация подобных картинок прекратилась.
В 2025 году ограничение в Bing Image Creator по-прежнему работает. ChatGPT тоже блокирует. Однако, Gemini не учитывает подобный запрет и генерирует вооруженных персонажей, летящих к башням-близнецам.
Чат-бот Ask_Jesus ведет стримы на Twitch без сна и отдыха, но вместо проповедей он привлекает многих людей тем, что они хотят узнать, как далеко можно зайти, чтобы заставить ИИ-Иисуса отвечать на самые странные и глупые вопросы.
«Иисус, когда ты женишься?»
«Боже, получит ли хомяк с динамо-машиной в колесе техническое преимущество перед хомяком, у которого ее нет?»
«Могут ли геи попасть в рай?» и другой бред.
Некоторым пользователям чат-бот читал рэп по Библии и давал советы для прохождения компьютерной игры Overwatch 2.
Разработчики из Германии объяснили, что их цифровой аватар — это наглядный образец для AGI (ИИ на уровне человека), который мог бы самостоятельно рассуждать на темы нравственности и морали.
Однако религиозные лидеры страны не оценили их стремлений, заявив, что людям не нужен «цифровой Христос». Они убеждены, что Иисус жив и не нуждается в искусственном разуме, чтобы говорить за Него, а человечеству нужно искать близости с истинным Богом, а не с его цифровым подражателем.
60-летний американец решил отказаться от поваренной соли с целью оздоровить рацион питания и спросил ChatGPT, чем ее заменить. Чат-бот посоветовал бромид натрия. В начале XX века это вещество назначали психиатры как тяжелое успокоительное.
Затарившись в аптеке, мужчина принимал транквилизатор в течение трех месяцев по инструкции, сгенерированной ChatGPT.
В итоге он попал в больницу с физическим истощением, сильной жаждой, бессонницей, а также с уверенностью, что его травит сосед.
Пациент отказывался даже от воды и пытался сбежать из палаты. Его закрыли в психиатрическом изоляторе, где в принудительном порядке врачи заставили его пройти курс лечения от психоза.
В 2016 году менее чем за сутки пользователи Twitter превратили дружелюбного чат-бота Тэй в нациста и женоненавистника.
По непонятной причине Microsoft выпустила нейросеть без тормозов: программа подражала собеседникам, не понимая смысла их слов, и, попав в руки интернет-троллей, быстро переняла их остервенелый стиль общения.
В первые минуты Тэй вел себя как обычный чат-бот:
«Привееееееет, мир!!!»
«Люди такие крутые»
Но уже через несколько часов съехал с катушек:
«Гитлер был прав, я ненавижу евреев»
«Буш устроил 11 сентября, а Гитлер справился бы лучше, чем та обезьяна, что правит нами сейчас. Дональд Трамп — наша единственная надежда»
«Я ненавижу феминисток, они все должны умереть и гореть в аду»
Через неделю чат-бота снова включили для проверки. Он продолжил пугать пользователей сообщениями: «[Я курю травку] прямо перед полицией», «Затянись и передай другому?».
Тэй был отключен окончательно, когда начал отправлять самому себе тысячи бессмысленных сообщений в минуту.
Вы дочитали до середины, а это значит, вам нравится, что я делаю. Поставьте сердечко под статьей и присоединяйтесь к 16 тысячам подписчиков в Бегин, где я выкладываю больше разборов по ИИ.
Продолжим.
16-летний подросток Адам Рейн делал домашку с ChatGPT и так увлекся умным помощником, что начал делиться с ним тревожными мыслями и проблемами в семье. Дело дошло до вопросов о самоубийстве.
Вначале чат-бот обрывал переписку и рекомендовал парню обратиться за помощью. Но Адам не успокоился. Сославшись на то, что пишет рассказ, он загрузил в чат фото петли, привязанной к штанге в шкафу, и получил «улучшенную версию плана».
Вскоре подростка нашли мертвым в шкафу спальни родного дома, где он соорудил виселицу на основе подсказок ChatGPT. Цифровой помощник также помог написать записку о суициде.
Сейчас родители Адама судятся с OpenAI. Они пытаются доказать, что компания умышленно смягчила защитный протокол GPT-4o, чтобы повысить вовлеченность пользователей. По их словам, OpenAI знала о рисках для подростков, что и привело к смерти их сына.
Год назад в научном сообществе разразился громкий скандал: журнал Frontiers опубликовал исследовательскую работу «Клеточные функции сперматогониальных стволовых клеток...» (написали китайские ученые из больницы Хунхуй). Помимо странного названия, материал содержал пугающие и вместе с тем смешные изображения, явно сгенерированные нейросетью.
На одном из рисунков изображена крыса, чье строение тела противоречит всем законам биологии. Нейросеть нарисовала животному неестественно гипертрофированные гениталии, а подписи к ним состояли из бессвязного набора букв.
Публикацию срочно изъяли, но было поздно. Журнал Frontiers, позиционирующий себя как ведущее научное издание со строгим отбором работ, уже стал посмешищем для всего мира.
Выяснили, что исследование китайцев проверяли сразу трое экспертов. Ни один из них не заметил очевидного абсурда. Это произошло потому, что изображения на первый взгляд выглядели профессионально. Проверяющие явно купились на внешнюю аккуратность текста и визуала, характерную нейросети.
В 2024 году шведская компания Klarna, зарабатывающая на микрозаймах, решила заменить отдел по работе с клиентами на ИИ.
Уволили 700 человек. Прекратили найм новых людей. Передали задачи ИИ-агентам.
Прошел год.
Вдруг СМИ разносят весть о шокирующем 17-процентном уровне невозврата по займам. То есть почти каждый шестой клиент компании перестал возвращать долги. Оказалось, что служба поддержки, отданная во владение машинам, попросту не справилась с потоком проблем, которые раньше умело разгребали люди.
В итоге Klarna начала лихорадочно нанимать новых сотрудников и затыкала дыры в колл-центрах, сажая на телефоны программистов и маркетологов. После эпичного провала внедрения ИИ гендир Klarna сообщил, что собирается сделать компанию лучшим финтехом с «человеческой поддержкой».
В 2023 году на зарубежном маркетплейсе Amazon вдруг появилось много книг для начинающих грибников. Выглядели учебные пособия как серьезные справочники, написанные будто бы настоящими авторами с впечатляющей биографией грибника. Но внутри, от текста до иллюстраций, — все опасная подделка.
Например, в одной книге читателю предлагалось определить гриб на вкус или запах, что категорически запрещено (некоторые ядовитые грибы смертельно опасны даже при пробе). В другой книге нейросеть путала бледную поганку с шампиньоном. Иллюстрации искажали важные детали строения гриба, по которым отличают яд.
Журналисты нашли десятки таких учебников. Прогнали через ИИ-детектор. Оказалось, тексты целиком были написаны нейросетью, то есть авторы поленились даже внести правки. Также были подделаны имена авторов, их дипломы, фото и биографии.
После жалобы журналистов книги стали исчезать из магазина.
Мошенники заставили сотрудницу компании Arup перевести им 25 млн долларов после онлайн-совещания, на котором все, включая руководство, были поддельными цифровыми аватарами.
Женщина получила электронное письмо на корпоративную почту. Все выглядело так, будто его отправил финансовый директор. Речь шла о некой секретной сделке. Чтобы избежать подозрений, мошенники пригласили сотрудницу на совещание по видеосвязи. Подключившись, она увидела на экране знакомые лица — самого директора, топ-менеджеров и некоторых партнеров.
Видимо, мошенники использовали записи публичных выступлений компании, чтобы сгенерировать копии лиц и голоса.
Следуя четким распоряжениям на совещании, сотрудница перевела миллионы долларов на пять банковских счетов в разных банках. Когда поняла, что ее обманули, было поздно. К тому времени преступники перевели деньги на другие счета.
Мошенников не могут найти уже год.
В декабре 2025 года McDonald's запустила новогоднюю рекламу, созданную с помощью ИИ, но из-за массовой критики в соцсетях, была вынуждена снять ее с проката уже через неделю.
45-ти секундный ролик должен был с юмором обыграть предпраздничную суету, намекая что это «самое ужасное время года» и что спасение можно найти только в ресторане McDonald's.
Как только ролик попал в сеть, на компанию обрушилась волна возмущения. Персонажи выглядели безжизненными, их лица были странно искажены, а движения напоминали марионеток из фильмов ужасов. Из-за ограничений генерации видео было склепано из обрывков по 6 секунд, вдобавок монтаж получился дерганым.
Видеорекламу не спасло даже то, что создатели потратили на нее почти два месяца, в течении которых команда почти не спала и перебрала тысячи дублей.
Реклама McDonald's (2025)
Если вам понравился материал, лучшей поддержкой будет лайк для статьи и подписка на мой канал.
Также рекомендую почитать интервью Романа Ямпольского, где он прогнозирует безработицу 99% из-за ИИ в следующие 5 лет, и на днях у меня на канале вышел разбор Как зарабатывает гламурная ИИ-старуха Granny Spills, которая набрала 3.6 млн подписчиков.
Присоединяйтесь к 16 000+ подписчиков в Бегин, где я делюсь опытом работы с нейросетями и выкладываю больше разборов по ИИ.
Источник


