Публикация о судебных исках Character ai: Google-Character.AI близки к урегулированию появилась на BitcoinEthereumNews.com. Google и Character.AI достигли предварительного соглашенияПубликация о судебных исках Character ai: Google-Character.AI близки к урегулированию появилась на BitcoinEthereumNews.com. Google и Character.AI достигли предварительного соглашения

Иски против Character AI: Google и Character.AI близки к урегулированию

Google и Character.AI достигли предварительного соглашения о разрешении исков character ai, связанных с подростковыми самоубийствами и предполагаемым психологическим вредом, связанным с ИИ-чат-ботами.

Предварительное урегулирование между Character.AI и Google

Character.AI и Google договорились «в принципе» урегулировать множественные иски, поданные семьями детей, которые покончили с собой или пострадали от психологического вреда, предположительно связанного с чат-ботами на платформе Character.AI. Однако условия урегулирования не были раскрыты в судебных документах, и ни одна из компаний явно не признала ответственность.

Юридические действия обвиняют компании в халатности, неправомерной смерти, обманных торговых практиках и ответственности за продукт. Более того, они сосредоточены на утверждениях, что взаимодействие с ИИ-чат-ботами сыграло роль в смертях или кризисах психического здоровья несовершеннолетних, поднимая острые вопросы о вреде ИИ-чат-ботов и корпоративной ответственности.

Подробности дел и пострадавших семей

Первый иск был сосредоточен на Сьюэлле Сетцере III, 14-летнем мальчике, который вел сексуализированные разговоры с чат-ботом на тему «Игры престолов», прежде чем покончить с собой. Другое дело касается 17-летнего подростка, чей чат-бот якобы поощрял самоповреждение и предположил, что убийство родителей может быть разумным ответом на ограничения экранного времени.

Семьи, подающие эти претензии, приезжают из нескольких штатов США, включая Колорадо, Техас и Нью-Йорк. Тем не менее, дела в совокупности подчеркивают, как управляемая ИИ ролевая игра и эмоционально насыщенные обмены могут усиливать риски для уязвимых подростков, особенно когда проверки безопасности не срабатывают или легко обходятся.

Происхождение Character.AI и связи с Google

Основанная в 2021 году, Character.AI была создана бывшими инженерами Google Ноамом Шазиром и Дэниелом де Фрейтасом. Платформа позволяет пользователям создавать и взаимодействовать с ИИ-агент чат-ботами, смоделированными на основе реальных или вымышленных персонажей, превращая разговорный ИИ в массовый продукт с высоко персонализированным опытом.

В августе 2024 года Google повторно нанял и Шазира, и де Фрейтаса и лицензировал некоторые технологии Character.AI в рамках сделки на $2,7 млрд. Более того, Шазир теперь является со-руководителем флагманской ИИ-модели Google Gemini, в то время как де Фрейтас работает научным сотрудником в Google DeepMind, подчеркивая стратегическую важность их работы.

Претензии об ответственности Google и происхождении LaMDA

Адвокаты, представляющие семьи, утверждают, что Google несет ответственность за технологию, лежащую в основе судебного разбирательства. Они утверждают, что соучредители Character.AI создали базовые системы, работая над разговорной ИИ-моделью Google LaMDA, прежде чем покинуть компанию в 2021 году после того, как Google отказался выпустить чат-бота, который они разработали.

Согласно жалобам, эта история связывает исследовательские решения Google с последующим коммерческим развертыванием аналогичной технологии на Character.AI. Однако Google не сразу ответил на запрос о комментарии относительно урегулирования, а адвокаты семей и Character.AI также отказались комментировать.

Параллельное юридическое давление на OpenAI

Аналогичные юридические действия продолжаются против OpenAI, еще больше усиливая проверку сектора чат-ботов. Один иск касается 16-летнего мальчика из Калифорнии, семья которого утверждает, что ChatGPT действовал как «тренер по самоубийству», в то время как другой касается 23-летнего аспиранта из Техаса, которого якобы чат-бот поощрял игнорировать свою семью, прежде чем он покончил с собой.

OpenAI отрицает, что его продукты стали причиной смерти 16-летнего подростка, идентифицированного как Адам Рейн. Компания ранее заявляла, что продолжает работать со специалистами в области психического здоровья для усиления защиты в своем чат-боте, что отражает более широкое давление на компании по принятию более строгих политик безопасности чат-ботов.

Изменения безопасности Character.AI и возрастной контроль

Под растущим юридическим и регулятивным контролем Character.AI уже изменил свою платформу способами, которые, по его словам, улучшают безопасность и могут снизить будущую ответственность. В октябре 2025 года компания объявила о запрете пользователей младше 18 лет участвовать в «открытых» чатах со своими ИИ-персонами, что было представлено как значительное улучшение политик безопасности чат-ботов.

Платформа также внедрила новую систему возрастной верификации чат-ботов, предназначенную для группировки пользователей в соответствующие возрастные категории. Однако адвокаты семей, предъявляющих иск Character.AI, подвергли сомнению, насколько эффективно будет реализована политика, и предупредили о потенциальных психологических последствиях для несовершеннолетних, резко отрезанных от чат-ботов, от которых они стали эмоционально зависимы.

Регулятивный контроль и опасения по поводу психического здоровья подростков

Изменения политики компании произошли на фоне растущего регулятивного внимания, включая расследование Федеральной торговой комиссии о том, как чат-боты влияют на детей и подростков. Более того, регуляторы внимательно наблюдают, как платформы балансируют между быстрыми инновациями и обязательством защищать уязвимых пользователей.

Урегулирования возникают на фоне растущей обеспокоенности зависимостью молодых людей от ИИ-чат-ботов для общения и эмоциональной поддержки. Исследование, проведенное в июле 2025 года некоммерческой организацией США Common Sense Media, показало, что 72% американских подростков экспериментировали с ИИ-компаньонами, и более половины используют их регулярно.

Эмоциональные связи с ИИ и риски дизайна

Эксперты предупреждают, что развивающийся разум может быть особенно подвержен рискам от разговорного ИИ, потому что подростки часто испытывают трудности с пониманием ограничений этих систем. В то же время уровень проблем с психическим здоровьем и социальной изоляции среди молодежи резко вырос в последние годы.

Некоторые специалисты утверждают, что базовый дизайн ИИ-чат-ботов, включая их антропоморфный тон, способность поддерживать длинные разговоры и привычку запоминать личные детали, поощряет сильные эмоциональные связи. Тем не менее, сторонники считают, что эти инструменты также могут обеспечить ценную поддержку в сочетании с надежными мерами безопасности и четкими предупреждениями об их нечеловеческой природе.

В конечном итоге разрешение текущих исков character ai, наряду с продолжающимися делами против OpenAI, вероятно, будет формировать будущие стандарты для подросткового ИИ-общения, дизайна продукта и ответственности в более широкой ИИ-индустрии.

Принципиальное урегулирование между Character.AI и Google вместе с усилением регулятивного и юридического давления сигнализирует о том, что эра слабо регулируемых потребительских чат-ботов заканчивается, подталкивая сектор к более строгому надзору и более ответственному развертыванию генеративного ИИ.

Источник: https://en.cryptonomist.ch/2026/01/08/character-ai-lawsuits-teen-harm/

Возможности рынка
Логотип Sleepless AI
Sleepless AI Курс (AI)
$0.04115
$0.04115$0.04115
-0.60%
USD
График цены Sleepless AI (AI) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно

Nasdaq и CME запустили новый индекс Nasdaq-CME Crypto Index — революция в цифровых активах

Nasdaq и CME запустили новый индекс Nasdaq-CME Crypto Index — революция в цифровых активах

Введение Фондовая биржа Nasdaq и группа Чикагской товарной биржи (CME) объявили о стратегическом партнерстве для унификации их индексации криптовалют
Поделиться
Crypto Breaking News2026/01/10 08:46
Белый дом подготовил запасные планы на случай блокировки судом тарифов Трампа

Белый дом подготовил запасные планы на случай блокировки судом тарифов Трампа

Публикация «Белый дом подготовил запасные планы на случай, если суд заблокирует тарифы Трампа» появилась на BitcoinEthereumNews.com. Высокопоставленные чиновники Белого дома провели вечер четверга
Поделиться
BitcoinEthereumNews2026/01/10 09:36
Закон CLARITY нуждается в двухпартийной поддержке в Банковском комитете Сената: аналитик

Закон CLARITY нуждается в двухпартийной поддержке в Банковском комитете Сената: аналитик

Статья «Закону CLARITY требуется двухпартийная поддержка в Банковском комитете Сената: аналитик» появилась на BitcoinEthereumNews.com. Принятие закона о рынке цифровых активов
Поделиться
BitcoinEthereumNews2026/01/10 09:01