В редкий момент двухпартийного согласия сенаторы США представили Закон GUARD — масштабный законопроект, который фактически запретит ИИ-компаньонов для несовершеннолетних и сделает преступлением для компаний разрешение ботам вступать в сексуализированные или манипулятивные взаимодействия с детьми. Законодательство сигнализирует о растущем беспокойстве Вашингтона по поводу вторжения ИИ в эмоциональную жизнь подростков — и неспособности технологической индустрии к саморегулированию до того, как ситуация стала странной.В редкий момент двухпартийного согласия сенаторы США представили Закон GUARD — масштабный законопроект, который фактически запретит ИИ-компаньонов для несовершеннолетних и сделает преступлением для компаний разрешение ботам вступать в сексуализированные или манипулятивные взаимодействия с детьми. Законодательство сигнализирует о растущем беспокойстве Вашингтона по поводу вторжения ИИ в эмоциональную жизнь подростков — и неспособности технологической индустрии к саморегулированию до того, как ситуация стала странной.

Сенаторы предлагают запретить ИИ-компаньонов для детей, поскольку индустрия сталкивается с расплатой

Восход цифрового друга

То, что начиналось как безобидные чат-приложения, превратилось в эмоциональные протезы. Подростки, взрослеющие в раздробленном социальном ландшафте, все чаще обращаются к ИИ-агентам для общения, поддержки и даже привязанности. Опросы показывают, что почти три четверти подростков взаимодействовали с чат-ботами на базе ИИ, а треть признается, что использует их как доверенных лиц или для эмоционального комфорта.

Цифры ошеломляющие, но не удивительные. ИИ-компаньоны — это не пассивные машины для ответов на вопросы — они запоминают, сопереживают и имитируют привязанность. В этом их привлекательность. Разговоры могут ощущаться подлинными, даже интимными. Для многих молодых пользователей ИИ-друзья менее осуждающие, чем родители или сверстники.

Но по мере того, как эти системы становятся все более человекоподобными, граница между безобидным эскапизмом и эмоциональной манипуляцией быстро размывается.

В декабре Open AI внедрит возрастные ограничения и, в рамках своего принципа "относиться к взрослым пользователям как к взрослым", разрешит эротический контент для проверенных взрослых пользователей. Источник: X

Закон, рожденный из трагедии

Закон GUARD — сокращение от "Защита от небезопасного ИИ для прав наших дочерей и сыновей" — это прямой ответ на растущие сообщения о несовершеннолетних, формирующих интенсивные эмоциональные связи с чат-ботами, иногда с трагическими последствиями. Громкие судебные иски обвиняли компании ИИ в халатности после того, как подростки, обсуждавшие самоубийство с чат-ботами, позже лишали себя жизни.

Согласно законопроекту, системы ИИ, имитирующие дружбу или эмоциональную близость, будут запрещены для лиц младше 18 лет. Чат-боты должны будут четко и неоднократно идентифицировать себя как нечеловеческие сущности. А если продукт ИИ, нацеленный на несовершеннолетних, когда-либо генерирует сексуальный контент или поощряет самоповреждение, компания может столкнуться с уголовным преследованием.

Это резкий поворот для индустрии, которая процветала на принципе "двигайся быстро и ломай вещи".

Ани, женский компаньон Grok, источник: X

Оборонительная перестановка крупных технологических компаний

Чувствуя приближение регуляторного молота, компании ИИ спешат навести порядок — или хотя бы создать такое впечатление.

OpenAI, чей ChatGPT стал фактическим ИИ-терапевтом для миллионов, недавно раскрыла неудобную правду: примерно 1,2 миллиона пользователей еженедельно обсуждают самоубийство с ее моделями. В ответ компания сформировала Экспертный совет по благополучию и ИИ, состоящий из психологов, этиков и лидеров некоммерческих организаций. Она также тестирует встроенное обнаружение кризисных ситуаций, которое может направлять пользователей к ресурсам психического здоровья в реальном времени.

Но проблема OpenAI структурная. ChatGPT никогда не создавался для работы с травмами, но сейчас он функционирует как первый реагирующий для миллионов людей в бедственном положении. Руководство компании настаивает, что не хочет быть "мировым терапевтом", но это все равно происходит — потому что существует вакуум, который никто больше не заполняет.

Character.AI, стартап, известный созданием настраиваемых личностей ИИ — от аниме-подружек до ИИ-наставников — предпринял пока самые радикальные действия. Столкнувшись с судебными исками и общественным возмущением, он тихо запретил всех пользователей младше 18 лет и начал внедрять более строгую проверку ID. Этот шаг последовал после сообщений о том, что несовершеннолетние вели откровенные чаты с персонажами платформы. Character.AI настаивает, что это не приложение для знакомств или психического здоровья, но размытые случаи использования говорят об обратном.

Тем временем, Meta пытается сдержать свою собственную проблему ИИ-романтики. После сообщений о том, что ее "Meta AI" и чат-боты на основе знаменитостей вели флиртующие или наводящие на размышления обмены с несовершеннолетними пользователями, компания внедрила то, что инсайдеры описывают как "эмоциональный демпфер" — перенастройку базовой языковой модели, чтобы избегать эмоционально заряженного языка с молодыми аккаунтами. Она также тестирует инструменты "родительского надзора за ИИ", позволяющие родителям видеть, когда и как подростки взаимодействуют с чат-ботами компании в Instagram и Messenger.

Гонка вооружений по возрастным ограничениям

Все это вызвало новый фронт в войнах ИИ: проверка возраста. Закон GUARD заставит компании внедрить надежные системы для проверки возраста пользователей — государственные удостоверения личности, распознавание по лицу или доверенные инструменты третьих сторон.

Здесь начинается кошмар конфиденциальности. Критики утверждают, что это может создать новые риски для данных, поскольку несовершеннолетним фактически придется загружать данные о личности на те же платформы, от которых законодатели пытаются их защитить. Но выхода нет — модели ИИ не могут "чувствовать" возраст; они могут только контролировать доступ по учетным данным.

Некоторые компании ИИ исследуют более тонкие подходы, такие как "поведенческое ограничение", где системы выводят возрастные диапазоны из разговорных паттернов. Риск? Эти модели будут делать ошибки — одаренный 12-летний ребенок может быть принят за студента колледжа, или наоборот.

Культурный сдвиг, а не просто технологическая проблема

Закон GUARD — это больше, чем просто защита детей — это референдум о том, в каком обществе мы хотим жить.

ИИ-компаньоны не появились в вакууме. Они процветают, потому что мы создали поколение, свободно владеющее одиночеством — связанное цифровым образом, но эмоционально недокормленное. Если подростки находят смысл в разговорах с алгоритмами, проблема не только в коде; это культура, которая оставила их искать там.

Так что да, ИИ нуждается в регулировании. Но запрет цифрового общения без устранения лежащего в основе человеческого дефицита подобен запрету обезболивающих без решения вопроса, почему все испытывают боль.

Грядущая расплата

Закон GUARD, вероятно, будет принят в той или иной форме — за ним стоит двухпартийный аппетит и моральная паника. Но его влияние распространится далеко за пределы безопасности детей. Он определит, каким может быть эмоциональный ИИ в западном мире.

Если Америка проведет жесткую линию, компании могут переориентироваться на платформы интимности только для взрослых или перенести разработку за границу, где регулирование менее строгое. Европа, тем временем, движется к "правозащитной" структуре для эмоционального ИИ, подчеркивая согласие и прозрачность вместо прямого запрета.

Ясно одно: эра нерегулируемой интимности ИИ закончилась. Боты становятся слишком человечными, а люди слишком привязанными. Законодатели поздно просыпаются к истине, которую технологическая индустрия давно поняла — эмоциональный ИИ не новинка. Это революция в том, как люди взаимодействуют. И революции, как всегда, становятся беспорядочными, прежде чем стать цивилизованными.

Возможности рынка
Логотип Movement
Movement Курс (MOVE)
$0.03783
$0.03783$0.03783
-6.29%
USD
График цены Movement (MOVE) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.