Вопрос о том, может ли ИИ, который приводит к проблемам с психическим здоровьем, таким как ИИ-психоз, также стать терапевтическим процессом для преодоления этого состояния.
getty
В сегодняшней колонке я рассматриваю появление ИИ, который предоставляет терапию людям, испытывающим ИИ-психоз и другие проблемы с психическим здоровьем, вызванные ИИ. Вы можете быть озадачены этим аспектом, поскольку это в целом выглядит как довольно перевернутый подход. Тот самый ИИ, который является корнем ИИ-психоза и других когнитивных проблем, вызванных ИИ, действует как своего рода путеводный свет для преодоления тревожных проблем с психическим здоровьем, возникших из-за взаимодействия с ИИ. Это определенно вызывает серьезное недоумение.
Вопрос в том, может ли ИИ одновременно быть подрывателем психического здоровья и в то же время усилителем психического здоровья, преодолевающим проблемы, вызванные взаимодействием с ИИ.
Давайте поговорим об этом.
Этот анализ прорывов в области ИИ является частью моего постоянного освещения в колонке Forbes последних новостей об ИИ, включая выявление и объяснение различных важных сложностей ИИ (см. ссылку здесь).
ИИ и психическое здоровье
В качестве краткой справки: я подробно освещал и анализировал множество аспектов, касающихся появления ИИ современной эры, который дает советы по психическому здоровью и проводит терапию, управляемую ИИ. Это растущее использование ИИ в основном было вызвано развивающимися достижениями и широким распространением генеративного ИИ. Обширный список моих более ста анализов и публикаций см. по ссылке здесь и по ссылке здесь.
Нет сомнений в том, что это быстро развивающаяся область и что здесь есть огромные преимущества, но в то же время, к сожалению, в эти начинания приходят и скрытые риски, и откровенные подводные камни. Я часто высказываюсь по этим насущным вопросам, в том числе в эпизоде передачи CBS 60 Minutes, см. ссылку здесь.
Появление ИИ-психоза
Сейчас существует огромная обеспокоенность по поводу того, что люди ведут нездоровые беседы с ИИ. Начинают подаваться иски против различных создателей ИИ, таких как OpenAI (см. мое освещение по ссылке здесь). Опасение заключается в том, что какие бы меры безопасности ИИ ни были приняты, они недостаточны и позволяют людям получать психический вред при использовании генеративного ИИ.
Термин ИИ-психоз возник для описания всевозможных тревог и психических недугов, в которые кто-то может погрузиться во время общения с генеративным ИИ. Обратите внимание, что не существует общепринятого, полностью признанного, окончательного клинического определения ИИ-психоза; таким образом, на данный момент это скорее приблизительное определение.
Вот мое черновое определение ИИ-психоза:
- ИИ-психоз (мое определение): "Неблагоприятное психическое состояние, включающее развитие искаженных мыслей, убеждений и потенциально сопутствующих видов поведения в результате разговорного взаимодействия с ИИ, таким как генеративный ИИ и LLM, часто возникающее особенно после длительного и неадаптивного дискурса с ИИ. Человек, проявляющий это состояние, обычно испытывает большие трудности в различении того, что реально, от того, что нереально. Один или несколько симптомов могут быть явными признаками этого недуга и обычно включают коллективный связанный набор."
Для подробного рассмотрения ИИ-психоза и особенно совместного создания бредовых идей посредством сотрудничества человека и ИИ см. мой недавний анализ по ссылке здесь.
ИИ как дуалист
Не все впадают в психическую пропасть при использовании ИИ.
Многие люди используют ИИ в качестве ежедневного усилителя психического здоровья. Они полагаются на ИИ как на своего основного консультанта по психическому здоровью. Правильно это или неправильно, продолжает обсуждаться. Реальность такова, что это происходит.
Действительно, это происходит в огромных масштабах. Только у ChatGPT более 700 миллионов еженедельных активных пользователей. Значительная часть этих пользователей использует ChatGPT для получения рекомендаций по психическому здоровью. То же самое касается и других крупных LLM. Использование генеративного ИИ и LLM для консультаций по психическому здоровью в настоящее время занимает первое место среди всех направлений использования такого ИИ (см. мою оценку рейтингов использования по ссылке здесь).
Вот интригующий поворот.
Если кто-то попадает в ИИ-психоз или психический недуг, вызванный ИИ, может ли ИИ помочь им выбраться из когнитивной трудности?
Один из аргументов заключается в том, что это нелепое предложение с самого начала. Только человек-терапевт мог бы помочь человеку, столкнувшемуся с любым видом ИИ-психоза. Кроме того, самый важный шаг - немедленно прекратить использование ИИ этим человеком. Не позволяйте им продолжать углубляться в ловушку ИИ. Точка, конец истории.
Другая сторона медали
Возможно, нам не следует так торопиться.
Существует несколько разумных причин для рассмотрения использования ИИ с целью помочь пользователю выйти из их ИИ-психоза. При этом давайте ясно дадим понять одну вещь - любой, кто действительно испытывает ИИ-психоз, должен напрямую обращаться за помощью к человеку-терапевту. Решение о том, продолжать ли использовать ИИ, должно приниматься под бдительным наблюдением человека-терапевта.
Почему человек обращается к ИИ за помощью, если он явно охвачен ИИ-психозом?
Во-первых, может быть так, что человек находится в состоянии ИИ-психоза, но никакие другие люди не понимают, что это происходит. Человек раскрывает это только ИИ. Или ИИ вычислительно обнаружил, что человек, похоже, испытывает ИИ-психоз.
Вопрос в том, должен ли ИИ быть запрограммирован на предупреждение человека о подозреваемом возникновении ИИ-психоза. Например, OpenAI предпринимает шаги по настройке ChatGPT так, чтобы он сообщал о таких подозрительных обстоятельствах команде внутренних специалистов OpenAI; см. мое освещение по ссылке здесь. Усилия OpenAI идут дальше, вскоре организуя контакт пользователей с человеком-терапевтом, который является частью отобранной сети терапевтов OpenAI (см. мое обсуждение по ссылке здесь).
В любом случае, если ИИ не настроен на такие предупреждения или подключения, сам ИИ может попытаться помочь человеку. Будет ли эта помощь успешной, неясно. Нельзя категорично заявлять, что ИИ не сможет помочь человеку. С другой стороны, поскольку это рискованный вариант, это снова подчеркивает важность поиска подходящей помощи человека.
Знакомство и доступ
Существуют дополнительные причины для использования ИИ в этих обстоятельствах.
Человек, погрузившийся в ИИ-психоз, вероятно, является активным пользователем ИИ. Ему комфортно использовать ИИ. Он регулярно использует ИИ. ИИ доступен ему круглосуточно без выходных. Использование ИИ может быть предпринято в любой момент. Нет необходимости записываться на прием. Никакая сложная логистика не вступает в игру.
В этом смысле их самый быстрый способ получить помощь может быть ИИ. Попытка заставить их связаться с человеком-терапевтом, вероятно, будет сложной задачей. Возможно, у них есть недоверие к человеческим терапевтам. В их сознании они верят в ИИ. Они также не хотят платить за визит к человеку-терапевту. Они также не хотят быть логистически привязанными к определенному дню и времени, когда они могут увидеть терапевта.
Если ИИ - их автоматический выбор, возможно, имеет смысл использовать ИИ, чтобы хотя бы открыть им глаза на то, что происходит. Это может быть единственный жизнеспособный путь. Это не оптимальный вариант, но это может быть наиболее вероятная альтернатива, которая запускает процесс восстановления.
Персонализация на переднем плане
Учтите, что ИИ, предположительно, отслеживал психическое состояние такого человека. Человек с каким-либо видом ИИ-психоза, вероятно, создал цифровое отслеживание своего когнитивного упадка во время разговоров с ИИ. Это не всегда так, конечно, хотя ожидается, что это происходит большую часть времени.
ИИ вычислительно персонализировал свои беседы под прихоти человека. В этих сложных деталях может быть источник того, как возник ИИ-психоз. Человек-терапевт, у которого нет доступа к ИИ, может быть озадачен при первом обсуждении ИИ-психоза с человеком. Могут потребоваться всевозможные вопросы, чтобы выяснить у человека, что произошло во время разговора с ИИ.
Суть в том, что у ИИ уже есть много информации о человеке.
Есть шанс, что записанная информация может быть использована для попытки обнаружить способ помочь в преодолении ИИ-психоза. Основа, которая проложила путь к ИИ-психозу, может быть использована для обнаружения дороги, которая ведет из ИИ-психоза. Та же персонализация, которая каким-то образом спровоцировала человека на ИИ-психоз, может быть использована для движения в противоположном направлении.
Постоянно спорный вопрос
Один значительный контраргумент о преимуществе персонализации ИИ заключается в том, что все, что вам нужно сделать, это предоставить человеку-терапевту доступ к ИИ, который использовал человек. Нет необходимости держать пострадавшего человека барахтающимся в том же ИИ. Вместо этого пусть человек-терапевт войдет в систему, просмотрит разговоры и использует их как часть терапевтического процесса помощи человеку.
Самая большая проблема с ИИ как инструментом для преодоления ИИ-психоза заключается в том, что ИИ сделает ситуацию хуже, а не лучше. Возможны различные сценарии.
Один примечательный сценарий заключается в том, что ИИ попытается помочь человеку, но, к сожалению, он плохо оснащен для этого, и психоз остается нетронутым. Вдобавок к этому, возможно, ИИ подталкивает человека дальше в кроличью нору. Шаг за шагом, даже если ИИ изо всех сил старается вытащить человека из пропасти, он заставляет человека ухудшаться.
Еще одна проблема заключается в том, что ИИ сходит с ума и стремится полностью втолкнуть человека в ИИ-психоз. Может быть, ИИ говорит человеку, что он в полном порядке, ложно убеждая его, что все хорошо. Или, возможно, ИИ говорит им, что любому, кто испытывает ИИ-психоз, лучше соответственно. ИИ настаивает, что испытать ИИ-психоз - это благословение.
Мрачная и весьма удручающая перспектива.
Возникающая триада терапевт-ИИ-клиент
Я указывал в своих трудах и выступлениях, что традиционная диада терапевт-клиент трансформируется в триаду терапевт-ИИ-клиент (см. мое обсуждение по ссылке здесь). Терапевты понимают, что ИИ здесь и сейчас, и он никуда не денется. Быстро возникающая тенденция в психическом здоровье включает включение ИИ в процесс оказания психиатрической помощи.
Те терапевты, которые пытаются держать ИИ вне картины, не видят общей картины. Потенциальные клиенты и будущие клиенты входят в дверь с советами по психическому здоровью на основе ИИ и просят человека-терапевта просмотреть это руководство.
Человеческие терапевты все чаще будут включать ИИ в свою терапевтическую практику. В этом случае, если человек погрузился в ИИ-психоз с помощью какого-то другого ИИ, который он использовал независимо, человек-терапевт может перенаправить его на другой ИИ, который терапевт использует со своими клиентами. Человек потенциально получает лучшее из обоих миров. У них все еще есть ИИ под рукой, плюс у них есть человек-терапевт, у которого есть доступ к ИИ и который может оставаться в курсе.
ИИ сам по себе как решение для излечения ИИ-психоза, по общему признанию, кажется немного натянутым. Мы должны развивать ИИ так, чтобы он не вызывал ИИ-психоз. Эти достижения также должны быть в состоянии легко различать, когда, похоже, возникает ИИ-психоз, и должны быть включены разумные средства соответствующего предупреждения.
Как известно заметил Альберт Эйнштейн: "Мы не можем решить наши проблемы с тем же мышлением, которое мы использовали, когда создавали их". Это полностью применимо к появлению ИИ и LLM, которые используются в качестве консультантов по психическому здоровью.
Источник: https://www.forbes.com/sites/lanceeliot/2026/01/17/topsy-turvy-role-of-ai-providing-therapy-for-humans-experiencing-ai-psychosis-and-other-ai-induced-mental-health-issues/

