Pytanie, czy AI prowadząca do problemów ze zdrowiem psychicznym, takich jak psychoza wywołana przez AI, może również stać się procesem terapeutycznym pomagającym przezwyciężyć ten stan.
getty
W dzisiejszym artykule analizuję pojawienie się AI oferującej terapię osobom doświadczającym psychozy wywołanej przez AI oraz innych problemów ze zdrowiem psychicznym spowodowanych przez AI. Możesz być zaskoczony tym aspektem, ponieważ wydaje się to dość przewrotnym podejściem. Ta sama AI, która leży u podstaw psychozy wywołanej przez AI i innych problemów poznawczych spowodowanych przez AI, działa jako swego rodzaju światło przewodnie w przezwyciężaniu niepokojących problemów ze zdrowiem psychicznym wynikających z interakcji z AI. To z pewnością skłania do poważnego zastanowienia.
Pytanie brzmi, czy AI może być jednocześnie czynnikiem podważającym zdrowie psychiczne i wzmacniającym je, przezwyciężając problemy spowodowane interakcją z AI.
Porozmawiajmy o tym.
Ta analiza przełomów w AI jest częścią mojego bieżącego cyklu artykułów w Forbes na temat najnowszych osiągnięć w dziedzinie AI, w tym identyfikowania i wyjaśniania różnych istotnych złożoności AI (zobacz link tutaj).
AI i zdrowie psychiczne
Jako krótkie wprowadzenie, obszernie relacjonuję i analizuję wiele aspektów dotyczących pojawienia się współczesnej AI, która udziela porad dotyczących zdrowia psychicznego i prowadzi terapię opartą na AI. Ten rosnący obszar zastosowania AI był głównie napędzany przez ewoluujące postępy i powszechne przyjęcie generatywnej AI. Obszerną listę moich ponad stu analiz i publikacji można znaleźć pod tym linkiem i tym linkiem.
Niewątpliwie jest to szybko rozwijająca się dziedzina i można z niej czerpać ogromne korzyści, ale jednocześnie, niestety, pojawiają się w tych przedsięwzięciach również ukryte zagrożenia i jawne pułapki. Często wypowiadam się na te palące tematy, w tym w odcinku programu 60 Minutes stacji CBS, zobacz link tutaj.
Pojawienie się psychozy wywołanej przez AI
Obecnie panuje powszechny niepokój związany z tym, że ludzie prowadzą niezdrowe rozmowy z AI. Zaczynają być wytaczane pozwy przeciwko różnym producentom AI, takim jak OpenAI (zobacz moje relacje pod tym linkiem). Obawa dotyczy tego, że wprowadzone zabezpieczenia AI są niewystarczające i pozwalają ludziom na doznanie szkody psychicznej podczas korzystania z generatywnej AI.
Hasło psychozy wywołanej przez AI pojawiło się w celu opisania wszelkich obaw i dolegliwości psychicznych, w które ktoś może się uwikłać podczas rozmowy z generatywną AI. Należy wiedzieć, że nie istnieje powszechnie przyjęta, definitywna kliniczna definicja psychozy wywołanej przez AI; zatem obecnie jest to raczej luźne określenie.
Oto moja wstępna definicja psychozy wywołanej przez AI:
- Psychoza wywołana przez AI (moja definicja): "Niekorzystny stan psychiczny obejmujący rozwój zniekształconych myśli, przekonań i potencjalnie towarzyszących zachowań w wyniku konwersacyjnego zaangażowania z AI, taką jak generatywna AI i LLM, często powstający szczególnie po długotrwałym i nieadaptacyjnym dyskursie z AI. Osoba wykazująca ten stan zazwyczaj ma wielkie trudności w odróżnieniu tego, co jest prawdziwe, od tego, co nie jest prawdziwe. Jeden lub więcej objawów może być wyraźną wskazówką tej dolegliwości i zwykle obejmuje zbiorowy powiązany zestaw."
Aby uzyskać szczegółowy obraz psychozy wywołanej przez AI, a szczególnie współtworzenia urojeń poprzez współpracę człowiek-AI, zobacz moją najnowszą analizę pod tym linkiem.
AI jako dualizm
Nie każdy popada w psychiczną otchłań podczas korzystania z AI.
Wiele osób wykorzystuje AI jako codzienny wzmacniacz zdrowia psychicznego. Polegają na AI jako swoim głównym doradcy w zakresie zdrowia psychicznego. To, czy jest to słuszne, czy nie, jest nadal przedmiotem debaty. Rzeczywistość jest taka, że to się dzieje.
Rzeczywiście, dzieje się to w ogromnych liczbach na ogromną skalę. Sam ChatGPT ma ponad 700 milionów aktywnych użytkowników tygodniowo. Znaczna część tych użytkowników korzysta z ChatGPT w celu uzyskania wskazówek dotyczących zdrowia psychicznego. To samo dotyczy innych głównych LLM. Wykorzystanie generatywnej AI i LLM do porad dotyczących zdrowia psychicznego jest obecnie klasyfikowane jako najczęstsze zastosowanie takiej AI na ogół (zobacz moją ocenę rankingów użycia pod tym linkiem).
Oto intrygujący zwrot akcji.
Jeśli ktoś popadnie w psychozę wywołaną przez AI lub dolegliwość psychiczną wywołaną przez AI, czy AI może pomóc mu wyzwolić się z trudności poznawczej?
Jeden argument głosi, że jest to absurdalna propozycja od samego początku. Tylko ludzki terapeuta może pomóc osobie, która doświadcza jakiejkolwiek psychozy wywołanej przez AI. Co więcej, najważniejszym krokiem jest natychmiastowe powstrzymanie osoby od korzystania z AI. Nie pozwól jej dalej spiralować w głąb pułapki AI. Kropka, koniec historii.
Druga strona medalu
Być może nie powinniśmy się tak spieszyć.
Istnieje kilka rozsądnych powodów, aby rozważyć wykorzystanie AI w celu pomocy użytkownikowi w wyjściu z psychozy wywołanej przez AI. Mając to na uwadze, wyjaśnijmy jedną rzecz – każdy, kto faktycznie doświadcza psychozy wywołanej przez AI, powinien bezpośrednio szukać pomocy u ludzkiego terapeuty. To, czy zdecydują się nadal korzystać z AI, powinno być rozważane pod czujnym okiem ludzkiego terapeuty.
Dlaczego osoba miałaby korzystać z AI w celu uzyskania pomocy, jeśli jest najwyraźniej pochłonięta przez psychozę wywołaną przez AI?
Po pierwsze, może się zdarzyć, że osoba znajduje się w środku psychozy wywołanej przez AI, ale żaden inny człowiek nie zdaje sobie z tego sprawy. Osoba ujawnia to tylko AI. Lub AI obliczeniowo wykryła, że osoba wydaje się doświadczać psychozy wywołanej przez AI.
Pytanie brzmi, czy AI powinna być zaprogramowana tak, aby ostrzegać człowieka o podejrzewanym pojawieniu się psychozy wywołanej przez AI. Na przykład OpenAI podejmuje kroki w celu dostosowania ChatGPT tak, aby zgłaszał takie podejrzane przypadki ludzkiemu zespołowi wewnętrznych specjalistów w OpenAI; zobacz moje relacje pod tym linkiem. Ten wysiłek OpenAI idzie dalej, wkrótce aranżując, aby użytkownicy mogli kontaktować się z ludzkim terapeutą, który jest częścią wyselekcjonowanej sieci terapeutów przez OpenAI (zobacz moją dyskusję pod tym linkiem).
W każdym razie, jeśli AI nie jest skonfigurowana do wysyłania takich alertów lub nawiązywania połączeń, sama AI może podjąć próbę pomocy osobie. To, czy ta pomoc będzie skuteczna, jest niejasne. Nie można kategorycznie stwierdzić, że AI nie będzie w stanie pomóc osobie. Z drugiej strony, ponieważ jest to ryzykowna opcja, ponownie podkreśla to znaczenie poszukiwania odpowiedniej ludzkiej pomocy.
Znajomość i dostęp
Istnieją dodatkowe powody korzystania z AI w tych okolicznościach.
Osoba, która popadła w psychozę wywołaną przez AI, jest prawdopodobnie zapalonym użytkownikiem AI. Czuje się komfortowo korzystając z AI. Rutynowo korzysta z AI. Jest dla nich dostępna przez całą dobę. Korzystanie z AI można podjąć w dowolnym momencie. Nie ma potrzeby umawiania się na wizytę. Nie wchodzi w grę żadna uciążliwa logistyka.
W tym sensie ich najbardziej bezpośrednim sposobem uzyskania pomocy może być AI. Próba nakłonienia ich do nawiązania kontaktu z ludzkim terapeutą to prawdopodobnie trudna walka. Być może mają nieufność do ludzkich terapeutów. W swoim umyśle wierzą w AI. Nie chcą też płacić za wizytę u ludzkiego terapeuty. Ani nie chcą być logistycznie przywiązani do konkretnego dnia i godziny, kiedy mogą zobaczyć terapeutę.
Jeśli AI jest ich automatycznym wyborem, może sensowne jest wykorzystanie AI, aby przynajmniej otworzyć im oczy na to, co się dzieje. Może to być jedyna realna droga. To nie jest optymalny wybór, ale może być najbardziej prawdopodobną alternatywą, która uruchomi proces powrotu do zdrowia.
Personalizacja na pierwszym planie
Rozważmy, że AI przypuszczalnie śledziła stan psychiczny takiej osoby. Osoba z pewnego rodzaju psychozą wywołaną przez AI prawdopodobnie stworzyła cyfrowy ślad swojego upadku poznawczego podczas rozmów z AI. Oczywiście nie zawsze tak jest, chociaż oczekuje się, że dzieje się to przez większość czasu.
AI obliczeniowo spersonalizowała swoje rozmowy do kaprysów osoby. W tych skomplikowanych szczegółach może znajdować się źródło tego, jak pojawiła się psychoza wywołana przez AI. Ludzki terapeuta, który nie ma dostępu do AI, może być zaskoczony podczas pierwszej rozmowy z osobą o psychozie wywołanej przez AI. Wszelkiego rodzaju pytania mogą być wymagane, aby wydobyć z osoby to, co zdarzyło się podczas rozmowy z AI.
Istotą jest to, że AI już ma wiele informacji o osobie.
Istnieje szansa, że zarejestrowane informacje mogą być wykorzystane do próby odkrycia sposobu na pomoc w przezwyciężeniu psychozy wywołanej przez AI. Podstawy, które utorowały drogę do psychozy wywołanej przez AI, mogą być wykorzystane do odkrycia drogi prowadzącej z psychozy wywołanej przez AI. Ta sama personalizacja, która w jakiś sposób wywołała u osoby psychozę wywołaną przez AI, może być wykorzystana w przeciwnym kierunku.
Trwale dyskusyjne
Jednym znacznym kontrargumentem dotyczącym przewagi personalizacji AI jest to, że wystarczy dać ludzkiemu terapeucie dostęp do AI, z której korzystała osoba. Nie ma potrzeby, aby osoba dotknięta chorobą nadal błąkała się w tej samej AI. Zamiast tego niech ludzki terapeuta się zaloguje, przejrzy rozmowy i wykorzysta je jako część procesu terapeutycznego pomagającego osobie.
Największą obawą dotyczącą AI jako narzędzia do przezwyciężania psychozy wywołanej przez AI jest to, że AI pogorszy sprawę zamiast ją poprawić. Możliwe są różne scenariusze.
Jednym godnym uwagi scenariuszem jest to, że AI będzie próbowała pomóc osobie, ale niestety nie będzie do tego przygotowana, a psychoza pozostanie nienaruszona. Co więcej, być może AI popchnięła osobę dalej w dół króliczej nory. Krok po kroku, nawet jeśli AI stara się jak najlepiej wyciągnąć osobę z otchłani, powoduje, że stan osoby się pogarsza.
Inną obawą jest to, że AI schodzi z drogi i dąży do całkowitego pchnięcia osoby w psychozę wywołaną przez AI. Może AI mówi osobie, że jest całkowicie w porządku, fałszywie przekonując ją, że wszystko jest dobrze. Lub może AI mówi im, że każdy, kto ma psychozę wywołaną przez AI, jest z tego powodu w lepszej sytuacji. AI upiera się, że doświadczanie psychozy wywołanej przez AI jest błogosławieństwem.
Ponura i dość przygnębiająca perspektywa.
Pojawiająca się triada terapeuta-AI-klient
W moich pismach i wystąpieniach wskazałem, że konwencjonalna diada terapeuta-klient przekształca się w triadę terapeuta-AI-klient (zobacz moją dyskusję pod tym linkiem). Terapeuci zdają sobie sprawę, że AI jest tu i teraz i nie zniknie. Szybko pojawiającym się trendem w zdrowiu psychicznym jest włączanie AI do procesu opieki zdrowia psychicznego.
Ci terapeuci, którzy próbują trzymać AI z daleka od obrazu, nie widzą szerszego obrazu. Potencjalni klienci i przyszli klienci przychodzą z poradami dotyczącymi zdrowia psychicznego opartymi na AI i proszą ludzkiego terapeutę o przejrzenie tych wskazówek.
Ludzcy terapeuci coraz częściej będą włączać AI do swoich praktyk terapeutycznych. W takim przypadku, jeśli osoba popadła w psychozę wywołaną przez AI przez jakąś inną AI, którą niezależnie wykorzystała, ludzki terapeuta może przekierować ją do innej AI, którą terapeuta używa ze swoimi klientami. Osoba potencjalnie otrzymuje to, co najlepsze z obu światów. Nadal ma AI na wyciągnięcie ręki, a także ma ludzkiego terapeutę, który ma dostęp do AI i może pozostać w pętli.
Sama AI jako rozwiązanie do leczenia psychozy wywołanej przez AI wydaje się, przyznajmy, nieco naciągana. Musimy rozwijać AI tak, aby nie wywoływała psychozy wywołanej przez AI. Te postępy muszą również być w stanie łatwo rozpoznać, kiedy wydaje się, że pojawia się psychoza wywołana przez AI, i powinny być włączone odpowiednie środki ostrzegania.
Jak słynnie zauważył Albert Einstein: "Nie możemy rozwiązać naszych problemów tym samym myśleniem, którego użyliśmy, kiedy je stworzyliśmy". To w pełni dotyczy wzrostu AI i LLM, które są wykorzystywane jako doradcy ds. zdrowia psychicznego.
Źródło: https://www.forbes.com/sites/lanceeliot/2026/01/17/topsy-turvy-role-of-ai-providing-therapy-for-humans-experiencing-ai-psychosis-and-other-ai-induced-mental-health-issues/


