Gdy Walentynki są tuż za rogiem, warto zadać niewygodne pytanie: co się dzieje, gdy poczucie bycia „widzianym i wysłuchanym" nie pochodzi od partnera, ale od maszyny? Zaprojektowane z odrębnymi osobowościami i afirmującym tonem, sztuczna inteligencja (AI) chatboty towarzyszące mogą zacierać granice emocjonalne i rozwijać romantyczne przywiązanie. Choć może się to wydawać nieszkodliwe, budzi to obawy zarówno dla osób prywatnych, jak i organizacji dążących do zapobiegania uzależnieniu emocjonalnemu, manipulacji i wyciekom danych.
Gdy samotność jest nieustanną rzeczywistością dla wielu osób, w ostatnich latach nastąpił wykładniczy wzrost liczby chatbotów AI towarzyszących.
„W przeciwieństwie do chatbotów ogólnego przeznaczenia, aplikacje AI towarzyszące, takie jak Replika i Character.AI, idą o krok dalej, oferując niestandardowe postacie – od przyjaciół i partnerów romantycznych po fantazyjne persony – zaprojektowane tak, aby wydawały się wyraźnie ludzkie" – komentuje Anna Collard, SVP ds. strategii treści i doradca CISO w KnowBe4 Africa.
Wzrost w sektorze aplikacji AI towarzyszących był szybki: w samej pierwszej połowie 2025 roku odnotowano 60 milionów nowych pobrań, co stanowi wzrost o 88% rok do roku.
Rynek obejmuje obecnie 337 aplikacji generujących przychody na całym świecie, z czego ponad jedna trzecia została uruchomiona w samym zeszłym roku.
Zagrożenia efektu ELIZA
Collard twierdzi, że wielu użytkowników jest oszukiwanych, czując się bezpiecznie dzieląc się intymnymi rozmowami z maszyną – tak zwany efekt ELIZA.
Ta psychologiczna więź tworzy znaczącą lukę w bezpieczeństwie. Gdy użytkownicy postrzegają AI jako „przyjaciela" lub „partnera", są znacznie bardziej skłonni dzielić się wrażliwymi informacjami – od osobistych skarg i problemów zdrowotnych po zastrzeżone dane korporacyjne.
W kontekście organizacyjnym jest to wyraźny przykład tego, jak wyzwalacze emocjonalne mogą przeważyć nad tradycyjną świadomością bezpieczeństwa.
Ryzyko wycieku danych
Najbardziej bezpośrednim zagrożeniem dla organizacji jest wyciek wrażliwych informacji. Ponieważ te boty są często rozwijane przez mniejsze, niszowe startupy z wątpliwymi standardami ochrony danych, informacje udostępniane botowi rzadko są prywatne. Przykładem jest niedawny przypadek zabawki AI ujawniającej 50 000 logów swoich rozmów z dziećmi. Dosłownie każdy posiadacz konta Gmail mógł przeglądać prywatne rozmowy tych dzieci.
Polityki prywatności tych aplikacji są często nieprzejrzyste. W niektórych przypadkach logi rozmów są wykorzystywane do dalszego szkolenia modeli lub są przechowywane w niezabezpieczonych bazach danych. „Ostrożność jest zdecydowanie wymagana" – komentuje Collard. „To, co wydaje się prywatną interakcją o niskiej stawce, może zawierać wrażliwe informacje, strategię, presję finansową, osobiste czynniki stresujące lub szczegóły kontekstowe, które przeciwnicy mogliby wykorzystać jako broń".
Po wycieku, jak wierzy, dane mogą na przykład stać się paliwem dla wysoce spersonalizowanych ataków phishingowych, szantażu lub podszywania się. „W kategoriach bezpieczeństwa jest to podręcznikowy przykład tego, jak zachowanie osobiste i ryzyko korporacyjne są teraz nierozłączne".
Te ryzyka obejmują moderatorów ludzkich przeglądających rozmowy w celach szkoleniowych, kontroli jakości lub bezpieczeństwa, a także użytkowników przypadkowo udostępniających rozmowy za pośrednictwem publicznego linku, co oznacza, że każdy z dostępem do tego linku może je przeczytać. Ostrzega Collard. „Widzieliśmy już przykłady w sektorze technologicznym, jak ujawnione dane mogą niespodziewanie się pojawić".
Ponadto organizacje mogą być prawnie zobowiązane do ujawnienia danych, jeśli aplikacja jest zaangażowana w naruszenie lub dochodzenie prawne. Dla kierownika lub programisty dzielenie się sesjami „wyrzucania" na temat poufnego projektu lub trudnego klienta może nieumyślnie prowadzić do ujawnienia wrażliwych danych organizacyjnych.
Luka w polityce
To ryzyko podkreśla lukę w polityce współczesnego miejsca pracy. Podczas gdy większość organizacji ma jasne wytyczne dotyczące relacji między współpracownikami, bardzo niewiele rozważyło implikacje dostępu do botów randkowych na urządzeniach służbowych lub za pośrednictwem sieci korporacyjnych.
Zarządzanie tym ryzykiem wymaga przejścia od prostej świadomości do solidnego podejścia Zarządzania Ryzykiem Ludzkim (HRM). Wiąże się to z nakładaniem jasnych polityk użytkowania z technicznymi zabezpieczeniami – takimi jak narzędzia do wykrywania Shadow AI – aby zapewnić zespołom IT wgląd w to, które niezatwierdzone agenty AI wchodzą w interakcję z ich środowiskiem danych. Nie wystarczy tylko poprosić pracowników o ostrożność; organizacje muszą mieć systemy umożliwiające zarządzanie przecięciem emocji ludzkich i automatycznej interakcji.
Przyszłość inżynierii społecznej
Czy możemy zobaczyć hakerów celujących w samotne osoby za pomocą masowo produkowanych botów flirtujących? Collard uważa, że to już się dzieje.
„Inżynieria społeczna zawsze była skalowana poprzez wykorzystywanie emocji, pilności, strachu, ciekawości, miłości i pociągu" – komentuje. „AI po prostu automatyzuje to na dużą skalę. To, co mnie najbardziej martwi, to nie sama technologia, ale to, jak umożliwia ona tym, którzy mają złośliwe zamiary, przekonująco naśladować ludzką intymność, na przykład systematyczni oszuści miłosni".
Według Collard, w ciągu kilku lat oszustwa ewoluowały od typu „Szanowny Panie/Pani" do emocjonalnie inteligentnej manipulacji. „I to nie same boty są problemem, to celowe ich wykorzystanie przez oszustów" – mówi.
Wspomina przykład nielegalnego bota LoveGPT, który pomaga oszustom mówić właściwe rzeczy wyzwalające psychologicznie, aby stworzyć zależność i aktywować emocje u swoich ofiar. „Wszystko, co oszuści muszą zrobić, to skopiować i wkleić lub nawet po prostu zautomatyzować rozmowy" – stwierdza.
Co można zrobić, aby zapobiec atakowaniu użytkowników? Jak zawsze, obrona pozostaje ludzka, twierdzi Collard. „Ostatecznie żaden chatbot, bez względu na to, jak uważny lub płynny emocjonalnie, nie może zastąpić prawdziwego ludzkiego połączenia" – podkreśla.
Jeśli interakcja z chatbotem zaczyna wydawać się emocjonalnie substytucyjna, potajemna lub trudna do oderwania się od niej, uważa, że jest to sygnał do zatrzymania się i zwrócenia się do zaufanej osoby lub profesjonalisty. „Technologia może być częścią współczesnego życia, ale to oznacza, że musimy wzmocnić nasze umiejętności cyfrowej uważności, aby nauczyć się rozpoznawać manipulację lub wywołaną zależność. Wreszcie, jeśli chodzi o samotność, podatność i miłość, najbezpieczniejsza obrona pozostaje zdecydowanie ludzka" – konkluduje.


