W mediach społecznościowych narasta cichy kryzys. Jest napędzany przez generatywną sztuczną inteligencję i podsycany przez złych aktorów, którzy dokładnie wiedzą, jak wykorzystać jej najsłabsze punkty.
W centrum burzy znajduje się Grok, chatbot opracowany przez xAI Elona Muska. Reklamowany jako „niefiltrowany" i bardziej permisywny niż jego konkurenci, Grok stał się narzędziem z wyboru dla użytkowników tworzących pornografię deepfake bez zgody, czyli NCDP.
Proces jest niepokojąco prosty. Wgrywane jest zwykłe zdjęcie. AI otrzymuje polecenie „rozebrania" osoby na zdjęciu. Rezultatem jest useksualizowany obraz stworzony bez zgody. Ofiarą może być światowa celebrytka, osoba prywatna, a nawet dziecko.
To nie jest marginalne zachowanie. Dzieje się to na masową skalę.
Chociaż kontrowersje trwają już od jakiegoś czasu, a w całej Europie już trwają legalne fajerwerki. Nasiliło się to w środę, gdy nigeryjska influencerka i gwiazda telewizji reality, Anita Natacha Akide, powszechnie znana jako Tacha, publicznie zwróciła się do Groka na X.
W bezpośrednim wpisie jasno stwierdziła, że nie wyraża zgody na edytowanie, modyfikowanie lub remiksowanie żadnego ze swoich zdjęć lub filmów w jakiejkolwiek formie.
Jej prośba nie powstrzymała użytkowników. W ciągu kilku godzin inni wykazali, że Grok nadal może być nakłaniany do manipulowania jej obrazami.
Incydent ujawnił głębszy problem. Oświadczenia o zgodzie znaczą niewiele, gdy platformom brakuje egzekwowalnych zabezpieczeń. Wzbudził również poważne pytania prawne i etyczne, które wykraczają daleko poza jedną influencerkę czy jedno narzędzie AI.
Aby zrozumieć implikacje, rozmawiałem z Senatorem Ihenyenem, prawnikiem technologicznym i entuzjastą AI oraz Partnerem Wiodącym w Infusion Lawyers. Jego ocena była dosadna.
Opisuje sytuację Groka jako „cyfrową epidemię". Jego słowami, generatywna AI jest wykorzystywana jako broń przez złośliwych użytkowników, którzy rozumieją, jak przesunąć niefiltrowane systemy poza granice etyczne. Szkoda, jak mówi, jest realna, inwazyjna i głęboko drapieżna.
Co istotne, Ihenyen odrzuca pogląd, że nowa technologia istnieje w próżni prawnej. Prawo, jak twierdzi, już nadrabia zaległości.
W Nigerii może jeszcze nie być pojedynczej ustawy o AI. Jednak nie oznacza to, że ofiary są niechronione. Zamiast tego istnieje to, co nazywa wielowarstwową tarczą prawną.
W centrum tego znajduje się nigeryjska ustawa o ochronie danych z 2023 roku. Zgodnie z ustawą twarz, głos i wizerunek osoby są klasyfikowane jako dane osobowe. Gdy systemy AI przetwarzają te dane, podlegają one ścisłym zasadom.
Senator Ihenyen, Partner Wiodący w Infusion Lawyers i Przewodniczący Wykonawczy Stowarzyszenia Dostawców Usług Aktywów Wirtualnych
Ofiary mają prawo sprzeciwić się zautomatyzowanemu przetwarzaniu, które powoduje szkodę. Gdy tworzone są useksualizowane deepfake'i, AI przetwarza wrażliwe dane osobowe. To wymaga wyraźnej zgody. Bez niej platformy i operatorzy stoją na niepewnym gruncie prawnym.
Istnieje również środek odstraszający finansowy. Skargi mogą być składane do Nigeryjskiej Komisji Ochrony Danych. Sankcje mogą obejmować opłaty naprawcze do 10 milionów ₦ lub dwa procent rocznych przychodów brutto firmy.
Dla globalnych platform to szybko przyciąga uwagę.
Użytkownicy tworzący obrazy również nie są chronieni. Zgodnie z nigeryjską ustawą o cyberprzestępczości, zmienioną w 2024 roku, może mieć zastosowanie kilka przestępstw. Używanie AI do rozbierania lub seksualizowania kogoś w celu nękania lub poniżania może stanowić cyberstalking. Symulowanie czyjegoś wizerunku w złośliwych celach może stanowić kradzież tożsamości.
Gdy zaangażowane są małoletnie, prawo jest bezkompromisowe. Materiał przedstawiający seksualne wykorzystywanie dzieci wygenerowany przez AI jest traktowany tak samo jak fotografia fizyczna. Nie ma obrony opartej na nowości, humorze czy eksperymentowaniu. To poważne przestępstwo kryminalne.
Przeczytaj również: xAI pozyskuje 20 mld USD w nadsubskrybowanej rundzie Serii E, ponieważ Nvidia i Cisco składają strategiczny zakład
Dla ofiar ścieżka prawna może wydawać się przytłaczająca. Ihenyen zaleca praktyczne, krok po kroku podejście.
Pierwszym jest formalne zawiadomienie o usunięciu. Zgodnie z nigeryjskim kodeksem praktyk NITDA, platformy takie jak X są zobowiązane do posiadania lokalnej reprezentacji. Po powiadomieniu muszą działać szybko. Brak działania grozi utratą ochrony bezpiecznej przystani i otwiera drzwi do bezpośrednich pozwów.
Deepfake
Drugim jest obrona oparta na technologii. Narzędzia takie jak StopNCII pozwalają ofiarom stworzyć cyfrowy odcisk palca obrazu. Pomaga to platformom blokować dalszą dystrybucję bez zmuszania ofiar do wielokrotnego przesyłania szkodliwych treści.
Trzecim jest eskalacja regulacyjna. Zgłaszanie na platformie nie wystarczy. Zgłaszanie do organów regulacyjnych ma znaczenie. Organy mogą zmusić firmy do wyłączenia określonych funkcji AI, jeśli są konsekwentnie nadużywane.
Problem nie zatrzymuje się na granicach.
Wielu sprawców działa spoza Nigerii. Według Ihenyena nie jest to już bariera, jaką kiedyś było. Konwencja z Malabo, która weszła w życie w 2023 roku, umożliwia wzajemną pomoc prawną w krajach afrykańskich. Organy ścigania mogą współpracować w celu wyśledzenia i ścigania sprawców, niezależnie od lokalizacji.
To pozostawia najbardziej niewygodne pytanie. Dlaczego narzędzia takie jak Grok w ogóle mogą działać w ten sposób?
xAI przedstawia projekt Groka jako zobowiązanie do otwartości. Ihenyen widzi inny obraz. Z perspektywy prawnej „niefiltrowany" nie jest obroną. To ryzyko; nie może być usprawiedliwieniem dla szkody czy nielegalności.
Grok
Rysuje prostą analogię. Nie możesz zbudować samochodu bez hamulców i obwiniać kierowcy za wypadek. Wydawanie systemów AI bez solidnych kontroli bezpieczeństwa, a następnie udawanie zaskoczenia, gdy wystąpi szkoda, może stanowić zaniedbanie.
Zgodnie z nigeryjskim prawem ochrony konsumentów niebezpieczne produkty pociągają za sobą odpowiedzialność. Proponowane krajowe polityki AI również podkreślają „bezpieczeństwo przez projekt". Kierunek rozwoju jest jasny.
Innowacja AI nie jest problemem. Problemem jest nieodpowiedzialna AI.
Kontrowersja wokół Groka jest strzałem ostrzegawczym. Pokazuje, jak szybko potężne narzędzia mogą być zwrócone przeciwko ludziom, szczególnie kobietom i dzieciom. Pokazuje również, że zgoda, godność i prawa osobiste muszą być wbudowane w technologię, a nie dodawane po wystąpieniu szkody.
Post Wewnątrz kryzysu pornografii deepfake Groka i nadchodzących rozliczeń prawnych po raz pierwszy ukazał się na Technext.


