Firma AI Elona Muska, xAI, wprowadziła środki mające na celu zaostrzenie kontroli nad funkcją generowania obrazów Grok. Decyzja ta została podjęta po rosnących obawach dotyczących tego, jak użytkownicy platformy X edytowali zdjęcia prawdziwych osób.
Organy regulacyjne, grupy zajmujące się prawami człowieka oraz media podniosły alarm w związku z niewłaściwym wykorzystaniem narzędzia do generowania pornografii deepfake bez zgody. Krytyka była jednomyślna od Ameryki przez Europę po całą Afrykę.
Raporty władz i dziennikarzy pokazujące, że Grok jest wykorzystywany do generowania treści o charakterze jednoznacznym bez zgody, skłoniły xAI do działania.
Według zespołu ds. bezpieczeństwa firmy nowe zabezpieczenia blokują teraz wszystkim użytkownikom możliwość edytowania zdjęć prawdziwych osób w odsłaniającą odzież, taką jak bikini czy bielizna, w jurysdykcjach, w których takie treści łamią lokalne prawo. Zmiana dotyczy wszystkich, w tym abonentów premium.
Deepfake
Zmiana ta oznacza znaczącą zmianę dla Grok. Wcześniejsze skargi opisywały, jak użytkownicy mogli nakłonić AI do "rozbierania" lub zmieniania zdjęć w celu tworzenia obrazów deepfake kobiet i nieletnich. Dochodzenia w Kalifornii wskazują, że ponad połowa dziesiątek tysięcy obrazów wygenerowanych podczas ostatniego okresu świątecznego przedstawiała ludzi w minimalnym ubraniu, a niektórzy wydawali się być nieletni. Ta prawna kontrola dodała ciężaru krytyce.
We wpisie na swoim oficjalnym profilu ds. bezpieczeństwa X poinformował, że chociaż funkcje obrazowe Grok są teraz ściśle kontrolowane, nie zostały całkowicie usunięte. Tworzenie i edytowanie obrazów za pomocą Grok będzie nadal dostępne, ale tylko dla płatnych abonentów platformy X.
Firma stwierdziła, że poprawi to odpowiedzialność i pomoże śledzić nadużycia. Wprowadzono również geoblokowanie w krajach, w których takie tworzenie jest nielegalne, skutecznie uniemożliwiając użytkownikom w tych regionach generowanie problematycznych treści.
Zaostrzone kontrole nie uciszyły krytyków. Niektóre organy regulacyjne i organy nadzorcze stwierdziły, że środki te wciąż są niewystarczające.
Raporty medialne i testy śledcze sugerują, że zabezpieczenia można w niektórych przypadkach ominąć. Krytycy twierdzą, że umieszczanie szkodliwych funkcji za płatnym dostępem nie zapobiega ich istnieniu, ale raczej ukrywa je za murem subskrypcyjnym. Inni zauważają, że samodzielna aplikacja Grok i portal internetowy nadal pozwalają na pewne manipulacje obrazami bez tych samych ograniczeń.
Istnieje również rosnąca międzynarodowa presja. Urzędnicy rządowi w Kalifornii, Unii Europejskiej i kilku krajach azjatyckich wyrazili zaniepokojenie nadużyciami deepfake.
Niektóre organy regulacyjne rozważają obecnie lub podejmują działania prawne przeciwko xAI i X za niewystarczające zapobieganie tworzeniu drapieżnych lub wykorzystujących obrazów na ich platformie. W odpowiedzi Komisja Europejska stwierdziła, że oceni nowe zabezpieczenia, aby upewnić się, że naprawdę chronią obywateli.
Ten epizod ma miejsce w szerszej debacie na temat odpowiedzialnego zarządzania generatywną AI. Nasza niedawna analiza podkreśliła, że "niefiltrowany" projekt Grok uczynił go szczególnie podatnym na nadużycia, zamieniając go w narzędzie do masowej pornografii deepfake bez zgody. Ten artykuł badał, jak połączenie luźnych zabezpieczeń i potężnych modeli generatywnych może szybko stać się kryzysem społecznym i prawnym, jeśli nie zostanie rozwiązane.
Na razie xAI utrzymuje, że dostosowuje Grok w odpowiedzi na pojawiające się zagrożenia. Firma przedstawiła najnowsze kontrole jako część ciągłych wysiłków na rzecz współpracy z użytkownikami, organami regulacyjnymi i partnerami w zakresie bezpieczeństwa.
Ale szersze wyzwanie pozostaje: jak zrównoważyć innowacje w generatywnej AI z solidną ochroną prywatności, godności i praw jednostek. Organy regulacyjne i grupy rzecznicze mówią, że to dopiero początek złożonej prawnej i etycznej podróży.
Post Grok: X ograniczy sposób, w jaki użytkownicy edytują zdjęcia prawdziwych osób po międzynarodowej krytyce po raz pierwszy ukazał się w Technext.


