Post Cybercrime Might Be the One Job AI Isn't Taking, Study Suggests pojawił się na BitcoinEthereumNews.com. W skrócie Naukowcy z Cambridge, Edynburga i StrathclydePost Cybercrime Might Be the One Job AI Isn't Taking, Study Suggests pojawił się na BitcoinEthereumNews.com. W skrócie Naukowcy z Cambridge, Edynburga i Strathclyde

Cybercrime może być jedyną pracą, której AI nie przejmuje, sugeruje badanie

2026/05/06 03:21
5 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem crypto.news@mexc.com

W skrócie

  • Naukowcy z Cambridge, Edynburga i Strathclyde przeanalizowali 97 895 wątków na forach cyberprzestępczych opublikowanych po premierze ChatGPT.
  • Narzędzia „Dark AI", takie jak WormGPT, wzbudziły szum medialny, ale nie wytworzyły prawie żadnego działającego złośliwego oprogramowania, a złamane chatboty są coraz trudniejsze do utrzymania w działaniu przez więcej niż kilka dni.
  • Największym mierzalnym przestępstwem napędzanym przez AI nie jest hacking. To masowo produkowany spam SEO, oszustwa romantyczne i generowane przez AI akty sprzedawane po dolarze za sztukę.

Od trzech lat firmy zajmujące się cyberbezpieczeństwem, rządy i laboratoria AI ostrzegają, że generatywna AI uwolni nowe pokolenie wspomaganych hakerów. Jednak według nowego artykułu naukowego, który faktycznie zbadał tę kwestię, wspomagani hakerzy głównie używają ChatGPT do pisania spamu i generowania aktów dla zabawy.

Badanie zatytułowane Stand-Alone Complex or Vibercrime? zostało opublikowane na arXiv przez naukowców z Cambridge i innych uczelni, a jego celem jest zrozumienie, jak cyberprzestępcze podziemie faktycznie adoptuje AI, a nie jak twierdzą o tym dostawcy rozwiązań cyberbezpieczeństwa.

„Prezentujemy tu jedno z pierwszych podejść do mieszanej metodologicznie empirycznej analizy wczesnych wzorców adopcji GenAI w cyberprzestępczym podziemiu" – napisali naukowcy.

Zespół przeanalizował 97 895 wątków na forach opublikowanych po premierze ChatGPT w listopadzie 2022 roku, pobranych z zestawu danych CrimeBB Cambridge Cybercrime Centre, obejmującego podziemne i darkwebowe fora. Przeprowadzili modelowanie tematyczne, ręcznie przeczytali ponad 3 200 wątków i etnograficznie zanurzyli się w środowisko.

Wniosek nie jest pochlebny dla społeczności „AI doom": 97,3% wątków w próbie zostało sklasyfikowanych jako „inne", co oznacza, że w ogóle nie dotyczyły one używania AI do przestępstw. Tylko 1,9% dotyczyło kogoś używającego narzędzi do vibe codingu.

„Nic więcej niż nieograniczony ChatGPT"

Pamiętacie WormGPT, FraudGPT i falę rzekomo złośliwych chatbotów, które zalały nagłówki gazet w 2023 roku? Dane z forów mówią inną historię.

Większość postów dotyczących produktów „Dark AI", jak stwierdzili naukowcy, to byli ludzie błagający o darmowy dostęp, próżne spekulacje i skargi, że narzędzia w ogóle nie działają. Jeden z twórców popularnej usługi Dark AI ostatecznie przyznał się członkom forum, że produkt był jedynie ćwiczeniem marketingowym.

„W ostatecznym rozrachunku [CybercrimeAI] to nic więcej niż nieograniczony ChatGPT" – napisał twórca przed zamknięciem projektu. „Każdy w Internecie może użyć dobrze znanych technik jailbreak i osiągnąć takie same, jeśli nie lepsze rezultaty."

Pod koniec 2024 roku, jak twierdzą naukowcy, jailbreaki dla głównych modeli stały się jednorazowe. Większość przestaje działać w ciągu tygodnia lub krócej. Modele open-source można jailbreakować bezterminowo, ale są powolne, zasobożerne i zamrożone w czasie.

„Zabezpieczenia systemów AI okazują się zarówno przydatne, jak i skuteczne" – konkludują autorzy, określając to jako nieintuicyjny wniosek jak na krytyczny artykuł.

Vibe coding jest realny. Vibe hacking w większości nie

Artykuł bezpośrednio odnosi się do szeroko omawianego raportu Anthropic z sierpnia 2025 roku, twierdzącego, że Claude Code został wykorzystany do przeprowadzenia kampanii wymuszeń metodą „vibe hacking" przeciwko 17 organizacjom. Dane zespołu z Cambridge po prostu nie wykazują tego wzorca w szerszym podziemiu.

Na forach, które badali, asystenci kodowania AI są używani w taki sam sposób, jak używają ich deweloperzy z mainstreamu: jako uzupełnianie kodu i zamienniki Stack Overflow dla już wykwalifikowanych programistów. Niskopoziomowi aktorzy trzymają się gotowych skryptów, bo gotowe skrypty działają.

Naukowcy odkryli, że nawet hakerzy nie ufają swoim narzędziom do hackingu stworzonym przez vibe coding. „Kodowanie wspomagane przez AI to miecz obosieczny. Przyspieszy rozwój, ale również amplifikuje ryzyka, takie jak niezabezpieczony kod i podatności w łańcuchu dostaw" – powiedział jeden z użytkowników na forum monitorowanym przez naukowców.

Inny ostrzegał przed długoterminową utratą umiejętności: „Teraz jest jasne, że używanie AI do kodu powoduje bardzo szybką negatywną degradację twoich umiejętności" – napisał haker na forum – „Jeśli twoim celem jest jedynie produkowanie oszustw SaaS i nie dbasz o jakość/bezpieczeństwo/wydajność kodu, vibe coding może być opłacalny. (Wydaje się też przydatny do phishingu)."

Stoi to w ostrym kontraście do alarmistycznych prognoz Europolu, który ostrzegał w 2025 roku, że w pełni autonomiczna AI mogłaby pewnego dnia kontrolować sieci przestępcze.

Gdzie AI faktycznie pomaga przestępcom

Zakłócenia, gdy się pojawiają, są na dole łańcucha pokarmowego.

Oszuści SEO używają LLM do masowego produkowania spamu blogowego, aby gonić za malejącymi przychodami z reklam. Oszuści romantyczni i operatorzy eWhoring dodają klonowanie głosu i generowanie obrazów. Naganiacze szybkiego wzbogacenia się produkują masowo pisane przez AI e-booki sprzedawane po 20 dolarów za sztukę.

Najbardziej niepokojący rynek odkryty przez naukowców dotyczył usług generowania nagich zdjęć. Jeden z operatorów reklamował: „Jestem w stanie rozebrać każdą dziewczynę za pomocą AI… 1 zdjęcie = 1 USD, 10 zdjęć = 8 USD, 50 zdjęć = 40 USD, 90 zdjęć = 75 USD."

Żadne z tych działań nie jest wyrafinowanym cyberprzestępstwem. To ten sam niskoprzychodzisty, wysokonakładowy proceder, który napędzał branżę spamową przez dwie dekady, teraz działający na nieco lepszych narzędziach.

Końcowa obserwacja naukowców jest najbardziej trafna. Sugerują, że największy sposób, w jaki AI zakłóci ekosystem cyberprzestępczości, może nie polegać na uczynieniu przestępców bardziej zdolnymi. Może polegać na wypychaniu zwolnionych deweloperów z legalnych firm technologicznych do podziemia w poszukiwaniu pracy.

„W ostatnich miesiącach niepokój związany z zakłóceniami na rynku pracy spowodowanymi przez te narzędzia gwałtownie rośnie" – czytamy w artykule. „Może to ostatecznie okazać się najważniejszym sposobem, w jaki generatywne narzędzia AI zakłócą ekosystem cyberprzestępczości — masowe zwolnienia, spowolnienie gospodarcze i chłodny rynek pracy wypychające legalnych, bardziej wykwalifikowanych deweloperów do podziemnych społeczności schematów szybkiego wzbogacenia się, oszustw i cyberprzestępczości."

Newsletter Daily Debrief

Zacznij każdy dzień od najważniejszych wiadomości z chwili obecnej, plus oryginalne artykuły, podcast, filmy i wiele więcej.

Source: https://decrypt.co/366855/cybercrime-hacking-ai-study

Okazja rynkowa
Logo Gensyn
Cena Gensyn(AI)
$0.03228
$0.03228$0.03228
+14.06%
USD
Gensyn (AI) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z crypto.news@mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.

KAIO Global Debut

KAIO Global DebutKAIO Global Debut

Enjoy 0-fee KAIO trading and tap into the RWA boom