Logo aplikacji Claude firmy Anthropic pojawia się na ekranie smartfona w Reno, Stany Zjednoczone, 21 listopada 2024 r. (Zdjęcie: Jaque Silva/NurPhoto via Getty Images)
NurPhoto via Getty Images
Od pewnego czasu model biznesowy stosunkowo nielicznych cyberprzestępczych geniuszy, którzy tworzą zaawansowane złośliwe oprogramowanie, takie jak ransomware, polegał na oferowaniu swojego złośliwego oprogramowania i usług mniej zaawansowanym cyberprzestępcom w Dark Webie, czasami nawet dostarczając systemy dystrybucji w zamian za procent otrzymanego okupu. Jednak sztuczna inteligencja szybko zmieniła ten model, ponieważ nawet mniej zaawansowani przestępcy mogą wykorzystywać sztuczną inteligencję do przeprowadzania różnorodnych oszustw.
Narzędzia AI mogą zbierać ogromne ilości danych z mediów społecznościowych i publicznie dostępnych źródeł, umożliwiając cyberprzestępcom tworzenie specjalnie ukierunkowanych e-maili phishingowych, zwanych spear phishingiem, którym ofiary bardziej ufają, często wabione do udostępniania danych osobowych, co może prowadzić do kradzieży tożsamości lub dokonania płatności pod jakimś pretekstem.
Łatwo dostępna technologia deepfake i klonowania głosu umożliwiła cyberprzestępcom przeprowadzanie różnych oszustw, w tym oszustwa na dziadka lub oszustwa związanego z nagłym wypadkiem rodzinnym oraz oszustwa typu Business Email Compromise, które w przeszłości opierały się na taktykach socjotechnicznych realizowanych głównie przez e-maile, w których oszust podawał się za dyrektora firmy i przekonywał pracowników niższego szczebla do autoryzacji płatności zgodnie z poleceniem oszusta pod jakimś pretekstem. To oszustwo, które w dużej mierze rozpoczęło się w 2018 roku, spowodowało straty na całym świecie w wysokości ponad 55 miliardów dolarów między październikiem 2023 a grudniem 2023 roku, według FBI.
Teraz, wraz z pojawieniem się AI oraz wykorzystaniem technologii deepfake i klonowania głosu, oszuści podnieśli stawkę. W 2024 roku firma inżynieryjna Arup straciła 25 milionów dolarów na rzecz cyberprzestępców, którzy podszyli się pod dyrektora finansowego firmy w sfałszowanych rozmowach wideo i przekonali pracownika firmy do przelania pieniędzy.
Ale sytuacja nie jest tak zła, jak myślisz. Jest znacznie gorsza.
Anthropic, firma, która opracowała chatbota Claude, niedawno opublikowała raport, w którym szczegółowo opisano, jak jej chatbot był wykorzystywany do opracowywania i wdrażania zaawansowanych cyberprzestępstw. Raport opisywał ewolucję wykorzystania AI przez cyberprzestępców, którzy nie tylko używają AI jako narzędzia do tworzenia złośliwego oprogramowania, ale także jako aktywnego operatora cyberataku, co określili jako "Vibe-hacking". Raport podał przykład cyberprzestępcy z Wielkiej Brytanii, opisanego jako GTG-5004, który używał Claude'a do znajdowania firm podatnych na atak ransomware poprzez skanowanie tysięcy punktów końcowych VPN w celu znalezienia podatnych systemów, określenia, jak najlepiej przeniknąć do sieci firm, tworzenia złośliwego oprogramowania z możliwościami unikania wykrycia w celu kradzieży wrażliwych danych, dostarczania złośliwego oprogramowania, kradzieży danych i przeszukiwania danych w celu ustalenia, które dane mogłyby być najlepiej wykorzystane do szantażowania zhakowanej firmy, a nawet wykorzystywania psychologii do tworzenia e-maili z żądaniami okupu. Claude był również wykorzystywany do kradzieży dokumentów finansowych atakowanej firmy w celu ustalenia kwoty Bitcoina, która miała być żądana w zamian za niepublikowanie skradzionych materiałów.
W ciągu jednego miesiąca GTG-5004 użył Claude'a do zaatakowania 17 organizacji związanych z rządem, opieką zdrowotną, służbami ratunkowymi i instytucjami religijnymi, żądając od 75 000 do ponad 500 000 dolarów.
GTG-5004 zaczął następnie sprzedawać usługi ransomware na żądanie innym cyberprzestępcom w Dark Webie z różnymi poziomami pakietów, w tym możliwościami szyfrowania i metodami zaprojektowanymi, aby pomóc hakerom uniknąć wykrycia. Ważne jest, aby zauważyć, że raport wskazał, że w przeciwieństwie do przeszłości, kiedy technologicznie zaawansowani przestępcy sprzedawali lub wynajmowali w Dark Webie złośliwe oprogramowanie, które osobiście stworzyli, raport wskazał, że "Ten operator nie wydaje się zdolny do wdrażania algorytmów szyfrowania, technik antyanalitycznych lub manipulacji wewnętrznymi mechanizmami Windows bez pomocy Claude'a".
Rezultatem jest to, że pojedynczy cyberprzestępca może teraz robić to, co wcześniej wymagałoby całego zespołu wykwalifikowanego w kryptografii, wewnętrznych mechanizmach Windows i technikach unikania wykrycia, aby tworzyć ransomware i automatycznie podejmować zarówno strategiczne, jak i taktyczne decyzje dotyczące targetowania, eksploatacji i monetyzacji, a także dostosowywać się do napotkanych środków obronnych. Wszystko to obniża poprzeczkę dla przestępców dążących do popełniania cyberprzestępstw.
Raport szczegółowo opisał również, jak jego możliwości AI były nadużywane przez północnokoreańskich operatorów, którzy wykorzystywali je do uzyskiwania zdalnych prac w firmach technologicznych. Według raportu, "Tradycyjne operacje północnokoreańskich pracowników IT opierały się na wysoko wykwalifikowanych osobach rekrutowanych i szkolonych od młodego wieku w Korei Północnej. Nasze dochodzenie ujawnia fundamentalną zmianę: AI stała się głównym czynnikiem umożliwiającym operatorom o ograniczonych umiejętnościach technicznych skuteczne infiltrowanie i utrzymywanie stanowisk w zachodnich firmach technologicznych".
Raport opisał, jak korzystając z AI, koreańscy operatorzy, którzy nie potrafili samodzielnie pisać podstawowego kodu ani komunikować się w języku angielskim, są teraz w stanie z powodzeniem przechodzić rozmowy kwalifikacyjne i otrzymywać prace w firmach technologicznych, zarabiając setki milionów dolarów rocznie, które finansują północnokoreańskie programy zbrojeniowe. Co gorsza, dzięki AI każdy operator może utrzymywać wiele stanowisk pracy w amerykańskich firmach technologicznych, co byłoby niemożliwe bez wykorzystania AI.
Anthropic odpowiedział na zidentyfikowane zagrożenia, blokując konta związane z tymi operacjami i opracowując dostosowany klasyfikator do specyficznego identyfikowania tego typu działań oraz wprowadzając środki wykrywania do już istniejących systemów egzekwowania bezpieczeństwa. Dodatkowo Anthropic podzielił się swoimi ustaleniami z innymi firmami, a także ze społecznością bezpieczeństwa, aby pomóc im rozpoznawać i bronić się przed zagrożeniami stwarzanymi przez przestępców wykorzystujących platformy AI. Jednak zagrożenie związane z wykorzystaniem AI do cyberprzestępstw jest ogromne.
Raport Anthropic jest rzeczywiście sygnałem alarmowym dla całej branży AI.
Źródło: https://www.forbes.com/sites/steveweisman/2025/09/02/ai-is-making-cybercrime-easier-for-unsophisticated-criminals/


