Alarmujący raport z Kela Research and Strategy Ltd. Dokumentuje dziś 200% wzmianek o złośliwych narzędziach sztucznej inteligencji na forach cyberprzestępczości do 2024 r., Ilustrując, jak szybko cyberprzestępcy przyjmują narzędzia i taktykę AI. Odkrycia zostały przedstawione w raporcie zagrożenia AI w 2025 r.: Jak cyberprzestępcy są uzbrojeni w technologii AI.
Raport opiera się na danych z platformy gromadzenia inteligencji Kela, która analizuje aktywność cyberprzestępczości na ciemnych forach internetowych, kanałach telegramowych i poprzez śledzenie zachowania aktorów zagrożenia.
Oprócz wzrostu wzmianek o złośliwych narzędziach AI, raport odnotowuje o 52% wzrost dyskusji na temat jailbreaków AI w ciągu ostatniego roku. Podobne podmioty cyberprzestępczości stale udoskonalają techniki jailbracyjne AI, aby ominąć ograniczenia bezpieczeństwa w publicznych systemach AI.
Aktorzy zagrożeń proaktywnie dystrybuują i zarabiają na tym, co Kela definiuje jako „Dark AI Tools”, obejmującą modele jailbreake i wyspecjalizowane złośliwe zastosowania, takie jak Wormgpt i oszustwo. Narzędzia te zostały zaprojektowane do wykonywania działań cyberprzestępczości, takich jak phishing, tworzenie złośliwego oprogramowania i oszustwa finansowe – które narzędzia są zwykle przeprowadzane na dużą skalę.
Systemy AI zostały zaprojektowane w celu usunięcia ograniczeń bezpieczeństwa i dodawania niestandardowych funkcji, obniżając barierę dla niedoświadczonych atakujących do wykonania wyrafinowanych ataków na dużą skalę.
W dziedzinie phishing eksperci zauważają, że aktorzy zagrożeń wykorzystują generatywne sztuczne inteligencje do tworzenia silnej treści inżynierii społecznej, zwiększając takie programy dzięki głębokim audio i wideo. Poprawia to zdolność cyberprzestępców do podszywania się pod kierownictwem i wprowadzać w błąd pracowników do zatwierdzania nieuczciwych transakcji.
Kela zauważyła również, że sztuczna inteligencja przyspieszyła rozwój złośliwego oprogramowania, umożliwiając tworzenie wysoce wymijających oprogramowania ransomware i infostealerów. Ten rozwój stanowi trudności z tradycyjnymi metodami wykrywania i reakcji.
„Jesteśmy świadkami zmiany sejsmicznej w krajobrazie cyberprzestępczości” – powiedział Yael Kishon, kierownik ds. Produktów i badań AI w Kela. „Cyberprzestępcy nie tylko używają sztucznej inteligencji-budują całe sekcje w podziemnym ekosystemie poświęconym cyberprzestępczościom napędzanym AI”. Podkreśliła, że „organizacje muszą przyjąć obronę opartą na AI w celu zwalczania tego rosnącego zagrożenia”. Aby wyprzedzić eskalację cyberprzestępstw związanych z AI, Kela doradza inwestowanie w szkolenie pracowników.
Hakerzy mają teraz zestaw narzędzi do naruszeń konta masowego: nazywa się Atlantis Aio
Kela zaleca monitorowanie pojawiających się zagrożeń i taktyk AI oraz wdrażanie środków bezpieczeństwa zasilanych przez sztuczną inteligencję, takie jak zautomatyzowane zespoły zespołowe oparte na wywiadu i emulacje przeciwne do generatywnych modeli AI.
Niniejszy raport wyjaśnia, że wyścig zbrojeń między innowatorami cyberprzestępczości a ekspertami ds. Bezpieczeństwa nakazuje dopracowane i proaktywne zaangażowanie. Jeśli organizacje muszą zastosować generatywną sztuczną inteligencję do przeciwdziałania generatywnej sztucznej inteligencji w phishing, niech tak będzie, ale niepokojące jest to, jak przegrane konwencjonalne metody będą być, jeśli złe aktorzy pozostaną niezaznaczeni.
Niepokojący skok w rozmowie internetowej skoncentrowanej na sztucznej inteligencji pokazuje, że cyberprzestępcy nie tylko przyjmują sztuczną inteligencję, ale doskonali metody hakowania AI. Jest to jeszcze gorsze niż uzbrojenie kodu zewnętrznego, ponieważ teraz wrogowie skutecznie instalacji bezpieczeństwa. To długa gra, ale cyberprzestępcy wykorzystują obecnie otwarty cel i wymagają teraz działania.
Wzrost liczby cytowanych metod jailbreak znacznie przeważa nad kontrastentami.
Wspomagane przez ukierunkowane narzędzia prezentujące wyrafinowane zastosowania w obszarach takich jak DeepFake Technology i Maderware Development, cyberprzestępcy dodają kolejnej warstwy złożoności dla organów ścigania i firm bezpieczeństwa.
Ostrzeżenia Keli nie można zignorować znacznie dłużej, gdy programiści, niezależnie od tego, czy są dobrzy, czy źli, koncentrują się na tworzeniu zestawów narzędzi do wykorzystania oprogramowania AI i rozwiązywania poważnych problemów z cyberbezpieczeństwem. Na razie podziemny ekosystem koncentrował się na wzrostu cyberprzestępczości napędzanej AI.
Pomimo faktu, że więcej z tych taktyk opiera się na inżynierii społecznej, pracownicy – którzy są znane jako najsłabsze łącze bezpieczeństwa cybernetycznego – nadal nie inwestują w narzędzia AI tak często, jak powinny. Problem ten zostanie zintensyfikowany, gdy kierownictwo firmy będą musieli uzyskać dostęp do takich mechanizmów.