Badanie liderów bezpieczeństwa cybernetycznego wykazuje, że 62 procent zgłosiło ataki AI wobec pracowników w ubiegłym roku. Incydenty te, obejmujące szybkie wtrysk i audio głębokie, spowodowały znaczne zakłócenia biznesowe, w tym straty własności finansowej i intelektualnej. Najczęstszym wektorem ataku były rozmowy Audio DeepFake skierowane do pracowników, a 44 procent firm zgłosiło co najmniej jeden incydent. Sześć procent tych zdarzeń doprowadziło do przerwania działalności, strat finansowych lub strat własności intelektualnej. Dane wskazują, że wdrożenie usługi przeglądania audio skorelowało ze zmniejszeniem tych wskaźników strat do dwóch procent. Incydenty dotyczące głębokich szaf wideo zostało zgłoszone przez 36 procent badanych organizacji. Wśród tych przypadków pięć procent zostało sklasyfikowanych jako spowodowane poważnym problemem dla firmy. Jest to trwałe, choć rzadziej zagrożenie w porównaniu z próbami podszywania się na dźwięk. Chester Wisniewski, Global Field Ciso w firmie ochroniarskiej Sophos, wyjaśnił, że DeepFake Audio staje się bardzo przekonujące i niedrogie. „Dzięki dźwiękowi możesz w tym momencie generować te połączenia w czasie rzeczywistym”, stwierdził, zauważając, że może oszukiwać współpracownika, z którym od czasu do czasu wchodzi w interakcje. Wisniewski uważa, że liczby audio DeepFake mogą nie docenić problemu, i stwierdził, że dane wideo są wyższe niż oczekiwano, biorąc pod uwagę, że fałszywe wideo z konkretnej osoby może kosztować miliony dolarów. Sophos zaobserwował taktykę, w której oszust krótko korzysta z CEO lub CFO Video DeepFake na połączeniu WhatsApp przed ubieganiem się o problemy z łącznością, usuwanie kanału i przejście na tekst, aby kontynuować atak inżynierii społecznej. Ogólne podróbki wideo są również używane do ukrywania tożsamości, a nie kradzieży. Doniesiono, że Korea Północna zarabia miliony, ponieważ personel używa przekonującego AI Fakery do uzyskania zatrudnienia w zachodnich firmach. Kolejnym rosnącym zagrożeniem jest atak szybkiego wtrysku, w którym złośliwe instrukcje są wbudowane w treść przetwarzaną przez system AI. Może to nakłonić sztuczną inteligencję do ujawnienia poufnych informacji lub niewłaściwego wykorzystania narzędzi, potencjalnie prowadząc do wykonywania kodu, jeśli na to pozwalają na to integracje. Według ankiety Gartnera 32 procent respondentów zgłosiło takie ataki na ich wnioski. Ostatnie przykłady ilustrują te luki. Naukowcy wykazali, że chatbot Google jest używany do ukierunkowania e-maili i systemów inteligentnych domów użytkownika. Model języka Claude’a Claude’a w Anthropiku również miał problemy z szybkim wstrzyknięciem. W innych badaniach Chatgpt został pomyślnie oszukany w rozwiązywaniu Captchas, które zostały zaprojektowane w celu odróżnienia użytkowników ludzi i maszyn oraz do generowania ruchu, które można wykorzystać do ataków w stylu odmowy usług na strony internetowe.





