Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Sophos: AI Deepfakes osiągnęło 62% firm w zeszłym roku

byAytun Çelebi
24 września 2025
in Research
Home Research
Share on FacebookShare on Twitter

Badanie liderów bezpieczeństwa cybernetycznego wykazuje, że 62 procent zgłosiło ataki AI wobec pracowników w ubiegłym roku. Incydenty te, obejmujące szybkie wtrysk i audio głębokie, spowodowały znaczne zakłócenia biznesowe, w tym straty własności finansowej i intelektualnej. Najczęstszym wektorem ataku były rozmowy Audio DeepFake skierowane do pracowników, a 44 procent firm zgłosiło co najmniej jeden incydent. Sześć procent tych zdarzeń doprowadziło do przerwania działalności, strat finansowych lub strat własności intelektualnej. Dane wskazują, że wdrożenie usługi przeglądania audio skorelowało ze zmniejszeniem tych wskaźników strat do dwóch procent. Incydenty dotyczące głębokich szaf wideo zostało zgłoszone przez 36 procent badanych organizacji. Wśród tych przypadków pięć procent zostało sklasyfikowanych jako spowodowane poważnym problemem dla firmy. Jest to trwałe, choć rzadziej zagrożenie w porównaniu z próbami podszywania się na dźwięk. Chester Wisniewski, Global Field Ciso w firmie ochroniarskiej Sophos, wyjaśnił, że DeepFake Audio staje się bardzo przekonujące i niedrogie. „Dzięki dźwiękowi możesz w tym momencie generować te połączenia w czasie rzeczywistym”, stwierdził, zauważając, że może oszukiwać współpracownika, z którym od czasu do czasu wchodzi w interakcje. Wisniewski uważa, że ​​liczby audio DeepFake mogą nie docenić problemu, i stwierdził, że dane wideo są wyższe niż oczekiwano, biorąc pod uwagę, że fałszywe wideo z konkretnej osoby może kosztować miliony dolarów. Sophos zaobserwował taktykę, w której oszust krótko korzysta z CEO lub CFO Video DeepFake na połączeniu WhatsApp przed ubieganiem się o problemy z łącznością, usuwanie kanału i przejście na tekst, aby kontynuować atak inżynierii społecznej. Ogólne podróbki wideo są również używane do ukrywania tożsamości, a nie kradzieży. Doniesiono, że Korea Północna zarabia miliony, ponieważ personel używa przekonującego AI Fakery do uzyskania zatrudnienia w zachodnich firmach. Kolejnym rosnącym zagrożeniem jest atak szybkiego wtrysku, w którym złośliwe instrukcje są wbudowane w treść przetwarzaną przez system AI. Może to nakłonić sztuczną inteligencję do ujawnienia poufnych informacji lub niewłaściwego wykorzystania narzędzi, potencjalnie prowadząc do wykonywania kodu, jeśli na to pozwalają na to integracje. Według ankiety Gartnera 32 procent respondentów zgłosiło takie ataki na ich wnioski. Ostatnie przykłady ilustrują te luki. Naukowcy wykazali, że chatbot Google jest używany do ukierunkowania e-maili i systemów inteligentnych domów użytkownika. Model języka Claude’a Claude’a w Anthropiku również miał problemy z szybkim wstrzyknięciem. W innych badaniach Chatgpt został pomyślnie oszukany w rozwiązywaniu Captchas, które zostały zaprojektowane w celu odróżnienia użytkowników ludzi i maszyn oraz do generowania ruchu, które można wykorzystać do ataków w stylu odmowy usług na strony internetowe.


Polecane wizerunki

Tags: BadaniaDeepFakeWyróżniony

Related Posts

Naukowcy odkrywają ponad 17 000 nowych gatunków

Naukowcy odkrywają ponad 17 000 nowych gatunków

26 grudnia 2025
GPT-5.2 przewyższa poziom bazowy doktoratu eksperta z 92% wynikiem naukowym

GPT-5.2 przewyższa poziom bazowy doktoratu eksperta z 92% wynikiem naukowym

24 grudnia 2025
Dlaczego DIG AI jest najniebezpieczniejszą złośliwą sztuczną inteligencją w 2025 roku

Dlaczego DIG AI jest najniebezpieczniejszą złośliwą sztuczną inteligencją w 2025 roku

23 grudnia 2025
Baterie sodowo-jonowe zbliżają się do szybkiego ładowania, gdy badacze rozwiązują wąskie gardła jonowe

Baterie sodowo-jonowe zbliżają się do szybkiego ładowania, gdy badacze rozwiązują wąskie gardła jonowe

19 grudnia 2025
Złapanie ducha o wartości 2 bilionów dolarów: sztuczna inteligencja zmienia zasady przestępstw finansowych

Złapanie ducha o wartości 2 bilionów dolarów: sztuczna inteligencja zmienia zasady przestępstw finansowych

15 grudnia 2025
LLM wykazują wyraźne uprzedzenia kulturowe w podpowiedziach angielskich i chińskich

LLM wykazują wyraźne uprzedzenia kulturowe w podpowiedziach angielskich i chińskich

15 grudnia 2025

Recent Posts

  • Qwen Code v0.5.0 firmy Alibaba przekształca terminal w pełny ekosystem deweloperski
  • Bethesda planuje 600-godzinną rozgrywkę w Falloucie 5
  • ASUS broni źle ustawionego portu zasilania HyperX w RTX 5090 jako "zamierzony projekt"
  • NVIDIA udostępnia open source CUDA Tile IR w serwisie GitHub
  • Dyrektor generalny MicroStrategy mówi o podstawach Bitcoina "nie mogło być lepiej"

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.