Microsoft ujawnił lukę w prywatności, Wyciek szeptuumożliwiając monitorowanie połączeń internetowych w celu wnioskowania o tematach rozmów chatbota AI, pomimo szyfrowania, wpływającego na prywatność użytkowników. Luka wykorzystuje schemat przepływu danych między użytkownikami a usługami AI. Choć rzeczywista treść pozostaje zaszyfrowana, rytm i rozmiar pakietów danych dostarczają wystarczających informacji, aby móc zgadnąć tematy rozmów. Proces ten jest analogiczny do dostrzegania aktywności przez zamarznięte okno poprzez obserwację wzorców ruchu. Whisper Leak analizuje zarówno rozmiar, jak i czas zaszyfrowanych pakietów danych, aby wywnioskować tematy dyskusji. Badania przeprowadzone przez ekspertów ds. bezpieczeństwa firmy Microsoft, Jonathana Bara Ora i Geoffa McDonalda oraz zespół ds. badań nad bezpieczeństwem Microsoft Defender, wskazują, że ta luka wynika z chatbotów AI wyświetlających odpowiedzi słowo po słowie. Ta funkcja przesyłania strumieniowego, zaprojektowana z myślą o naturalnym toku rozmów, nieumyślnie stwarza ryzyko prywatności. Atak polega na badaniu rozmiaru i czasu pakietu danych. Z tej techniki mogą korzystać podmioty zdolne do monitorowania ruchu internetowego, w tym agencje rządowe na poziomie dostawcy usług internetowych, hakerzy sieci lokalnych lub osoby korzystające ze wspólnych sieci Wi-Fi. Nie muszą odszyfrowywać treści konwersacji. Aby zademonstrować lukę, badacze firmy Microsoft przeszkolili programy komputerowe przy użyciu sztucznej inteligencji w celu rozpoznawania wzorców konwersacji. Programy te przetestowały chatboty AI firm Mistral, xAI, DeepSeek i OpenAI, poprawnie identyfikując określone tematy rozmów z ponad 98% dokładności. Skuteczność Whisper Leak wzrasta wraz z długotrwałym stosowaniem. W miarę jak osoba atakująca zbiera więcej przykładów rozmów na dany temat, oprogramowanie wykrywające staje się coraz lepsze. Monitorowanie wielu rozmów prowadzonych przez jedną osobę dodatkowo zwiększa dokładność. Microsoft stwierdził, że przeciwnicy będący pacjentami posiadający wystarczające zasoby mogą osiągnąć wskaźnik sukcesu wyższy niż początkowe 98%. Główni dostawcy sztucznej inteligencji zajmują się tym problemem. Po raporcie Microsoftu OpenAI, Microsoft i Mistral wdrożyły rozwiązanie: dodając do odpowiedzi losowy bełkot o różnej długości. To wypełnienie zakłóca wzorce, na których polegają atakujący, neutralizując atak. Ten środek zaradczy można porównać do dodania losowych zakłóceń do sygnału radiowego. Przekaz pozostaje czytelny dla odbiorcy, jednak analiza sposobu transmisji staje się utrudniona ze względu na wprowadzany szum. Użytkownikom zaniepokojonym prywatnością chatbota AI Microsoft zaleca kilka środków ostrożności:
- Unikaj poruszania drażliwych tematów w publicznych lub niezaufanych sieciach Wi-Fi.
- Korzystaj z wirtualnej sieci prywatnej (VPN)który szyfruje ruch przez tunel.
- Sprawdź, czy Twoja usługa AI ma zabezpieczenia przeciwko Whisper Leak; OpenAI, Microsoft i Mistral wdrożyły poprawki.
- Rozważ alternatywy dla pomocy AI w niezwykle delikatnych sprawach lub odłożyć dyskusję do czasu udostępnienia bezpieczniejszej sieci.





