Raporty konsumenckie ujawniają, że kilka popularnych narzędzi do klonowania głosu nie ma odpowiednich zabezpieczeń przed oszustwami lub nadużyciami, podkreślając potencjalne ryzyko związane z technologią głosu AI. Badanie zbadało produkty z sześciu firm: Descript, Elevenlabs, Lovo, Playht, przypominanie AI i Speechify.
Dochodzenie wykazało, że tylko opis i przypomina AI wdrożyły znaczące środki zapobiegające niewłaściwemu użyciu. Inne narzędzia wymagają jedynie użytkowników potwierdzenia, że mają prawo do klonowania głosu, często poprzez samobójstwo. Grace Gedye, analityk ds. Polityki Raporty konsumenckieostrzegł, że bez odpowiednich mechanizmów bezpieczeństwa, narzędzia do klonowania głosu AI mogą „wyposażyć” oszustwa.
Technologia klonowania głosowego AI znacznie się rozwinęła, zdolna do naśladowania mowy danej osoby z minimalnymi próbkami audio. W zeszłym roku godne uwagi incydent miał miejsce podczas demokratycznych podstawowych, w którym Robocalls z fałszywym Joe Biden wprowadził w błąd wyborców. Spowodowało to grzywnę w wysokości 6 milionów dolarów dla konsultanta politycznego stojącego za programem, a następnie Federalna Komisja Komunikacji zakazała Robocallów generowanych przez AI.
Analiza sześciu narzędzi do klonowania głosu AI wykazała, że pięć ma omijane zabezpieczenia, co ułatwia klonowanie głosów bez zgody. Oprogramowanie do wykrywania audio DeepFake często stara się rozróżnić prawdziwe i syntetyczne głosy, komplikując ten problem. Generatywna sztuczna inteligencja, która naśladuje ludzkie cechy, takie jak głos, ma ograniczone regulacje federalne, z większością praktyk etycznych napędzanych przez same firmy. Nakaz wykonawczy podpisany przez prezydenta Biden w 2023 r. Obejmował żądania bezpieczeństwa AI, ale późniejsze odwołanie przez byłego prezydenta Trumpa zdemontowało te przepisy.
Głos AI Sesame’a jest tak prawdziwy, że to niepokojące
Technologia klonowania głosu wykorzystuje próbki audio od osób do tworzenia syntetycznych głosów. Bez zabezpieczeń każdy może przesyłać dźwięk z różnych platform, takich jak Tiktok lub YouTube, i mieć powtórzenie tego głosu. Cztery badane usługi – Elevenlabs, Speechify, Playht i Lovo – po prostu wymagają od użytkowników zaznaczenia pola potwierdzającego autoryzację klonu głosowego. Przypomina AI, jednocześnie nalegając na nagrywanie audio w czasie rzeczywistym, zostało obejrzane przez raporty konsumenckie, które odtwarzały nagrany dźwięk podczas weryfikacji.
Tylko opis oferował nieco skuteczny zabezpieczenie, wymagające od użytkowników rejestrowania konkretnej deklaracji zgody. Ta metoda jest trudna do sfałszowania, z wyjątkiem korzystania z innej usługi do klonowania głosu. Wszystkie sześć usług jest publicznie dostępnych na ich odpowiednich stronach internetowych, z jedenastu lat i przypominają opłaty za ładowanie AI odpowiednio w wysokości 5 USD i 1 USD za tworzenie niestandardowych klonów głosowych, podczas gdy inne mogą korzystać. Niektóre firmy potwierdziły potencjał nadużyć i zgłosiły, że wdrożyły silniejsze zabezpieczenia, aby zapobiec tworzeniu głębokiego i podszywania się pod głosem.
Istnieją uzasadnione aplikacje do klonowania głosu AI, takie jak pomoc osobom niepełnosprawnym i zapewnianie tłumaczeń audio. Jednak ryzyko pozostaje znaczące. Sarah Myers West, dyrektor wykonawczy Instytutu AI NOW, zauważyła, że technologia ta może ułatwić oszustwo, oszustwa i dezinformację, w tym podszywanie się pod wpływowych postaci.
Badania nad rozpowszechnieniem AI w oszustwach audio są ograniczone. Federalna Komisja Handlu ma wskazany Że sztuczna inteligencja może być zatrudniona w „oszustwach dziadków”, gdzie przestępcy podszywają się pod członków rodziny w niebezpieczeństwie. Ponadto niektórzy muzycy stanęli przed wyzwaniami, ponieważ sklonowane głosy są wykorzystywane do nieautoryzowanej produkcji muzycznej, jak przykładem wirusowej piosenki 2023 fałszywie przypisywanej Drake’owi i The Weeknd.
Wyróżniony obraz obrazu: Bruno Cervera/Unsplash