Dataconomy PL
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy PL
Social icon element need JNews Essential plugin to be activated.
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Raporty konsumenckie: Narzędzia do klonowania głosu AI nie mają prawie żadnych kontroli bezpieczeństwa

byKerem Gülen
11 marca 2025
in Artificial Intelligence, Cybersecurity, News
Home Artificial Intelligence

Raporty konsumenckie ujawniają, że kilka popularnych narzędzi do klonowania głosu nie ma odpowiednich zabezpieczeń przed oszustwami lub nadużyciami, podkreślając potencjalne ryzyko związane z technologią głosu AI. Badanie zbadało produkty z sześciu firm: Descript, Elevenlabs, Lovo, Playht, przypominanie AI i Speechify.

Dochodzenie wykazało, że tylko opis i przypomina AI wdrożyły znaczące środki zapobiegające niewłaściwemu użyciu. Inne narzędzia wymagają jedynie użytkowników potwierdzenia, że ​​mają prawo do klonowania głosu, często poprzez samobójstwo. Grace Gedye, analityk ds. Polityki Raporty konsumenckieostrzegł, że bez odpowiednich mechanizmów bezpieczeństwa, narzędzia do klonowania głosu AI mogą „wyposażyć” oszustwa.

Technologia klonowania głosowego AI znacznie się rozwinęła, zdolna do naśladowania mowy danej osoby z minimalnymi próbkami audio. W zeszłym roku godne uwagi incydent miał miejsce podczas demokratycznych podstawowych, w którym Robocalls z fałszywym Joe Biden wprowadził w błąd wyborców. Spowodowało to grzywnę w wysokości 6 milionów dolarów dla konsultanta politycznego stojącego za programem, a następnie Federalna Komisja Komunikacji zakazała Robocallów generowanych przez AI.

Analiza sześciu narzędzi do klonowania głosu AI wykazała, że ​​pięć ma omijane zabezpieczenia, co ułatwia klonowanie głosów bez zgody. Oprogramowanie do wykrywania audio DeepFake często stara się rozróżnić prawdziwe i syntetyczne głosy, komplikując ten problem. Generatywna sztuczna inteligencja, która naśladuje ludzkie cechy, takie jak głos, ma ograniczone regulacje federalne, z większością praktyk etycznych napędzanych przez same firmy. Nakaz wykonawczy podpisany przez prezydenta Biden w 2023 r. Obejmował żądania bezpieczeństwa AI, ale późniejsze odwołanie przez byłego prezydenta Trumpa zdemontowało te przepisy.


Głos AI Sesame’a jest tak prawdziwy, że to niepokojące


Technologia klonowania głosu wykorzystuje próbki audio od osób do tworzenia syntetycznych głosów. Bez zabezpieczeń każdy może przesyłać dźwięk z różnych platform, takich jak Tiktok lub YouTube, i mieć powtórzenie tego głosu. Cztery badane usługi – Elevenlabs, Speechify, Playht i Lovo – po prostu wymagają od użytkowników zaznaczenia pola potwierdzającego autoryzację klonu głosowego. Przypomina AI, jednocześnie nalegając na nagrywanie audio w czasie rzeczywistym, zostało obejrzane przez raporty konsumenckie, które odtwarzały nagrany dźwięk podczas weryfikacji.

Tylko opis oferował nieco skuteczny zabezpieczenie, wymagające od użytkowników rejestrowania konkretnej deklaracji zgody. Ta metoda jest trudna do sfałszowania, z wyjątkiem korzystania z innej usługi do klonowania głosu. Wszystkie sześć usług jest publicznie dostępnych na ich odpowiednich stronach internetowych, z jedenastu lat i przypominają opłaty za ładowanie AI odpowiednio w wysokości 5 USD i 1 USD za tworzenie niestandardowych klonów głosowych, podczas gdy inne mogą korzystać. Niektóre firmy potwierdziły potencjał nadużyć i zgłosiły, że wdrożyły silniejsze zabezpieczenia, aby zapobiec tworzeniu głębokiego i podszywania się pod głosem.

Istnieją uzasadnione aplikacje do klonowania głosu AI, takie jak pomoc osobom niepełnosprawnym i zapewnianie tłumaczeń audio. Jednak ryzyko pozostaje znaczące. Sarah Myers West, dyrektor wykonawczy Instytutu AI NOW, zauważyła, że ​​technologia ta może ułatwić oszustwo, oszustwa i dezinformację, w tym podszywanie się pod wpływowych postaci.

Badania nad rozpowszechnieniem AI w oszustwach audio są ograniczone. Federalna Komisja Handlu ma wskazany Że sztuczna inteligencja może być zatrudniona w „oszustwach dziadków”, gdzie przestępcy podszywają się pod członków rodziny w niebezpieczeństwie. Ponadto niektórzy muzycy stanęli przed wyzwaniami, ponieważ sklonowane głosy są wykorzystywane do nieautoryzowanej produkcji muzycznej, jak przykładem wirusowej piosenki 2023 fałszywie przypisywanej Drake’owi i The Weeknd.


Wyróżniony obraz obrazu: Bruno Cervera/Unsplash

Tags: Aigłos

Recent Posts

  • Soundcloud CEO przyznaje, że warunki AI nie były wystarczająco jasne, wydaje nowe zastaw
  • Gotowy na chatgpt, który naprawdę cię zna?
  • Narzędzia badawcze AI mogą powodować więcej problemów niż rozwiązują
  • Czy twój bardzo pomocny partner generatywny AI potajemnie sprawia, że ​​twoja praca jest nudna?
  • Adele Microsoft chce nadać twojej sztucznej inteligencji profilu poznawczego

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

Follow Us

Social icon element need JNews Essential plugin to be activated.
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.