W poniedziałek biuro prokuratora generalnego stanu New Hampshire rozpoczęło dochodzenie w sprawie incydentów związanych z fałszywymi rozmowami telefonicznymi do Bidena, które podobno wykorzystywały zaawansowaną sztuczną inteligencję do odtworzenia głosu prezydenta Joe Bidena.
Wezwania te miały na celu odwieść wyborców w New Hampshire od udziału we wtorkowych prawyborach. Prokurator generalny John Formella określił wiadomość wysłaną w niedzielę do kilku wyborców jako prawdopodobnie nielegalną próbę utrudnienia i stłumienia frekwencji wyborczej. Radził wyborcom, aby „całkowicie zlekceważyli treść tego przesłania”.
Co mówią fałszywe telefony Bidena?
Według Stowarzyszenie prasy artykule w jednym z nagrań powtórzono głos Bidena, w tym jego charakterystyczne zdanie: „Co za banda malarkeyów”. Komunikat sugeruje wyborcom, aby „zachowali swój głos na listopadowe wybory”.
Zawiera fałszywe twierdzenie: „Głosowanie we wtorek umożliwi Republikanom jedynie ponowne wybranie Donalda Trumpa. Twój głos będzie miał znaczenie w listopadzie, a nie w ten wtorek.
Co ważne, udział we wtorkowych prawyborach nie ogranicza wyborcy możliwości głosowania w listopadowych wyborach powszechnych. Chociaż Biden nie prowadzi aktywnej kampanii w New Hampshire, a jego nazwisko nie znajduje się na karcie do głosowania w prawyborach Partii Demokratycznej – po przyznaniu priorytetu Południowej Karolinie w prawyborach Demokratów – jego zwolennicy organizują dla niego kampanię rekrutacyjną w tym stanie.
Pochodzenie tych rozmów, które fałszywie wyglądało na to, że pochodziły z osobistego telefonu komórkowego Kathy Sullivan, byłej przewodniczącej stanowej Partii Demokratycznej i organizatorki Granite for America (super-PAC wspierającej kampanię pisemną Bidena), pozostaje nieznane. Po otrzymaniu raportów o tych telefonach w niedzielę wieczorem Sullivan natychmiast poinformował władze i złożył skargę do prokuratora generalnego.

„To połączenie łączy się z moim osobistym numerem telefonu komórkowego bez mojej zgody. Jest to jawna ingerencja w wybory i wyraźna próba nękania mnie i innych wyborców z New Hampshire, którzy we wtorek planują napisać do Joe Bidena” – stwierdziła.
Zakres incydentu związanego z fałszywymi telefonami Bidena pozostaje niepewny, ale rzecznik Sullivana wspomniał, że przesłuchał co najmniej kilkanaście osób, które odebrały telefon. W odpowiedzi biuro prokuratora generalnego stanu New Hampshire nalega, aby odbiorcy niniejszego wezwania skontaktowali się za pośrednictwem poczty elektronicznej z jednostką ds. prawa wyborczego Departamentu Sprawiedliwości stanu.
Gail Huntley, 73-letnia Demokratka z Hancock w stanie New Hampshire, zamierza pisać w imieniu Bidena w nadchodzących wtorkowych wyborach. Zeznała, że otrzymała telefon w niedzielę około godziny 18:25. Choć Huntley początkowo myślała, że to głos Bidena, szybko dostrzegła zwodniczy charakter tej rozmowy, ponieważ jej treść wydawała się niestosowna. Początkowo założyła, że jego wypowiedzi zostały wyrwane z kontekstu.
„Wtedy nie myślałem o tym, że to nie był jego prawdziwy głos. To było takie przekonujące” – zauważył Huntley. Wyraziła zarówno szok, jak i brak zaskoczenia w związku z rozprzestrzenianiem się w jej stanie podróbek generowanych przez sztuczną inteligencję.

Sekretarz prasowa Białego Domu Karine Jean-Pierre potwierdziła w poniedziałek, że rozmowa „była rzeczywiście fałszywa i nie została nagrana przez prezydenta”. Ponadto menadżerka kampanii Bidena, Julie Chavez Rodriguez, oświadczyła w oświadczeniu, że w ramach kampanii „aktywnie omawiamy dodatkowe działania, które należy natychmiast podjąć”.
Julie Chavez Rodriguez, menadżerka kampanii Bidena, mocno podkreśliła stanowisko kampanii przeciwko ingerencji w wybory: „Rozpowszechnianie dezinformacji w celu stłumienia głosowania i celowego podważania wolnych i uczciwych wyborów nie będzie miało sensu, a walka z wszelkimi próbami podważenia naszej demokracji będzie nadal głównym zadaniem priorytetem tej kampanii” – potwierdziła.
Niedawny incydent związany z wykorzystaniem zaawansowanej technologii generatywnej sztucznej inteligencji do tłumienia głosów wyborców w New Hampshire sygnalizuje niepokojącą tendencję. Eksperci alarmują, że w 2024 r. może nastąpić bezprecedensowy wzrost dezinformacji związanej z wyborami na całym świecie, napędzanej taką technologią.
Problem z deepfake’ami
W reklamach kampanii prezydenckich w 2024 r. pojawiły się już generatywne fałszywe fałszywe informacje dotyczące sztucznej inteligencji. W zeszłym roku technologię tę wykorzystywano także do rozpowszechniania dezinformacji podczas różnych wyborów na całym świecie, co miało wpływ na takie kraje jak Słowacja, Indonezja i Tajwan. Deepfake Biden nie jest pierwszym przypadkiem niewłaściwego wykorzystania tej technologii.
Hany Farid, znany ekspert ds. kryminalistyki cyfrowej na Uniwersytecie Kalifornijskim w Berkeley, który przeanalizował nagranie rozmowy, potwierdził jego sztuczny charakter, określając je jako deepfake niskiej jakości. Farid wyraził zaniepokojenie potencjalnym uzbrojeniem generatywnej sztucznej inteligencji w nadchodzących wyborach, postrzegając ten incydent jako prekursor przyszłych wyzwań.

Jak działają generatory głosu AI?
Generatory głosu AIlub systemy zamiany tekstu na mowę (TTS) stanowią podstawę technologii w tworzeniu realistycznych, syntetycznych głosów, takich jak te używane w fałszywych rozmowach Bidena. Systemy te wykorzystują algorytmy sztucznej inteligencji do konwersji tekstu pisanego na słowa mówione. Wykorzystując zaawansowane modele głębokiego uczenia się i techniki przetwarzania języka naturalnego, są w stanie generować głosy podobne do ludzkich, o różnych tonach, akcentach i odmianach emocjonalnych. Zaawansowanie generatorów głosu AI osiągnęło punkt, w którym mogą wytwarzać wysoce realistyczną i ekspresyjną mowę, co utrudnia odróżnienie od prawdziwych ludzkich głosów.
W kontekście deepfakes kluczową rolę odegrały generatory głosu AI. Jest to widoczne w scenariuszach takich jak fałszywe rozmowy telefoniczne Bidena, w których algorytmy sztucznej inteligencji zostały wykorzystane do naśladowania głosu osób publicznych, takich jak prezydent Joe Biden. W razie Narzędzia do generowania głosu gwiazd AIJak na przykład Słabe Turbo, jest przykładem znaczących postępów poczynionych w tej dziedzinie. Narzędzia te nie tylko ułatwiają rozmowy telefoniczne oparte na sztucznej inteligencji, ale także przyczyniają się do ewoluującego krajobrazu mediów głosowych. Dla tych, którzy chcą poznać tę innowacyjną technologię, przygotowaliśmy ankietę nt najlepsze narzędzia AI do przetwarzania głosu na wideo dostępne mogą zapewnić dalszy wgląd w jego potencjalne zastosowania.
Autor wyróżnionego obrazu: Biały Dom