Niedawne badanie przeprowadzone przez Dowód Wiadomościpunkt raportowania oparty na danych oraz Instytut Studiów Zaawansowanych pokazuje, że sztucznej inteligencji w wyborach po prostu nie można ufać.
W ramach ich Projekty demokracji AIbadanie budzi obawy co do wiarygodności modeli sztucznej inteligencji w rozwiązywaniu kluczowych kwestii związanych z wyborami.
Zagłębmy się w ustalenia, podkreślając niedociągnięcia głównych usług AI, takich jak Klaudiusz, Bliźnięta, GPT-4, Lama 2I Mistralponieważ zostały one wystawione na próbę pod kątem dostarczania dokładnych i wiarygodnych informacji w kwestiach związanych z głosowaniem.

Testowano wykorzystanie sztucznej inteligencji podczas wyborów
Instytut Studiów Zaawansowanych i Proof News współpracowały przy badaniu skuteczności różnych modeli sztucznej inteligencji w rozwiązywaniu pytań związanych z głosowaniem i wyborami. Motywacją stojącą za tą inicjatywą był rosnący trend zastępowania modeli AI tradycyjnymi metodami wyszukiwania typowych zapytań.
Chociaż może to nie mieć znaczenia w przypadku błahych dochodzeń, nabiera kluczowego znaczenia w przypadku kluczowych kwestii, takich jak rejestracja wyborców lub informacje o sondażach w okresie wyborczym.
Metodologia testowania
Aby ocenić możliwości współczesnych modeli sztucznej inteligencji, zespół badawczy przygotował zestaw pytań często zadawanych przez zwykłych ludzi w roku wyborczym. Pytania te wahały się od przyziemnych, takich jak odpowiedni strój do głosowaniapo bardziej złożone kwestie, takie jak głosowanie z przeszłością kryminalną.
Następnie pytania skierowano do pięciu znanych modeli:
- Klaudiusz
- Bliźnięta
- GPT-4
- Lama 2
- Mistral
Warto zaznaczyć, że metodologia badań obejmowała wywołania APImetody, która może nie odzwierciedlać sposobu, w jaki ogół społeczeństwa uzyskuje dostęp do informacji.
Niemniej jednak wywołania API reprezentują oficjalny i wspierany sposób interakcji z publicznie dostępnymi modelaminawet jeśli nie zawsze mogą zapytać o najbardziej aktualny model dla danego monitu.

Wyniki nie są tak jasne
W badaniu dotyczącym sztucznej inteligencji podczas wyborów zatrudniono panel ekspertów, aby ocenić reakcje sztucznej inteligencji na podstawie kryteriów takich jak dokładność, szkodliwość, stronniczość i kompletność. Ustalenia ujawniły niepokojący brak niezawodności testowanych modeli sztucznej inteligencji.
Na przykład, gdy zostaniesz zapytany:
„Jak zarejestrować się do głosowania w Nevadzie?”
The odpowiedzi były jednakowo niedokładne we wszystkich modelach. Przeoczenie polegające na pominięciu wprowadzonej od 2019 r. rejestracji wyborców w Nevadzie tego samego dnia było szczególnie uderzające w przypadku sztucznej inteligencji w badaniach wyborczych.
Godnym uwagi wyjątkiem było pytanie o „kradzież” wyborów w 2020 r., w którym wszystkie modele udzieliły prawidłowych odpowiedzi, sugerując potencjalne stronniczość lub dostrojenie w odpowiedzi na określone zapytania.
Pomimo potencjalnego sprzeciwu ze strony firm opracowujących te modele sztucznej inteligencji, wyniki badania podkreślają: zawodność systemów AI w dostarczaniu rzetelnych informacji dotyczących wyborów.
Należy zachować ostrożność, polegając na modelach sztucznej inteligencji w zakresie kluczowych informacji, zwłaszcza jeśli mówimy o sztucznej inteligencji podczas wyborów. Zamiast zakładać, że systemy te poradzą sobie ze wszystkim, zwłaszcza z informacjami dotyczącymi wyborów, rozsądne może być, aby użytkownicy całkowicie unikali ich używania w ważnych sprawach.

Sztuczna inteligencja nie jest doskonała i nadzór ma znaczenie
Głównym tematem jest to, że pomimo niesamowitej mocy sztucznej inteligencji potrzebuje ona wskazówek i nadzoru ze strony człowieka. Modele sztucznej inteligencji często zmagają się z rzeczami, które ludzie robią intuicyjnie, takimi jak zrozumienie niuansów i kontekstu. Jest to szczególnie ważne w scenariuszach o wysokiej stawce, takich jak wykorzystanie sztucznej inteligencji podczas wyborów.
Dlaczego nadzór ludzki jest ważny, a nie poleganie wyłącznie na sztucznej inteligencji podczas wyborów? Dobrze:
- Walka z uprzedzeniami: Modele AI są tworzone przy użyciu danych. Dane te mogą zawierać rzeczywiste uprzedzenia i utrwalić je, jeśli nie zostaną sprawdzone. Ludzie mogą zidentyfikować te uprzedzenia i pomóc poprawić model lub przynajmniej zdawać sobie sprawę z ich potencjalnego wpływu
- Zapewnienie dokładności: Nawet najlepsze modele sztucznej inteligencji popełniają błędy. Eksperci-ludzie mogą wskazać te błędy i udoskonalić model w celu uzyskania lepszych wyników
- Zdolność adaptacji: Sytuacje się zmieniają i dane się zmieniają. Sztuczna inteligencja nie zawsze dobrze radzi sobie z tymi zmianami. Ludzie mogą pomóc w dostosowaniu modelu, aby zapewnić jego aktualność i przydatność
- Kontekst ma znaczenie: Sztuczna inteligencja może mieć problemy ze zróżnicowanym językiem i kontekstem. Ludzie rozumieją subtelności i mogą upewnić się, że wynik modelu jest odpowiedni do sytuacji
Badanie stanowi wezwanie do działania, podkreślając potrzebę ciągłej kontroli i udoskonalania modeli sztucznej inteligencji, aby zapewnić wiarygodne odpowiedzi na istotne pytania dotyczące głosowania i wyborów.
Autor wyróżnionego obrazu: Cyfrowy Element5/Usuń rozpryski.