Badania przeprowadzone przez BBC odkrył, że cztery główne chatboty sztucznej inteligencji (AI) – Chatgpt, Microsoft’s Copilot, Google’s Gemini i zakłopotanie AI – są niedokładnie podsumowując wiadomości. Badanie obejmowało te chatboty podsumowujące 100 wiadomości pochodzących ze strony internetowej BBC.
BBC Exclusive: AI Chatboty zniekształcają podsumowania wiadomości
BBC poinformowało, że odpowiedzi wynikające z chatbotów AI zawierały „znaczące niedokładności” i zniekształcenia. Deborah Turness, dyrektor generalny BBC News and Bieżące sprawy, odnotowane w Post na blogu Że chociaż AI oferuje „niekończące się możliwości”, deweloperzy „bawią się ogniem”, budzą obawy, że nagłówki AI-Distorted mogą spowodować szkodę w świecie rzeczywistym.
W całym badaniu, które obejmowało oceny dziennikarzy, którzy byli ekspertami w odpowiednich przedmiotach artykułów, stwierdzono, że 51% odpowiedzi AI miało znaczne problemy. Wśród odpowiedzi generowanych przez AI, które odwoływali się do treści BBC, 19% zawierało błędy faktów, w tym nieprawidłowe stwierdzenia, liczby i daty. Ponadto 13% cytatów przypisywanych artykułom BBC zostało albo zmienionych lub wprowadzonych w błąd.
Niektóre szczególne niedokładności zidentyfikowane w badaniu obejmowały Bliźnięta, stwierdzając, że brytyjska National Health Service (NHS) nie zaleciła VAPING, aby rzucić palenie, w rzeczywistości tak jest. Chatgpt i Copilot niedokładnie twierdzili, że byli przywódcy Rishi Sunak i Nicola Sturgeon nadal byli na stanowisku, pomimo ich odlotów. Kutyczność źle cytowana wiadomości BBC, sugerując, że Iran działał z „ograniczeniem” działań Izraela.
W badaniu podkreślono, że Copilot i Google Gemini wykazały bardziej znaczące problemy w porównaniu z Chatgpt i Zakłopotanie ai. BBC tymczasowo podniosło ograniczenia dotyczące dostępu treści do tych systemów AI podczas fazy testowania w grudniu 2024 r.
Openai zdejmuje irańską klaster za pomocą chatgpt do tworzenia fałszywych wiadomości
Dyrektor programowy BBC ds. Generatywnej sztucznej inteligencji, Pete Archer, podkreślił, że wydawcy powinni kontrolować sposób wykorzystywania ich treści i że firmy AI muszą ujawnić, w jaki sposób ich asystenci przetwarzają wiadomości, w tym poziomy błędów. Openai odparł, że współpracują z partnerami w celu poprawy dokładności cytatów wbudowanych i szanowania preferencji wydawcy.
Po badaniu Turness wezwał firmy technologiczne do rozwiązywania zidentyfikowanych problemów, podobnie jak Apple zareagowało na poprzednie skargi BBC na streszczenia informacyjne. Wprowadziła wspólne wysiłki między branżą technologiczną, organizacjami informacyjnymi i rządem do zaradzenia niedokładnościom, które mogą znieść zaufanie publiczne w informacjach.
Badanie odnotowało ponadto zakłopotanie tendencję AI do zmiany stwierdzeń źródeł i ujawniło, że Copilot polegał na przestarzałych artykułach na temat podsumowań wiadomości. Ogólnie rzecz biorąc, BBC ma na celu prowadzenie szerszej rozmowy wokół środowiska regulacyjnego AI w celu zapewnienia dokładnego rozpowszechniania wiadomości.
W odpowiedzi na ustalenia Turness stanowiło kluczowe pytanie dotyczące projektowania technologii AI w celu wspierania dokładności w konsumpcji wiadomości. Stwierdziła, że potencjał zniekształceń, podobny do dezinformacji, zagraża zaufaniu publicznym we wszystkich mediach informacyjnych.
Wyróżniony obraz obrazu: Kerem Gülen/Ideogram