Rada Nadzorcza Meta tak zasugerował że wyraźnie sfabrykowany fałszywy film Joe Bidena nie powinien być usuwany z Facebooka, wskazując na potrzebę ponownego przeanalizowania i potencjalnego rozszerzenia swojej nieco restrykcyjnej polityki wobec zmanipulowanych mediów przez Meta. Uznano, że ten film, w którym nie zastosowano narzędzi do edycji sztucznej inteligencji ani nie przedstawiał prezydenta Bidena wypowiadającego oświadczenia, których nigdy nie składał, został ewidentnie zmieniony, a zatem jest mało prawdopodobne, aby zwiódł widzów, co jest zgodne z obowiązującymi wytycznymi Meta.
Jaka historia kryje się za fałszywym filmem Joe Bidena?
Kontrowersyjny film, który pojawił się na Facebooku w maju 2023 roku, pochodzi z klipu opublikowanego w październiku poprzedniego roku. Uchwyciło moment, w którym Prezydent i jego wnuczka, wyborczyni po raz pierwszy, wymieniają się naklejkami z napisem „Głosowałem”.

Na oryginalnym materiale widać, jak Biden czule umieszcza naklejkę nad piersią swojej wnuczki i całuje ją w policzek. Jednak fałszywe wideo Joe Bidena zmieniło tę niewinną wymianę zdań, aby fałszywie insynuować niewłaściwe zachowanie Bidena, zapętlając się przez siedem sekund z wyraźnym tekstem z utworu „Simon Says” Pharoahe Moncha i któremu towarzyszył podpis określający Bidena jako „chorego pedofila” i krytykując swoich zwolenników.
Film był początkowo usuwany automatycznie po opublikowaniu. Osoba, która przesłała, złożyła odwołanie od usunięcia filmu, co doprowadziło do oceny przez weryfikatora, że nie narusza on zasad określonych przez Meta, co doprowadziło do przywrócenia filmu na Facebooku.
Rada Nadzorcza, zezwalając na zachowanie dostępności filmu, skrytykowała obecne wytyczne dotyczące zmanipulowanych mediów jako zbyt restrykcyjne. Obecnie zasady zabraniają jedynie modyfikowania filmów w celu przedstawienia osób mówiących rzeczy, których nigdy nie powiedziały, bez zajęcia się wizualnymi manipulacjami działań, i ograniczają się do treści generowanych przez sztuczną inteligencję. Rada podkreśliła brak jasnego uzasadnienia tej polityki, jej kłopotliwy i niejednoznaczny charakter dla użytkowników oraz brak odpowiedniej identyfikacji i łagodzenia potencjalnych szkód, zalecając gruntowną rewizję polityki.
Ponieważ Meta rozważa zalecenia Rady Nadzorczej, obiecujące publiczną odpowiedź w ciągu 60 dni, szersze implikacje dla zarządzania treścią i dostosowań polityki przed wyborami w 2024 r. pozostają niepewne.
Kwestia fałszywego filmu Joe Bidena na Facebooku wywołała krytyczną debatę na temat cienkiej granicy między wolnością słowa a potencjalnymi szkodami w przestrzeni cyfrowej. Ten incydent nie tylko pokazuje złożoność związaną z moderowaniem treści na platformach mediów społecznościowych, ale także uwydatnia wyzwania, przed którymi stoją firmy technologiczne, radząc sobie ze zmanipulowanymi mediami. Decyzja Rady Nadzorczej Meta o pozostawieniu filmu pomimo jego zwodniczych zmian podkreśla kluczowy moment dla zarządzania cyfrowego i związanych z nim względów etycznych.

Sednem tej kontrowersji jest szersza kwestia odpowiedzialności. Przed gigantami mediów społecznościowych, takimi jak Meta, stoi monumentalny obowiązek ochrony cyfrowej przestrzeni publicznej przed dezinformacją i szkodliwymi treściami, przy jednoczesnym przestrzeganiu zasad wolności słowa. Krytyka Rady Nadzorczej dotycząca obecnej zmanipulowanej polityki medialnej Meta jako „zbyt wąskiej” sugeruje pilną potrzebę opracowania polityk, które byłyby zarówno kompleksowe, jak i możliwe do dostosowania do zmieniającego się krajobrazu tworzenia i dystrybucji treści cyfrowych.
Stworzony przez sztuczną inteligencję deepfake Biden nazywa docelowych wyborców
Zniuansowany charakter tej konkretnej sprawy dotyczącej fałszywego filmu Joe Bidena rodzi ważne rozważania dotyczące rozeznania użytkowników i roli platform w selekcjonowaniu treści. Decyzja stwarza jednak również ryzyko stworzenia precedensu, w którym poprzeczka dla tego, co stanowi szkodliwą manipulację, może stać się niejednoznacznie wysoka, co potencjalnie umożliwi rozprzestrzenianie się treści wprowadzających w błąd pod pozorem oczywistej nieprawdziwości.

Wezwanie Zarządu do przeglądu polityki odzwierciedla rosnący konsensus co do tego, że obecne wytyczne są niewystarczające, aby uwzględnić szereg zaawansowanych technologii manipulacji treścią, w tym między innymi sztuczną inteligencję. W miarę jak zmanipulowane filmy stają się coraz bardziej przekonujące i powszechne, coraz pilniejsze staje się zapotrzebowanie na jasne i skuteczne zasady chroniące jednostki przed zniesławieniem i chroniące społeczeństwo przed dezinformacją.
Ponieważ Meta dokonuje przeglądu zaleceń Rady Nadzorczej, wynik tych rozważań będzie niewątpliwie miał znaczące implikacje dla praktyk moderowania treści w całej branży. Fałszywa sprawa wideo Joe Bidena ilustruje krytyczne wyzwania na styku technologii, etyki i zarządzania w epoce cyfrowej, wzywając do ponownej oceny tego, w jaki sposób platformy mediów społecznościowych mogą lepiej radzić sobie z delikatną równowagą między ochroną wolności wypowiedzi a zapobieganiem szkodom.
Autor wyróżnionego obrazu: Markusa Spiske/Unsplash