Adam Mosseri z Meta podkreśla znaczenie analizowania treści generowanych przez sztuczną inteligencję na platformach mediów społecznościowych. W miarę jak głębokie podróbki stają się coraz bardziej wyrafinowane, umiejętność odróżnienia rzeczywistości od fabrykacji jest dla użytkowników niezbędna.
Meta Mosseri podkreśla potrzebę dokładnej analizy treści generowanych przez sztuczną inteligencję
Komentarze Mosseriego pojawiają się w kontekście rosnących obaw związanych z głębokimi podróbkami, które wykorzystują generatywne sieci kontradyktoryjne (GAN) i modele rozpowszechniania, takie jak DALL-E 2, do tworzenia fałszywych obrazów i filmów, które trudno odróżnić od autentycznych treści. Szef Instagrama uważa, że media społecznościowe mogą pomóc w walce z dezinformacją poprzez oznaczanie fałszywych treści, choć przyznaje, że nie wszystkie kłamstwa da się wykryć i odpowiednio oznaczyć. „Nasza rola jako platform internetowych polega na jak najlepszym oznaczaniu treści generowanych jako sztuczna inteligencja” – stwierdził.
Deep fakes znacząco ewoluowały w ostatnich latach. Proces ten polega na tym, że jeden model sztucznej inteligencji generuje podróbkę, a drugi ją identyfikuje, stale doskonaląc jej dokładność. W efekcie powstają treści, które mogą być niepokojąco przekonujące.
W miarę jak głębokie podróbki zyskują na popularności, Mosseri ostrzega użytkowników przed ślepym ufaniem obrazom i filmom dostępnym w Internecie. W serii postów w Threads namawiał użytkowników, aby zastanowili się nad źródłem udostępnianych treści, wzmacniając pogląd, że kontekst ma kluczowe znaczenie w epoce cyfrowej. Wyjaśnił: „Mam wrażenie, że właśnie teraz wspólnie doceniamy, że ważniejsze stało się rozważenie, kto coś mówi, niż to, co mówi”. Perspektywa ta jest zgodna z ewoluującą umiejętnością korzystania z technologii cyfrowych, gdzie wiarygodność dostawcy treści jest równie istotna jak same treści.
W środowisku mediów społecznościowych umiejętność rozpoznania autentyczności treści wizualnych jest pilniejsza niż kiedykolwiek. Mosseri zauważył, że platformy muszą zapewniać kontekst dotyczący pochodzenia udostępnianych materiałów, nawiązując do inicjatyw moderacyjnych prowadzonych przez użytkowników, obserwowanych na innych platformach. Podkreślił, że choć niektóre formy dezinformacji generowanej przez sztuczną inteligencję można zidentyfikować, inne nieuchronnie prześlizgują się między nimi.
Pilność tej kwestii dodatkowo podkreśla szybki postęp w technologii sztucznej inteligencji. Dzisiejsze narzędzia z łatwością tworzą treści, które wyglądają jak prawdziwe i które można rozpowszechniać na dużą skalę, często przekraczając możliwości moderatorów w zakresie skutecznego reagowania. Użytkownicy, którzy codziennie poruszają się w zalewie informacji, zachęcani są do wyostrzania wnikliwego spojrzenia i sprawdzania, kto udostępnia informacje i jakie są tego konsekwencje.
Wciąż trwa badanie sposobu, w jaki platformy oznaczają i moderują treści generowane przez sztuczną inteligencję. Uznanie przez Mosseriego ograniczeń obecnych praktyk w zakresie etykietowania sugeruje potrzebę opracowania solidniejszych strategii zwalczania dezinformacji. Biorąc pod uwagę postęp technologiczny w generowaniu mediów opartych na sztucznej inteligencji, otwartym pytaniem pozostaje, w jaki sposób platformy dostosowują się do tych zmian i w dalszym ciągu zwiększają świadomość użytkowników.
Chociaż Meta sugeruje przyszłe zmiany w swoich strategiach moderowania treści, nie jest jasne, jak szybko te zmiany zostaną wdrożone ani ich skuteczność w przeciwdziałaniu obserwowanym obecnie zaawansowanym technologicznie manipulacjom. Złożoność wprowadzona przez sztuczną inteligencję generuje wyzwania wymagające proaktywnej i świadomej publiczności, zdolnej do krytycznej oceny treści, z których korzysta w Internecie.
Autor wyróżnionego obrazu: Hartono Creative Studio/Unsplash