Meta wznawia swoje wysiłki szkoleniowe sztucznej inteligencji (AI) w Unii Europejskiej (UE) po otrzymaniu zgody regulacyjnej, umożliwiając firmie korzystanie z danych publicznych udostępnianych przez dorosłych użytkowników na Facebooku, Instagramie, WhatsApp i Messenger. Ten ruch nastąpił prawie rok po tym, jak Meta zatrzymała podobne wysiłki z powodu obaw podniesionych przez Irlandię Ochrony danych.
Jakie dane zbierze Meta?
Według MetaSzkolenie AI będzie polegać na treści upublicznionych przez dorosłych użytkowników, w tym posty, komentarze i interakcje z Meta AI Tools. Prywatne wiadomości i dane od użytkowników poniżej 18 roku życia nie będą częścią zestawu danych szkoleniowych. Firma stwierdziła, że zebrane dane pomogą swoim modelom AI lepiej odzwierciedlać europejskie kultury, języki i historię.
Począwszy od tego tygodnia, użytkownicy w UE zobaczą powiadomienia w aplikacji i otrzymają e-maile wyjaśniające, jakie dane planują wykorzystać i dlaczego. Powiadomienia zapewnią również formularz rezygnacji, umożliwiając użytkownikom sprzeciw wobec ich publicznej treści do szkolenia modelu sztucznej inteligencji. Meta zobowiązała się do poszanowania zarówno nowych, jak i istniejących wniosków o sprzeciw.
Jak zareagowały organy regulacyjne?
Europejska Rada Ochrony danych (EDPB) zatwierdziła plan meta po potwierdzeniu, że spełnia on ścisłe zasady ochrony danych UE. Decyzja Meta jest zgodna z szerszym trendem w branży AI, a firmy takie jak Google i Openai już korzystają z danych użytkowników europejskich do opracowania swoich modeli AI.
Zatwierdzenie wyjaśnia sposób, aby Meta do dalszego rozszerzenia swoich możliwości sztucznej inteligencji na swoich platformach w UE. W ubiegłym miesiącu Meta AI stała się dostępna dla użytkowników w regionie, zintegrowanym z Facebookiem, Instagramem, WhatsApp i Messenger w zakresie zadań, takich jak odpowiadanie na pytania, generowanie treści i ulepszanie zaleceń użytkowników.
Meta AI właśnie wylądowała na WhatsApp, Instagram i Messenger w Europie
Apple przyjmuje inne podejście
Podczas gdy plan Meta koncentruje się na korzystaniu z rzeczywistych danych publicznych, Apple niedawno nakreślił kontrastową strategię. W nowym raporcie Apple wyjaśnił, w jaki sposób wykorzystuje metody zachowania prywatności, takie jak prywatność różnicowa i generowanie danych syntetycznych, aby poprawić funkcje zasilane przez AI. Obejmuje to narzędzia takie jak GenMoji, Placground Image, tworzenie wspomnień i narzędzia do pisania w nadchodzącym apartamencie Apple Intelligence – wszystko przy jednoczesnym ograniczeniu ekspozycji na dane osobowe.
Apple powiedział, że użytkownicy, którzy decydują się na udostępnienie danych analitycznych urządzeń, przyczyniają się do poprawy funkcji, ale z zabezpieczeniami, które uniemożliwiają firmie bezpośrednio dostęp do możliwych do zidentyfikowania informacji o użytkownikach.
Wdrażanie szkoleń AI Meta w Europie prawdopodobnie ponownie rozpanuje debaty na temat prywatności danych i zgody użytkowników, zwłaszcza gdy firmy technologiczne nadal poszerzają generatywne funkcje AI. Na razie dorośli użytkownicy w UE mają możliwość rezygnacji, jeśli nie chcą, aby ich publiczna treść była używana podczas szkolenia AI.