LinkedIn po cichu umożliwił swoim użytkownikom szkolenie generatywnych modeli AI bez wyraźnego proszenia o zgodę, co budzi obawy o prywatność danych na platformie. Według raportu 404MediaLinkedIn wprowadził zmiany w swojej polityce prywatności, stwierdzając, że dane użytkowników mogą być używane do trenowania modeli AI. Platforma od tego czasu zaktualizowała politykę, umożliwiając teraz użytkownikom rezygnację z tej praktyki.
Zaktualizowana polityka LinkedIn ujawnia wykorzystanie danych osobowych w szkoleniu AI
Ten zaktualizowana polityka stwierdza, że LinkedIn może wykorzystywać dane osobowe do „ulepszania, rozwijania i dostarczania produktów i usług”, a także do trenowania modeli AI. Generative AI jest używane w takich funkcjach jak asystenci pisania, ale LinkedIn twierdzi, że wykorzystuje technologie zwiększające prywatność w celu redagowania danych osobowych. Użytkownicy, którzy wolą nie uczestniczyć, mogą zrezygnować, przechodząc do „„Prywatność danych” kartę w ustawieniach konta, wyłączając opcję „Dane dotyczące udoskonalania sztucznej inteligencji generatywnej” dźwignia kolankowa.
Jednak rezygnacja spowoduje jedynie, że LinkedIn nie będzie mógł używać Twoich danych do przyszłego szkolenia modelu. Dane, które zostały już wykorzystane, pozostają niezmienione. Ponadto LinkedIn wyjaśnia, że użytkownicy z UE, EOG lub Szwajcarii nie są uwzględniani w szkoleniu modelu AI.
Jeśli martwisz się o inne narzędzia uczenia maszynowego używane do personalizacji i moderacji, LinkedIn wymaga od użytkowników wypełnienia „Formularza sprzeciwu wobec przetwarzania danych”” aby również zrezygnować z tych zastosowań.
Cichy ruch LinkedIn dotyczący zgody na przetwarzanie danych przypomina działania firmy Meta, która niedawno przyznała się do gromadzenia nieprywatnych danych użytkowników w celu szkolenia sztucznej inteligencji od 2007 r.
Decyzja LinkedIn o przeprowadzce zbiegła się z momentem, w którym inni czołowi gracze technologiczni, tacy jak OtwórzAIrównież spotykają się z reakcją na podobne praktyki. Ten wzorzec cichego zapisywania użytkowników na szkolenie AI bez wyraźnych i widocznych powiadomień wywołuje poczucie niepokoju.
Dyrektor ds. technicznych OpenAI Mira Murati twierdzi, że Sora został przeszkolony na podstawie publicznie dostępnych i licencjonowanych danych fot.twitter.com/rf7pZ0ZX00
— Caratustra (@tsarnick) 13 marca 2024 r.
Nie chodzi tylko o to, czy dane są wykorzystywane do AI — chodzi o to, kto podejmuje decyzję i jak świadoma jest ta decyzja. Branża technologiczna od dawna spotyka się z krytyką za działanie w cieniu, jeśli chodzi o zbieranie danych, a rosnący nacisk na generatywną AI tylko wzmacnia te obawy.
Czy maszyny mogą zapomnieć Twoje dane osobowe?
Innym kluczowym problemem jest to, że rezygnacja dotyczy tylko przyszłego wykorzystania danych osobowych. Wszelkie dane, które zostały już wprowadzone do modeli AI, pozostają w systemie, a brak kontroli wstecznej może sprawić, że wielu użytkowników poczuje się bezsilnych. Branża mówi również o „maszyna oduczająca się„Aby temu zapobiec, należy usunąć dane wprowadzane do modeli AI.
Fakt, że LinkedIn wykorzystuje „technologie zwiększające prywatność” w celu anonimizacji danych, jest w pewnym stopniu uspokajający, ale nie rozwiązuje głębszego problemu: potrzeba bardziej proaktywnych i zorientowanych na użytkownika standardów prywatności.
Ostatecznie sytuacja ta podkreśla potrzebę silniejszych, bardziej przejrzystych regulacji, które oddają kontrolę z powrotem w ręce użytkowników. Pomysł, że firmy technologiczne mogą wykorzystywać nasze dane osobowe bez wyraźnej zgody, nie pasuje do czasów, w których prywatność staje się coraz cenniejsza.
Źródło wyróżnionego obrazu: Kerem Gülen/Ideogram