Według Apple, Apple stoi przed pozwem złożonym przez ofiary wykorzystywania seksualnego dzieci za niezaimplementowanie systemu wykrywania materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM) w iCloud. New York Timesa. W pozwie dochodzi się odszkodowania w wysokości ponad 1,2 miliarda dolarów na rzecz około 2680 osób, co odzwierciedla rzekome zaniedbania w ochronie użytkowników przed krzywdą.
Apple pozwany na 1,2 miliarda dolarów w związku z niepowodzeniem w wykrywaniu materiałów przedstawiających wykorzystywanie seksualne dzieci
W 2021 roku Apple ogłosił zamiar wprowadzenia CSAM narzędzie do wykrywania, którego zadaniem jest skanowanie iCloud w poszukiwaniu obraźliwych obrazów i powiadamianie Krajowego Centrum ds. Dzieci Zaginionych i Wykorzystywanych. Celem tej inicjatywy było skuteczne zwalczanie wykorzystywania dzieci. Jednak w odpowiedzi na znaczną reakcję związaną z obawami dotyczącymi prywatności Apple porzucił projekt, pozostawiając oskarżonego bez ochrony, a trwające nadużycia nierozwiązane.
Pozew został złożony w Północnej Kalifornii i powołuje się na fakt, że Apple „nie wdrożył tych projektów ani nie podjął żadnych działań w celu wykrycia i ograniczenia” CSAM na swoich urządzeniach. W pozwie uwzględniono doświadczenia 27-letniej kobiety, która stwierdziła, że nadal otrzymuje zawiadomienia organów ścigania dotyczące udostępniania w Internecie jej zdjęć zrobionych, gdy była dzieckiem. W pozwie podkreślono zamęt emocjonalny, jakiego doświadczają ofiary, gdy materiały te krążą w niekontrolowany sposób.
„Materiały przedstawiające wykorzystywanie seksualne dzieci są odrażające i jesteśmy zaangażowani w zwalczanie sposobów, w jakie drapieżniki narażają dzieci na ryzyko. Pilnie i aktywnie wprowadzamy innowacje, aby zwalczać te przestępstwa bez narażania bezpieczeństwa i prywatności wszystkich naszych użytkowników. Na przykład funkcje takie jak Bezpieczeństwo komunikacji ostrzegają dzieci, gdy otrzymują lub próbują wysłać treści zawierające nagość, aby pomóc przerwać łańcuch przymusu prowadzący do wykorzystywania seksualnego dzieci. Pozostajemy głęboko skupieni na budowaniu zabezpieczeń, które pomogą zapobiec rozprzestrzenianiu się CSAM przed jego rozpoczęciem” – powiedział rzecznik Apple Fred Sainz Engadget.
W odpowiedzi Apple potwierdziło swoje zaangażowanie w zwalczanie wykorzystywania seksualnego dzieci, traktując priorytetowo prywatność użytkowników. Rzecznik Fred Sainz zauważył: „Materiały przedstawiające wykorzystywanie seksualne dzieci są odrażające i jesteśmy zaangażowani w zwalczanie sposobów, w jakie drapieżniki narażają dzieci na ryzyko”. Odniósł się do istniejących środków, takich jak bezpieczeństwo komunikacji, które ostrzega dzieci przed udostępnianiem treści o charakterze jednoznacznie seksualnym.
Pomimo tych wysiłków firma Apple została niedawno poddana dodatkowej kontroli, gdy brytyjskie Krajowe Towarzystwo Zapobiegania Okrucieństwu wobec Dzieci oskarżyło firmę o zaniżanie raportów na temat CSAM znalezionych na jej platformach. To zwiększa rosnącą presję dotyczącą strategii Apple mających na celu skuteczne uporanie się z tym problemem.
Autor wyróżnionego obrazu: Nielsa Kehla/Unsplash