Włochy nałożyły na OpenAI karę w wysokości 15 milionów euro (15,66 miliona dolarów) za naruszenie prywatności danych osobowych w aplikacji ChatGPT, zgodnie z Reutera. Włoski organ ochrony danych, Garante, stwierdził że OpenAI przetwarzało dane użytkowników niezgodnie z prawem i nie zapewniło odpowiedniej weryfikacji wieku. Grzywna wynikająca z dochodzenia przeprowadzonego w 2023 r. podkreśla wagę przestrzegania przepisów UE w zakresie ochrony danych osobowych.
Włochy nakładają na OpenAI karę w wysokości 15 milionów euro za naruszenia prywatności danych
Kara jest następstwem dochodzenia Garante, które ujawniło przetwarzanie przez OpenAI danych osobowych użytkowników bez wystarczającej podstawy prawnej. Dodatkowo firma nie przestrzegała zasad przejrzystości wymaganych przez Ogólne rozporządzenie UE o ochronie danych (RODO). Do tej decyzji przyczynił się również poprzedni brak zgłoszenia przez OpenAI naruszenia bezpieczeństwa w marcu 2023 roku.
„Nieodpowiednie mechanizmy weryfikacji wieku” zwiększają ryzyko narażenia dzieci poniżej 13 roku życia na niewłaściwe treści generowane przez sztuczną inteligencję – zauważył Garante. W odpowiedzi na karę OpenAI skrytykowało orzeczenie jako „nieproporcjonalne” i zapowiedział złożenie apelacji. Przedsiębiorstwo twierdzi, że kara stanowi prawie 20-krotność jego przychodów uzyskanych we Włoszech w okresie objętym dochodzeniem.
W ramach orzeczenia OpenAI jest zobowiązane do przeprowadzenia sześciomiesięcznej kampanii uświadamiającej w różnych mediach, aby wyjaśnić, jak działa ChatGPT. Ta kampania będzie w szczególności dotyczyła praktyk gromadzenia danych, w tym sposobu wykorzystywania danych użytkowników i osób niebędących użytkownikami do algorytmów szkoleniowych, a także przedstawi prawa użytkowników do sprzeciwu, poprawiania lub usuwania swoich danych osobowych.
Wyszukiwanie ChatGPT jest teraz bezpłatne i będzie dostępne w Google
Proaktywna postawa regulacyjna Włoch plasuje je jako jeden z wiodących organów UE w egzekwowaniu przestrzegania zasad ochrony danych. Ta kara nie jest pierwszą decyzją podjętą przeciwko OpenAI; Garante tymczasowo zakazało ChatGPT w marcu 2023 r. z powodu podobnych obaw, zanim dostęp został przywrócony, gdy OpenAI rozwiązało problemy związane ze zgodą użytkownika na wykorzystanie danych.
OpenAI broniło swoich praktyk, podkreślając swoje zaangażowanie w ochronę prywatności i twierdząc, że orzeczenie podważa ambicje Włoch w zakresie sztucznej inteligencji.
„Kiedy Garante nakazał nam zaprzestać oferowania ChatGPT we Włoszech w 2023 r., współpracowaliśmy z nimi, aby przywrócić go miesiąc później” – powiedział rzecznik OpenAI Powiązana prasa. „Od tego czasu uznali nasze wiodące w branży podejście do ochrony prywatności w ramach sztucznej inteligencji, a mimo to kara ta stanowi prawie 20-krotność przychodów, jakie osiągnęliśmy we Włoszech w odpowiednim okresie”.
Garante ocenił wielkość OpenAI, biorąc pod uwagę podejście firmy oparte na współpracy podczas dochodzenia, sugerując, że kara mogła być znacznie wyższa.
W związku z karą dalsze wytyczne Europejskiej Rady Ochrony Danych (EROD) wyjaśnić konsekwencje nieuprawnionego przetwarzania danych osobowych w modelach sztucznej inteligencji. Stanowi, że jeśli anonimizacja nastąpi przed jakąkolwiek fazą operacyjną modelu AI, wówczas naruszenia RODO mogą nie mieć zastosowania do późniejszych operacji tego modelu. Jeżeli jednak dane osobowe są ponownie przetwarzane po anonimizacji, RODO ma zastosowanie.
Autor wyróżnionego obrazu: Zaca Wolffa/Unsplash