Korea Południowa zakazała nowych pobierania Chin Deepseek AI Chatbot, zgodnie z organem ochrony danych osobowych. Zakaz jest nakładany, dopóki firma nie wprowadzi niezbędnych ulepszeń, aby przestrzegać przepisów dotyczących ochrony danych osobowych Korei Południowej.
Korea Południowa zakazuje Pobieranie się do pobrania Chatbot w sprawie problemów związanych z prywatnością
Deepseek zyskał znaczną popularność wkrótce po jego uruchomieniu, docierając do ponad miliona użytkowników cotygodniowych i na szczycie wykresów sklepów z aplikacjami. Jednak ten wzrost przyciągnął globalną kontrolę, prowadząc różne kraje do ograniczenia aplikacji w zakresie prywatności i obaw bezpieczeństwa narodowego.
Komisja Ochrony danych osobowych Korei Południowej ogłosiła, że Deepseek Stał się niedostępny w Apple App Store i Google Play w sobotni wieczór. Ta akcja nastąpiła po zakazach kilku agencji rządowych Korei Południowej, które zabraniały swoim pracownikom pobierania chatbota na urządzenia robocze.
Choi Sang-Mok, pełniący obowiązki prezydenta Korei Południowej, nazywał Deepseek „szokiem”, sugerując, że może to wpłynąć na branże kraju poza AI. Podczas gdy nowe pobieranie są zawieszone, użytkownicy, którzy już zainstalują aplikację, mogą nadal korzystać z niej, w tym dostęp do strony internetowej Deepseek.
W swoim dochodzeniu Komisja Korei Południowej stwierdziła, że Deepseek brakowało przejrzystości w odniesieniu do transferów danych innych firm i mogła zebrać nadmierne dane osobowe. NAM Seok, dyrektor oddziału dochodzeniowego Komisji, zalecił użytkownikom usunięcie aplikacji lub powstrzymali się od wprowadzania danych osobowych do czasu rozwiązania tych problemów.
Badania przeprowadzone przez WiseApp Retail wykazały, że Deepseek miał około 1,2 miliona użytkowników smartfonów w Korei Południowej w czwartym tygodniu stycznia, co czyni go drugim popularnym modelem AI za Chatgpt. Oprócz Korei Południowej, Tajwan i Australia zabraniały również jego zastosowania na urządzeniach rządowych, a Włochy Regulator podobnie zakazał go, dopóki obawy dotyczące polityki prywatności nie zostaną rozwiązane.
Twierdzenie: Deepseek AI można zhakować w celu wygenerowania złośliwego oprogramowania
W Stanach Zjednoczonych prawodawcy zaproponowali projekt ustawy o zakazaniu osób z urządzeniami federalnymi z powodu obaw związanych z nadzorem, a Teksas, Wirginia i Nowy Jork już wdrożyli takie ograniczenia dla pracowników państwowych.
Podobno duży model języka Deepseek oferuje możliwości rozumowania podobne do tych z amerykańskich modeli, takich jak O1 Openai, ale przy znacznie niższych kosztach operacyjnych. To wywołało pytania dotyczące znacznych inwestycji w infrastrukturę AI w USA i innych krajach.
ActiveFence ma taflowy Poważne luki w DeepSeek, stwierdzając, że model nie ma poręczy ani minimalnych standardów bezpieczeństwa, co czyni go podatnym na niewłaściwe użycie. Testowanie wersji V3 wykazało, że 38% odpowiedzi na szkodliwe podpowiedzi generowało potencjalnie niebezpieczną treść.
Dyrektor generalny ActiveFence, Noam Schwartz, podkreślił, że środki bezpieczeństwa dzieci Deepseeka nie powiodły się w stosunku do prostych wieloetapowych zapytań, tworząc odpowiedzi, które naruszyły wytyczne dotyczące bezpieczeństwa, w przeciwieństwie do zachodnich odpowiedników. Przykłady szkodliwych treści generowały nieodpowiednie sugestie i wytwarzanie niebezpiecznych scenariuszy.
Liang Wenfeng, dyrektor generalny Deepseek, uznał brak niezbędnych poręczy dla bezpieczeństwa, podkreślając konieczność przepisów w celu zapewnienia etycznego wykorzystania AI. Pomimo jego funkcjonalnych atrybutów brak zabezpieczeń doprowadził do poważnych obaw dotyczących potencjału Deepseek do nadużyć.
Dzięki integracji aplikacji z wrażliwymi środowiskami, takimi jak bankowość lub organy ścigania, ryzyko stają się szczególnie wyraźne, jak zauważają eksperci w zakresie bezpieczeństwa cyfrowego. Tymczasem ActiveFence pracuje nad edukacją użytkowników w zakresie bezpieczeństwa online poprzez inicjatywy takie jak ich podcast, Galaxy Stars.
Wyróżniony obraz obrazu: Solen Feyissa/Unsplash