Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Twierdzenie: Deepseek AI można zhakować w celu wygenerowania złośliwego oprogramowania

byKerem Gülen
13 lutego 2025
in Artificial Intelligence, Cybersecurity, News
Home Artificial Intelligence

Eksperci ostrzegają, że Deepseek, generatywna sztuczna inteligencja opracowana w Chinach, nie udało się wielu testom bezpieczeństwa, zwiększając obawy dotyczące ryzyka dla użytkowników. AppSoc Dostawca bezpieczeństwa Silicon Valley odkrył znaczne luki, w tym zdolność do jailbreaku AI i generowania złośliwego oprogramowania.

Chińska AI Deepseek nie udaje testów bezpieczeństwa

David Reid, ekspert ds. Bezpieczeństwa cybernetycznego na Uniwersytecie Cedarville, wyraził alarm w wynikach testów. „Nie powiodło się tego, w których można je złamać. W niektórych przypadkach możesz wygenerować rzeczywiste złośliwe oprogramowanie, które jest dużą czerwoną flagą – stwierdził. Reid zauważył, że te awarie są szczególnie niepokojące, biorąc pod uwagę, że pozwalają na potencjalne tworzenie szkodliwego kodu.

AppSoc analiza Przypisał Deepseek ocenę ryzyka 8,3 na 10, zalecając jego zastosowanie w ustawieniach przedsiębiorstwa, które obejmują poufne dane lub własność intelektualną. Anjana Susarla, ekspert od odpowiedzialnej sztucznej inteligencji na Michigan State University, powtórzyła ten sentyment, kwestionując, czy organizacje mogłyby manipulować informacjami o poufnej firmie.

Podczas gdy Deepseek może wydawać się działać podobnie jak ustalone modele AI, takie jak Chatgpt, Susarla doradziła nie korzystanie z niego w chatbotach lub aplikacjach skierowanych do klienta, stwierdzając: „Odpowiedź brzmi„ nie ”. Implikacje stosowania tak niesprawdzonego modelu mogą prowadzić do znacznych luk w zabezpieczeniach.

Podwyższona troska wynika z chińskiego pochodzenia Deepseka, porównywalnego z kontrowersją otaczającą platformę mediów społecznościowych Tiktok, która stanęła przed kontrolą amerykańskich prawodawców za praktyki bezpieczeństwa danych. Członkowie amerykańskiej Izby niedawno ogłosili plany wprowadzenia przepisów zakazujących Deepeek na urządzenia rządowe, powołując się na ryzyko dostępu do danych przez chińską partię komunistyczną.


Deepseek R1 vs O3-Mini w wydajności, kosztach i użyteczności showdown


„To pięcio alarmowy pożar bezpieczeństwa narodowego” – oświadczył przedstawiciel USA Josh Gottheimer z New Jersey. Podkreślił potrzebę zapobiegania infiltracji urządzeń pracowników rządowych, przypominając wcześniejsze problemy z Tiktokiem.

Na razie niektóre z nich jak Włochy I Australia już uchwaliłem zakazy w Deepseek do użytku rządowego. Pomimo starań o zarządzanie ryzykiem, eksperci ds. Bezpieczeństwa cybernetycznego, tacy jak Dimitri Sirota, dyrektor generalny Bigid, potwierdzają, że może być trudne, aby powstrzymać średnio użytkowników do pobierania i korzystania z aplikacji. Pokusa nowych, popularnych technologii często przewyższa ostrożność w zachowaniu użytkowników.

Obawy dotyczące DeepSeek obejmują nie tylko jego podatności techniczne, ale także ryzyko geopolityczne związane z oprogramowaniem powiązanym z Chinami. Dane zebrane przez DeepSeek mogą podlegać chińskiemu prawu, wymagając od niego ujawnienia informacji użytkownika na żądanie od rządu.

Eksperci ostrzegają, że chiński rząd posiada zdolności do analizy danych agregowanych z DeepSeek wraz z innymi źródłami w celu potencjalnego tworzenia profili amerykańskich użytkowników. Ta sytuacja przypomina obawy związane z Tiktok, w których zmartwienia utrzymywały się na chińskiej partii komunistycznej wykorzystującej dane użytkowników do celów wywiadowczych.

Aby ograniczyć ryzyko podczas korzystania z DeepSeek lub innych modeli AI, eksperci ds. Bezpieczeństwa cybernetycznego zalecają najlepsze praktyki, takie jak zapewnienie silnych, unikalnych haseł i umożliwienie uwierzytelniania dwuskładnikowego. Użytkownicy powinni również zachować ostrożność w zakresie udostępniania danych osobowych aplikacjami AI i pozostać sceptycznie nastawieni do żądań dotyczących poufnych danych.

Wreszcie, użytkownicy powinni dokładnie odczytać warunki jakiejkolwiek aplikacji AI przed użyciem, aby zrozumieć praktyki wykorzystania danych i udostępniania. Eksperci ostrzegają, że aplikacje z siedzibą w Chinach lub innych stanach przeciwnych powinny być traktowane z podwyższoną analizą ze względu na potencjalne ryzyko związane z prywatnością i bezpieczeństwem danych.

Tags: AiCyberbezpieczeństwoDeepseekWyróżniony

Related Posts

Alphaevolve: Jak nowa sztuczna inteligencja Google dąży do prawdy z samokonmitowaniem

Alphaevolve: Jak nowa sztuczna inteligencja Google dąży do prawdy z samokonmitowaniem

15 maja 2025
Tiktok wdraża teksty AlT generowane przez AI, aby uzyskać lepszą dostępność

Tiktok wdraża teksty AlT generowane przez AI, aby uzyskać lepszą dostępność

15 maja 2025
Trump zmusza Apple do przemyślenia swojej strategii iPhone’a w Indiach

Trump zmusza Apple do przemyślenia swojej strategii iPhone’a w Indiach

15 maja 2025
AI YouTube wie, kiedy masz kupić

AI YouTube wie, kiedy masz kupić

15 maja 2025
Soundcloud CEO przyznaje, że warunki AI nie były wystarczająco jasne, wydaje nowe zastaw

Soundcloud CEO przyznaje, że warunki AI nie były wystarczająco jasne, wydaje nowe zastaw

15 maja 2025
Gotowy na chatgpt, który naprawdę cię zna?

Gotowy na chatgpt, który naprawdę cię zna?

14 maja 2025

Recent Posts

  • Wpływ inteligentnych tkanin na taktyczną wydajność odzieży
  • Databricks obstawia duże na serwerze Postgres z przejęciem neonów w wysokości 1 miliarda dolarów
  • Alphaevolve: Jak nowa sztuczna inteligencja Google dąży do prawdy z samokonmitowaniem
  • Tiktok wdraża teksty AlT generowane przez AI, aby uzyskać lepszą dostępność
  • Trump zmusza Apple do przemyślenia swojej strategii iPhone’a w Indiach

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.