Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Google zaprezentuje Big Sleep AI do wykrywania podatności

byAytun Çelebi
5 sierpnia 2025
in Artificial Intelligence, Cybersecurity, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Hunter Bug Bug, Big Sleep, opracowany przez DeepMind i Project Zero, zidentyfikował 20 luk w zakresie bezpieczeństwa w oprogramowaniu typu open source, oznaczając początkowe publiczne raportowanie wad.

Dzisiaj w ramach naszego zaangażowania w przejrzystość w tej przestrzeni z dumą ogłaszamy, że zgłosiliśmy pierwsze 20 osób odkrytych "Wielki sen" System zasilany przez Gemini – https://t.co/0sgplazqaq

– Heather Adkins – ꜻ – SPES Consilium non EST (@Argvee) 4 sierpnia 2025 r

Heather Adkins, wiceprezes ds. Bezpieczeństwa Google, ujawniła w poniedziałek, że Big Sleep, badacz podatności na LLM, wykrył te wady w różnych popularnych aplikacjach typu open source. Zidentyfikowane podatności na zagrożenia wpływają głównie na systemy, takie jak FFMPEG, biblioteka audio i wideo oraz ImageMagick, pakiet edycji obrazu. Szczegóły dotyczące konkretnego wpływu lub nasilenia tych luk w zabezpieczeniach nie zostały opublikowane ze względu na standardowy protokół wstrzymania informacji o wstrzymaniu do czasu wdrożenia poprawek.

Kimberly Samra, rzecznik Google, wyjaśniła proces związany z tymi odkryciami. Samra stwierdził: „Aby zapewnić raporty wysokiej jakości i możliwe do przyjęcia, przed zgłoszeniem mamy eksperta w pętli, ale każda podatność została znaleziona i odtworzona przez agenta AI bez interwencji człowieka”. Ta procedura potwierdza, że podczas gdy występuje weryfikacja ludzka, początkowe wykrywanie i reprodukcja podatności na zagrożenia jest wykonywane autonomicznie przez czynnik AI.

Royal Hansen, wiceprezes ds. Inżynierii Google, scharakteryzował te odkrycia jako wykazanie „nowej granicy w automatycznym odkryciu podatności” w poście na temat X. Big Sleep to jedyne narzędzie zasilane przez LLM zaprojektowane do wykrywania podatności; Inne godne uwagi przykłady to Runsybil i Xbow.

Xbow zyskał uwagę za osiągnięcie najwyższej pozycji na tablicy liderów w USA w hakeronie hackerone platformy Bug Bounty. Podobnie jak wielki sen, wielu z tych łowców robaków napędzanych AI zawiera krok weryfikacji człowieka, aby potwierdzić legitymację wykrytych luk. Vlad Ionescu, współzałożyciel i dyrektor ds. Technologii w Runsybil, startup specjalizujący się w łowcach błędów napędzanych AI, opisał Big Sleep jako „legalny” projekt. Tę ocenę przypisał jej „dobrym designie, ludzie za nią wiedzą, co robią, Project Zero ma doświadczenie w znalezieniu błędów, a Deepmind ma siłę ognia i tokeny do rzucenia na nią”.

Chociaż potencjał tych narzędzi AI do identyfikacji wad bezpieczeństwa jest widoczny, odnotowano również wady. Kilku opiekunów różnych projektów oprogramowania zgłosiło otrzymywanie raportów o błędach, które są później identyfikowane jako halucynacje, przyciągając podobieństwa do „AI Slop” w kontekście nagród błędów. Ionescu wcześniej skomentował ten problem, stwierdzając: „To problem, na który wpadają ludzie, czy otrzymujemy wiele rzeczy, które wyglądają jak złoto, ale to po prostu bzdury”.


Polecane wizerunki

Tags: DeepmindGoogleProjekt ZeroWielki senWyróżniony

Related Posts

Adobe wprowadza maskę obiektów opartą na sztucznej inteligencji dla Premiere Pro

Adobe wprowadza maskę obiektów opartą na sztucznej inteligencji dla Premiere Pro

20 stycznia 2026
Współzałożyciel Signal uruchamia usługę AI Confer skupiającą się na prywatności

Współzałożyciel Signal uruchamia usługę AI Confer skupiającą się na prywatności

20 stycznia 2026
Anthropic współpracuje z Teach For All w celu przeszkolenia 100 000 nauczycieli na całym świecie

Anthropic współpracuje z Teach For All w celu przeszkolenia 100 000 nauczycieli na całym świecie

20 stycznia 2026
Cele OpenAI "praktyczne przyjęcie" dla strategii na rok 2026

Cele OpenAI "praktyczne przyjęcie" dla strategii na rok 2026

20 stycznia 2026
Tesla wznawia projekt superkomputera Dojo3 po stabilizacji chipa AI5

Tesla wznawia projekt superkomputera Dojo3 po stabilizacji chipa AI5

20 stycznia 2026
Twierdzenie: Firma NVIDIA zgodziła się na pobieranie pirackich książek w celu szkolenia sztucznej inteligencji

Twierdzenie: Firma NVIDIA zgodziła się na pobieranie pirackich książek w celu szkolenia sztucznej inteligencji

20 stycznia 2026

Recent Posts

  • Analityk Forrester: Sztuczna inteligencja nie poruszyła igły w kwestii globalnej produktywności
  • Sequoia Capital przyłącza się do rundy finansowania Anthropic o wartości 350 miliardów dolarów
  • TCL stanie się właścicielem 51% marki telewizorów Sony Bravia
  • Adobe wprowadza maskę obiektów opartą na sztucznej inteligencji dla Premiere Pro
  • Netflix przechodzi do oferty całkowicie gotówkowej za Warner Bros. Discovery

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.