Wallarm wydał Agentic AI Protection, nową funkcję zaprojektowaną w celu zabezpieczenia agentów AI przed powstającymi wektorami ataku, takimi jak szybkie zastrzyk, jailbreak i nadużywanie logiki agentów. Funkcja rozszerza platformę bezpieczeństwa API Wallarm do aktywnego monitorowania, analizy i blokowania ataków na agentów AI.
Agenci AI są coraz częściej zintegrowani z obsługą klienta, przepływami pracy i automatyzacji biznesowej, ale wprowadzają również nowe ryzyko. Badania Wallarm wykazały, że 25% problemów bezpieczeństwa zgłoszonych w agencyjnych repozytoriach AI Github pozostaje nieosiągniętych, a niektóre lata trwają lata. Agenci te wchodzą w interakcje za pośrednictwem interfejsów API i są podatne na ataki osadzone w pozornie łagodnym wejściu użytkownika.
Agenticowa ochrona AI Wallarm sprawdza zarówno przychodzące zapytania, jak i odpowiedzi wychodzące, stosując analizę behawioralną i semantyczną w celu zidentyfikowania podejrzanych wzorców, zanim będą mogli zagrozić agentom lub systemom, do których się łączą. „Agenci AI szybko stali się niezbędne dla nowoczesnej infrastruktury cyfrowej, ale ich powierzchnia ataku jest słabo zrozumiana i szybko ewoluująca”, powiedział Ivan Novikov, dyrektor generalny i współzałożyciel Wallarm.
Kluczowe możliwości agencyjnej ochrony AI obejmują zautomatyzowane odkrycie interfejsów AI AI, analizę interakcji z agentami AI, wykrywanie wielu ataków oraz blokowanie szybkich wycieków i manipulacji agentami. Funkcja oferuje również natywną integrację z istniejącymi wdrożeniami Wallarm.
Netrise właśnie znalazł tajemnice ukrywające się w twoim kodzie
Wallarm zaprezentuje agentową ochronę AI na konferencji RSA 2025 w San Francisco, Booth S-3125 w Moscone Center. Agentic AI Ochrona będzie ogólnie dostępna latem 2025 r. W ramach zaawansowanej platformy bezpieczeństwa API Wallarm.
Wallarm to zjednoczona platforma dla API i Agentic AI Bezpieczeństwo wdrożone w środowiskach produkcyjnych przedsiębiorstw, dostarczając pełny zapas API, blokowanie w czasie rzeczywistym i opatentowane wykrywanie nadużyć opartych na sztucznej inteligencji.