Ami Luttwak, główny technolog z firmy cyberbezpieczeństwa Wiz, niedawno szczegółowo opisał, w jaki sposób szybkie przyjęcie sztucznej inteligencji jest zasadniczo zmieniającymi się cyberatakami. Integrując AI, firmy nieumyślnie tworzą nowe możliwości dla złośliwych aktorów i rozszerzają swoją powierzchnię ataku korporacyjnego. Luttwak opisuje bezpieczeństwo cybernetyczne jako „grę umysłu”, dynamiczną grę, w której każda nowa fala technologiczna stanowi nowe możliwości atakującym. Obecna rozprzestrzenianie się AI wprowadza nowatorskie luki, które specjaliści ds. Bezpieczeństwa muszą ścigać się, aby zrozumieć.
Integracja AI tworzy nowe luki
Przedsiębiorstwa osadzają sztuczną inteligencję w swoich przepływach pracy za pomocą technik takich jak „kodowanie klimatu” (przy użyciu monitów języka naturalnego do generowania kodu), wdrażanie autonomicznych agentów AI i przyjmowanie nowych narzędzi napędzanych sztuczną inteligencją. Chociaż zwiększają wydajność, każdy nowy model lub narzędzie stanowi potencjalny punkt wejścia dla atakujących. Szybkość rozwoju opartego na AI jest głównym motorem ryzyka. Możliwość szybszego wysyłania kodu może prowadzić do skrótów, powodując, że programiści pomijają krytyczne etapy bezpieczeństwa, takie jak rygorystyczne recenzje kodu i bezpieczna konfiguracja. Testy przeprowadzone przez Wiz na temat aplikacji zbudowanych przy użyciu kodowania Vibe ujawniły powtarzający się problem: niepewna implementacja systemów uwierzytelniania. „Agenci kodujące atmosferę robią to, co mówisz, a jeśli nie powiesz im, aby zbudowali go w najlepiej, nie” – wyjaśnił Luttwak. Ponieważ modele AI nie mają nieodłącznej świadomości bezpieczeństwa, wytwarzają kod funkcjonalny oparty na monit, który często jest strukturalnie niepewny, chyba że programista wyraźnie określa szczegółowe wymagania bezpieczeństwa.
Atakujący również używają AI
Atakujący przyjmują te same technologie z równym entuzjazmem. Korzystają z kodowania Vibe do generowania złośliwego oprogramowania, wykorzystując szybkie techniki ataków phishingowych i wdrażając własnych agentów AI w celu automatyzacji wyczynów. Ofensywne użycie sztucznej inteligencji staje się coraz bardziej bezpośrednie, a napastnicy używają teraz monitów do ataku własnych systemów AI organizacji. Dzięki manipulowaniu podpowiedziami przekazywanymi wewnętrznemu chatbotowi firmy lub agentowi AI, atakujący może nakłonić system do wykonywania destrukcyjnych poleceń lub exfiltrating wrażliwych danych.
Ataki łańcucha dostaw i przykłady rzeczywistych
Ta dynamika tworzy niebezpieczną formę ataku łańcucha podaży. Narzędzia AI innych firm często wymagają szerokiego dostępu do danych korporacyjnych do funkcjonowania. Jeśli napastnik narusza jedną z tych usług, może odziedziczyć swoje obszerne uprawnienia, aby obracać się głęboko w infrastrukturze klienta.
- Dryf naruszenia: Atakerzy naruszyli Drift, startup sprzedający chatboty AI, ujawniając dane Salesforce klientów korporacyjnych. Wykorzystali skradzione klucze cyfrowe, aby podszywać się pod chatbot AI firmy, który miał uzasadniony dostęp do środowisk klientów. Luttwak potwierdził, że sam kod ataku został utworzony przy użyciu kodowania Vibe.
- Atak S1ingularity: Ten atak ukierunkował system kompilacji NX używany przez programistów JavaScript. Atakerzy wstrzyknęli złośliwe oprogramowanie zaprojektowane do wykrywania i porywania narzędzi programistycznych zasilanych AI, takimi jak Claude i Gemini, wykorzystując je do autonomicznego skanowania zagrożonych systemów pod kątem cennych danych i poświadczeń.
Pomimo adopcji AI w przedsiębiorstwie na wczesnym etapie-o wartości około 1%-WSPÓŁ JUŻ DOSTĘPNIE obserwuje ataki z II-implikowane „co tydzień, które wpływają na tysiące klientów przedsiębiorstwa”.
Porady dotyczące startupów i przedsiębiorstw
Luttwak ostrzega przedsiębiorstwa przed powierzeniem krytycznych danych nowym, małym firmom SaaS, które mogą nie mieć dojrzałych praktyk bezpieczeństwa. Twierdzi, że startupy muszą działać jako bezpieczne organizacje od samego początku. „Od pierwszego dnia musisz pomyśleć o bezpieczeństwie i zgodności”, doradził, zalecając startupy zatrudnić CISO, nawet jeśli mają tylko pięciu pracowników. Ustanowienie bezpiecznych procesów i osiągnięcie zgodności, takie jak SOC2, jest znacznie łatwiejsze do zarządzania dla małego zespołu niż modernizacja go później. Podkreślił także znaczenie architektury, doradzając startupom AI do projektowania systemów, które umożliwiają pozostanie danych klientów w środowisku klienta, znacznie ograniczając ryzyko wykładania danych.





