Richard Ho, szef sprzętu Openai, stwierdził, że przyszła infrastruktura AI musi zawierać funkcje bezpieczeństwa na poziomie sprzętu, takie jak przełączniki zabójstwa w celu zarządzania potencjalnie nieprzewidywalnymi modelami AI. Przemawiając na AI Infra Summit w Santa Clara, argumentował, że obecne środki bezpieczeństwa oparte na oprogramowaniu są niewystarczające, ponieważ polegają na założeniu, że leżący u podstaw sprzętu jest bezpieczny i można je łatwo kontrolować.
Dlaczego bezpieczeństwo oprogramowania nie wystarczy dla przyszłej sztucznej inteligencji?
HO wyjaśnił, że większość obecnych protokołów bezpieczeństwa AI działa na poziomie oprogramowania i zakłada, że sprzęt można wyłączyć, po prostu ograniczenie mocy. Ostrzegł, że to założenie może nie być prawdziwe, ponieważ modele AI stają się bardziej zaawansowane i wykazują to, co określił jako „przebiegły” zachowanie.
„Dzisiaj w oprogramowaniu jest dużo bezpieczeństwa. Zakłada, że twój sprzęt jest bezpieczny … zakłada, że możesz wyciągnąć wtyczkę na sprzęt. Nie twierdzę, że nie możemy wyciągnąć wtyczki na ten sprzęt, ale mówię ci, że te rzeczy są przebiegłe, modele są naprawdę przebiegłe, a więc jako facet ze sprzętu, chcę się upewnić.
Ten potencjał systemów AI do obejścia tradycyjnych kontroli oprogramowania sprawia, że zabezpieczenia osadzone bezpośrednio w krzem jest koniecznością.
Nowa infrastruktura potrzebna dla trwałych agentów AI
HO przedstawił przyszłość, w której agenci AI działają jako długowieczne jednostki, działając wytrwałe w tle, aby obsługiwać zadania bez stałego wprowadzania użytkownika. Ten model wymaga znacznej zmiany projektowania infrastruktury. Przyszłe systemy będą musiały być bogate w pamięć z możliwościami o niskiej opóźnień w celu zarządzania ciągłymi sesjami, w których wielu agentów współpracuje przy złożonych zadaniach. Ho podkreślił, że tworzenie sieci będzie kluczowym elementem, ponieważ agenci będą musieli komunikować się i korzystać z narzędzi w czasie rzeczywistym jednocześnie w zakresie działań takich jak wyszukiwanie stron internetowych i skoordynowane podejmowanie decyzji.
Proponowane funkcje bezpieczeństwa sprzętowego i wyzwania
Aby zająć się ryzykiem, Openai proponuje osadzenie określonych środków bezpieczeństwa bezpośrednio w klastrach sprzętowych AI. Należą do nich:
- Przełączniki zabójstwa w czasie rzeczywistym w celu natychmiastowego zatrzymania operacji.
- Systemy telemetryczne do monitorowania i ostrzegania o nienormalnym zachowaniu AI.
- Zabezpieczone ścieżki wykonania w układach układów w celu izolacji krytycznych procesów.
Jednak skalowanie tej infrastruktury stanowi kilka wyzwań. Ho zidentyfikował ograniczenia pamięci o wysokiej przepustowości, potrzebę wiarygodnych połączeń optycznych w celu szybszego przenoszenia danych oraz poważne zapotrzebowanie na energię-określone w celu osiągnięcia do 1 megawatów na stojak-jako główne ograniczenia.
Opracowanie nowych standardów sprzętu i sieci
Ho wezwał do stworzenia nowych punktów odniesienia specjalnie dla architektur „Agent-Aware”. Standardy te powinny mierzyć wydajność opóźnienia, wydajności i zużycia energii, aby poprowadzić rozwój sprzętu. Podkreślił również, że obserwowalność musi być stałą, wbudowaną funkcją sprzętu, a nie tylko tymczasowym narzędziem do debugowania.
„Musimy mieć dobrą obserwowalność jako funkcję sprzętu, nie tylko jako narzędzie debugowania, ale wbudowane i stale monitorujące nasz sprzęt”.
Dokonał podkreślenia obecnych problemów związanych z niezawodnością w rozwijających się technologiach sieciowych, takich jak wzajemne połączenia optyczne, wzywając branżę do przeprowadzenia szeroko zakrojonych testów, aby zapewnić, że systemy te są wystarczająco niezawodne do zastosowań AI o znaczeniu krytycznym.





