Według badań przeprowadzonych przez Michaela Waltersa (Gaia Lab, Norymberga, Niemcy), Rafael Kaufmann (Primordia Co., Cascais, Portugalia), Justice Sefas (University of British Columbia, BC, Kanada) i Thomas Kopinski (Gaia Lab, Fachhochschule Sudwestfalen, Meschede, Niemcy), nowe podejście inspirowane fizyką do bezpieczeństwa AI może uczynić systemy wielu agentów-takie jak pojazdy autonomiczne-niezwykle bezpieczniejsze.
Ich papier: „Bezpłatna energia wskaźniki ryzyka systemowo bezpiecznego AI: Strateeeping Multi-Agent Study”, Wprowadza nową metodę pomiaru ryzyka, która poprawia podejmowanie decyzji w systemach AI, przewidując ryzyko z wyprzedzeniem i podejmując działania zapobiegawcze.
Jaka jest zasada energii wolnej (FEP) i dlaczego ma to znaczenie?
Sercem ich badań jest Zasada energii darmowej (FEP)koncepcja pierwotnie opracowana w fizyce. Mówiąc prosto, FEP pomaga wyjaśnić, w jaki sposób systemy równoważą dokładność (energia) I Prostota (entropia) Podczas dokonywania prognoz.
Pomyśl o tym w ten sposób: system AI próbujący poruszać się po świecie, musi zachować równowagę między gromadzeniem szczegółowych informacji a efektywnym działaniem. Jeśli system jest zbyt złożony, trudno jest sobie z tym poradzić; Jeśli jest to zbyt proste, może przeoczyć krytyczne ryzyko. Autorzy używają tej zasady do stworzenia Nowa metryka ryzyka co pozwala uniknąć potrzeby ogromnych ilości danych lub nadmiernie skomplikowanych modeli, co czyni bezpieczeństwo AI Bardziej praktyczne i przejrzyste.
AI uczy się prowadzić jak człowiek – obserwując, jak panikujesz
Skumulowana narażenie na ryzyko (CRE) to mądrzejszy sposób pomiaru ryzyka
Naukowcy proponują nowy system pomiaru ryzyka o nazwie Skumulowana ekspozycja na ryzyko (CRE).
Czym różni się CRE?
- W przeciwieństwie do tradycyjnych modeli ryzykaktóry opiera się na rozległych modelach światowych, CRE pozwala interesariuszom określić, co oznacza „bezpieczny”, określając preferowane wyniki.
- To sprawia, że podejmowanie decyzji przezroczyste i elastyczneponieważ system dostosowuje się do różnych środowisk i potrzeb.
- Zamiast polegać na Nadmierne dane czujnikaCRE szacuje ryzyko poprzez symulacje predykcyjne w krótkich ramach czasowych.
CRE zapewnia więcej wydajne i elastyczne Sposób oceny ryzyka w systemach opartych na AI, zmniejszając poleganie na obliczeniach wymagających zasobów.
STRAKEEPERS: AI, która wkracza, zanim coś pójdzie nie tak
Naukowcy wprowadzają metrykę CRE w scenariuszach w świecie rzeczywistym Strażnicy—Moduły monitorujące decyzje AI i interweniują w razie potrzeby.
Jak działają strażnicy?
- W przypadku pojazdów autonomicznych, Strażnicy nieustannie symulują możliwe przyszłe scenariusze Aby określić ryzyko.
- Jeśli wykrywają niebezpieczny wynik, oni Zastąp obecny tryb jazdy pojazdu i przełącz go na bezpieczniejsze zachowanie.
- To pozwala systemom AI przewidywać Niebezpieczeństwa, zanim się zdarzają, zamiast reagować po fakcie.
Symulowanie bezpieczniejszych dróg za pomocą pojazdów autonomicznych
Badanie przetestowało ten model w Symulowane środowisko jazdy. Naukowcy podzielili pojazdy na dwie grupy:
- „Ego” – Pojazdy monitorowane i kontrolowane przez strażników.
- „Zmienia się” -Pojazdy w tle ze stałym, wstępnie ustawionym zachowaniem jazdy.
W tym Symulacja autostradyniektóre pojazdy ego mogły być kontrolowane przez strażników, podczas gdy inne nie.
Kluczowe ustalenia:
- Nawet gdy tylko niewielka liczba pojazdów była pod kontrolą strażnika, Ulepszyło się ogólne bezpieczeństwo drogowe.
- Mniej zderzeń wystąpił, pokazując, że proaktywna interwencja dokonała wymiernej różnicy.
- Utrzymane pojazdy duże prędkości, gdy są bezpieczne Ale zmienił się na ostrożną jazdę, gdy poziom ryzyka wzrósł.
Wyniki sugerują, że nawet częściowe przyjęcie z kontrolowanej przez strażnika sztucznej inteligencji może prowadzić do bezpieczniejsze warunki ruchu bez uszczerbku dla wydajności. Podczas gdy badanie koncentrowało się na pojazdach autonomicznych, Model CRE i strażnika może mieć zastosowanie do wielu innych pól napędzanych przez AI.
Potencjalne aplikacje obejmują:
- Robotyka: Zapewnienie, że roboty napędzane AI działają bezpiecznie wraz z ludźmi.
- Systemy handlu finansowego: Przewidywanie ruchów rynkowych wysokiego ryzyka i strategie dostosowywania.
- Automatyzacja przemysłowa: Zapobieganie podejmowaniu niebezpiecznych decyzji maszyn kontrolowanych przez AI.
Wyróżniony obraz obrazu: Kerem Gülen/Midjourney