Technologia inteligentnego domu zmienia się na zawsze, a jedną z najbardziej wpływowych aplikacji jest Rozpoznawanie działalności człowieka (Har). HAR umożliwia inteligentnym systemom monitorowanie codziennych czynności, takich jak gotowanie, spanie lub ćwiczenia, zapewniając niezbędne wsparcie w dziedzinach takich jak opieka zdrowotna i życie wspomagane. Jednak podczas gdy modele głębokiego uczenia się znacznie poprawiły dokładność HAR, często działają jako „czarne skrzynki”, oferując niewielką przejrzystość procesu decyzyjnego.
Aby się tym zająć, naukowcy z University of Milan – Michele Fiori, Davide Mor, Gabriele Civiaryse i Claudio Bettini – są wprowadzone GNN-XARpierwszy Wyjaśniająca sieć neuronowa (GNN) do rozpoznawania aktywności inteligentnej domu. Ten innowacyjny model nie tylko poprawia wydajność HAR, ale także generuje czytelne ludzkie wyjaśnienia jego prognoz.
Potrzeba wyjaśnienia sztucznej inteligencji w inteligentnych domach
Większość istniejących systemów HAR opiera się na modelach głębokiego uczenia się, takich jak Zwrócone sieci neuronowe (CNN) i nawracające sieci neuronowe (RNN). Modele te, które są skuteczne, zmagają się z możliwością wyjaśnienia, co utrudnia użytkownikom – w tym specjalistom medycznym i naukowcom danych – aby zrozumieć, dlaczego wykryto określone działanie. Wyjaśniająca AI (XAI) stara się to złagodzić, zapewniając wgląd w modele decyzji, zwiększając zaufanie i użyteczność w rzeczywistych aplikacjach.
Graph Neural Networks (GNN) pojawiły się jako potężne narzędzie do modelowania danych czujników szeregów czasowych w inteligentnych domach, jak to możliwe Uchwyć zarówno przestrzenne, jak i czasowe relacje między odczytami czujników. Jednak istniejące podejścia HAR oparte na GNN nie mają wbudowanej wyjaśniania. W tym miejscu GNN-XAR rozróżnia się, oferując innowacyjne rozwiązanie, które łączy HAR oparty na wykresach z mechanizmami interpretacjiczyniąc go pierwszym tego rodzaju w terenie.
Emoti-attack: jak emoji mogą oszukać modele języków AI
Jak działa GNN-XAR
GNN-XAR wprowadza powieść podejście oparte na wykresach do przetwarzania danych czujnika. Zamiast traktować odczyty czujników jako izolowane zdarzenia, to Konstruuje wykresy dynamiczne Te relacje modelu między różnymi czujnikami w czasie. Każdy wykres jest przetwarzany za pomocą Graph Convolutional Network (GCN)który identyfikuje najbardziej prawdopodobną aktywność. Aby zapewnić przejrzystość, dostosowany Technika XAI zaprojektowana specjalnie dla GNN Podkreśla najbardziej odpowiednie węzły (odczyty czujników) i łukowe (zależności czasowe), które przyczyniły się do ostatecznej prognozy.
. Proces budowy wykresu jest kluczową innowacją w GNN-XAR. Wydarzenia czujników – takie jak wykrywanie ruchu, użycie urządzeń i otwory drzwi – są reprezentowane jako węzły, podczas gdy krawędzie wychwytują ich relacje czasowe i przestrzenne. System rozróżnia dwa typy czujników:
- Wyraźne czujniki interakcji (np. Czujniki drzwi gabinetu), które generują zarówno zdarzenia na, jak i poza nim.
- Czujniki pasywne (np. Detektory ruchu), w którym obliczany jest tylko zdarzenia aktywacyjne, a czas trwania.
Aby zachować strukturę i wydajność, system wprowadza super-nod te zdarzenia czujników związane z grupą. Umożliwia to modelu GNN przetwarzanie złożonych interakcji czujników przy jednoczesnym zarządzaniu obliczeniami.
Jak GNN-XAR wyjaśnia swoje decyzje
W przeciwieństwie do tradycyjnych modeli głębokiego uczenia się, które zapewniają tylko wyniki klasyfikacyjne, używa GNN-XAR Gnnexplainerspecjalistyczna metoda XAI dostosowana do modeli opartych na wykresach. Ta metoda identyfikuje najważniejsze węzły i krawędzie, które wpłynęły na prognozę. Kluczową innowacją w GNN-XAR jest dostosowanie GNNexplainer do bezproblemowo z danymi inteligentnymi domami, zapewniając, że oba wyjaśnienia są oba Dokładne i czytelne człowieka.
Na przykład, jeśli system przewiduje „przygotowanie posiłków”, może podkreślić takie zdarzenia, jak Powtarzane otwory lodówki, a następnie aktywacja piecazapewniając logiczne i zrozumiałe uzasadnienie swojej klasyfikacji. Model następnie przekształca to wyjaśnienie w język naturalny, dzięki czemu jest dostępny dla użytkowników nie-ekspertów.
Wyniki eksperymentalne
GNN-XAR został przetestowany na dwóch publicznych zestawach danych Smart Home-Casas Milan I Casas Aruba– które zawierają dane czujnika z prawdziwych domów. Model został oceniony przeciwko Dexarnajnowocześniejszy, wyjaśniony system HAR, który wykorzystuje metody oparte na CNN. Wyniki wykazały, że GNN-XAR nie tylko zapewniał dokładniejsze prognozy ale także generowane bardziej znaczące wyjaśnienia w porównaniu z istniejącymi metodami HAR opartymi na XAI.
Kluczowe ustalenia obejmują:
- Nieco wyższa dokładność rozpoznawania niż Dexar, szczególnie w przypadku działań o silnych zależnościach czasowych (np. „Opuszczanie domu”).
- Doskonała wyjaśnieniezgodnie z metodą oceny przy użyciu dużych modeli językowych (LLM) w celu oceny jasności i znaczenia wyjaśnienia.
- Poprawia obsługi złożonych relacji czujnikówumożliwiając bardziej niezawodną wydajność Har.
Wyróżniony obraz obrazu: Ihor Saveliev/Unsplash