AI jest dobra w rozpoznawaniu wzorców, ale walczy z rozumowaniem. Tymczasem ludzkie poznanie jest głęboko zakorzenione w logice i spójności. Co jeśli moglibyśmy Połącz to, co najlepsze z obu światów-Surowa moc obliczeniowa dużych modeli językowych (LLM) i ustrukturyzowane, oparte na regułach myślenie o symbolicznej AI?
To jest cel Neurosymboliczne AInowe podejście, które łączy głębokie uczenie się z wnioskiem napędzanym koherencją (CDI). Naukowcy Huntsman i Thomas proponują metodę, która pozwala LLMS konstruuj logiczne relacje z języka naturalnego, otwierając drzwi do Lepsze podejmowanie decyzji, rozwiązywanie problemów, a nawet oparte na AI i rozumowanie prawne.
To badanie „”Sztuczna inteligencja neurosymboliczna poprzez duże modele językowe i wnioskowanie oparte na spójności”Prowadzony przez Steve’a Huntsmana i Jewella Thomasa z Cynnovative, bada nowe podejście do integracji wnioskowania opartego na koherencji (CDI) z dużymi modelami językowymi (LLM). Opracowując algorytm, który przekształca propozycje języka naturalnego w ustrukturyzowane wykresy koherencji, naukowcy analityczni modeli AI do rekonstrukcji relacji logicznych.
Co to jest wnioskowanie oparte na koherencji?
Wnioskowanie napędzane spójnością (CDI) jest sposobem na podejmowanie decyzji w oparciu o to, jak dobrze pasuje do siebie zestaw propozycji. Zamiast po prostu akceptować lub odrzucić poszczególne fakty, CDI buduje wykres relacjiprzypisując wagi do spójny I sprzeczny stwierdzenia.
Wykres spójności połączyłby te propozycje i Zdobądź ich spójnośćpomagając AI określić Które stwierdzenia najprawdopodobniej będą prawdziwe.
Problem? Do tej pory te wykresy musiały być ręcznie zbudowany– Proces żmudny i niepraktyczny. Nowe badania proponują algorytm, który może automatycznie generuj te wykresy z Wkład języka naturalnego i sprawdź, jak dobrze LLM mogą je odtworzyć.
Dlaczego małe modele AI nie mogą nadążyć za dużymi
Nauczanie LLM do budowania struktur logicznych
Metoda naukowców obejmuje dwa kluczowe etapy:
- Generowanie propozycji: Zestaw stwierdzeń jest tworzony w języku naturalnym, odzwierciedlając strukturę logiczną.
- Rekonstruowanie wykresów spójności: Następnie wynika z analizy tych stwierdzeń i odbudowy podstawowej struktury wykresu.
W ten sposób zmuszone są modele AI Pomyśl bardziej jak ludzieoceniając nie tylko indywidualne fakty, ale jak łączą się z szerszą siecią wiedzy.
Czy AI może to zrobić dobrze?
Badanie przetestowano różne LLM, z GPT-4O i Claude 3.5 Do Modele typu open source, takie jak QWEN-32B i LAMA-3.3. Wyniki były Zaskakująco obiecujące– niektóre modele były w stanie zrekonstruować wykresy koherencji z wysoką dokładnością, nawet pod pod Niepewne lub niejednoznaczne warunki.
Co ciekawe, Modele zoptymalizowane do rozumowaniatak jak O1-Mini i QWQ-32bwykonałem najlepsze. Sugeruje to, że systemy AI specjalnie przeszkoleni Strukturalne rozwiązywanie problemów może przewyższyć ogólne llms podczas obsługi złożonych zadań rozumowania.
U podstaw Wnioskowanie napędzane spójnością (CDI) to pomysł, że wiedza to nie tylko zbiór Izolowane fakty– To sieć współzależne prawdy. Metoda wprowadzona przez Huntsmana i Thomasa Struktury wiedzy jako Wykres spójnościGdzie:
- Węzły Reprezentuj propozycje (np. „Haga jest stolicą”).
- Krawędzie reprezentować konsystencja Lub niezgodność między tymi propozycjami.
Jeśli propozycja obsługuje innydostaje Pozytywne połączenie. Jeśli są sprzeczne z dwoma oświadczeniami, otrzymują Negatywne połączenie. Cel? Do zmaksymalizować spójność oddzielając prawdziwe i fałszywe stwierdzenia do różnych klastrów.
Problem znalezienia najbardziej spójnej partycji na wykresie okazuje się matematycznie równoważny Max-Cutdobrze znane wyzwanie obliczeniowe. Neurosymboliczne AI zajmuje się tym, łącząc zrozumienie języka naturalnego LLM z rozumowaniem opartym na wykresie CDI.
Podejście naukowców czerpie inspirację Zarówno psychologia, jak i informatyka. CDI został użyty do modelowania podejmowanie decyzji przez ludziRozumowanie prawne, a nawet wnioskowanie przyczynowe w nauce. Ale do tej pory wykresy CDI musiały być ręcznie konstruowane.
Aby zautomatyzować ten proces, badanie proponuje algorytm, który:
- Przekształca propozycje języka naturalnego w ustrukturyzowany wykres spójności.
- Trenuje LLM do rekonstrukcji tych wykresówtestowanie ich zdolności do identyfikowania relacji między faktami.
- Benchmarks wydajność w różnych modelach AIanalizując, jak dobrze zachowują logiczną spójność.
Aby przetestować, jak dobrze LLM radzi sobie z wnioskiem napędzanym koherencją, naukowcy wygenerowali syntetyczne wykresy koherencji i nakarmili je w różne modele AI. Wykresy te zawierały zarówno spójne, jak i sprzeczne stwierdzenia, kwestionując modele do identyfikowania struktur logicznych, a nie tylko zwracania informacji.
Testowali:
- Claude 3.5 i GPT-4O (wysokiej klasy komercyjne LLM)
- QWQ-32B, O1-Mini i Llama-3 (Modele open source zoptymalizowane do rozumowania)
- Phi-4 i Gemini 1.5/2.0 (Modele mniejsze i średniej wielkości)
Wyniki pokazały, że:
- Modele zoptymalizowane pod kątem rozumowania (takie jak O1-MINI i QWQ-32B) znacznie przewyższały LLM ogólnego zastosowania.
- Niektóre modele z powodzeniem zrekonstruowały oryginalny wykres koherencji – nawet w obliczu niepewnych lub niejednoznacznych informacji.
- LLM zmagało się z bardziej złożonymi strukturami logicznymi, szczególnie gdy wiele propozycji było współzależnych.
To badanie jest ważnym krokiem w kierunku Naprawdę inteligentna sztuczna inteligencja. Zamiast traktować język jak Statystyczna gra zgadywaniaWnioskowanie napędzane spójnością zmusza AI Oceń logiczną spójnośćco prowadzi do:
- Bardziej niezawodne wyjścia AI (Mniej halucynacji, dokładniejsze rozumowanie)
- Lepsza wyjaśnienie (Decyzje AI oparte na jawnych strukturach logicznych)
- Ulepszone rozwiązywanie problemów (dotyczy prawa, nauki i zarządzania)
Wyróżniony obraz obrazu: Tara Winstead/Pexels