Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Jak neurosymboliczne AI łączy logiczne rozumowanie z LLM

byKerem Gülen
20 lutego 2025
in Research
Home Research

AI jest dobra w rozpoznawaniu wzorców, ale walczy z rozumowaniem. Tymczasem ludzkie poznanie jest głęboko zakorzenione w logice i spójności. Co jeśli moglibyśmy Połącz to, co najlepsze z obu światów-Surowa moc obliczeniowa dużych modeli językowych (LLM) i ustrukturyzowane, oparte na regułach myślenie o symbolicznej AI?

To jest cel Neurosymboliczne AInowe podejście, które łączy głębokie uczenie się z wnioskiem napędzanym koherencją (CDI). Naukowcy Huntsman i Thomas proponują metodę, która pozwala LLMS konstruuj logiczne relacje z języka naturalnego, otwierając drzwi do Lepsze podejmowanie decyzji, rozwiązywanie problemów, a nawet oparte na AI i rozumowanie prawne.

To badanie „”Sztuczna inteligencja neurosymboliczna poprzez duże modele językowe i wnioskowanie oparte na spójności”Prowadzony przez Steve’a Huntsmana i Jewella Thomasa z Cynnovative, bada nowe podejście do integracji wnioskowania opartego na koherencji (CDI) z dużymi modelami językowymi (LLM). Opracowując algorytm, który przekształca propozycje języka naturalnego w ustrukturyzowane wykresy koherencji, naukowcy analityczni modeli AI do rekonstrukcji relacji logicznych.

Co to jest wnioskowanie oparte na koherencji?

Wnioskowanie napędzane spójnością (CDI) jest sposobem na podejmowanie decyzji w oparciu o to, jak dobrze pasuje do siebie zestaw propozycji. Zamiast po prostu akceptować lub odrzucić poszczególne fakty, CDI buduje wykres relacjiprzypisując wagi do spójny I sprzeczny stwierdzenia.

Wykres spójności połączyłby te propozycje i Zdobądź ich spójnośćpomagając AI określić Które stwierdzenia najprawdopodobniej będą prawdziwe.

Problem? Do tej pory te wykresy musiały być ręcznie zbudowany– Proces żmudny i niepraktyczny. Nowe badania proponują algorytm, który może automatycznie generuj te wykresy z Wkład języka naturalnego i sprawdź, jak dobrze LLM mogą je odtworzyć.


Dlaczego małe modele AI nie mogą nadążyć za dużymi


Nauczanie LLM do budowania struktur logicznych

Metoda naukowców obejmuje dwa kluczowe etapy:

  1. Generowanie propozycji: Zestaw stwierdzeń jest tworzony w języku naturalnym, odzwierciedlając strukturę logiczną.
  2. Rekonstruowanie wykresów spójności: Następnie wynika z analizy tych stwierdzeń i odbudowy podstawowej struktury wykresu.

W ten sposób zmuszone są modele AI Pomyśl bardziej jak ludzieoceniając nie tylko indywidualne fakty, ale jak łączą się z szerszą siecią wiedzy.

Czy AI może to zrobić dobrze?

Badanie przetestowano różne LLM, z GPT-4O i Claude 3.5 Do Modele typu open source, takie jak QWEN-32B i LAMA-3.3. Wyniki były Zaskakująco obiecujące– niektóre modele były w stanie zrekonstruować wykresy koherencji z wysoką dokładnością, nawet pod pod Niepewne lub niejednoznaczne warunki.

Co ciekawe, Modele zoptymalizowane do rozumowaniatak jak O1-Mini i QWQ-32bwykonałem najlepsze. Sugeruje to, że systemy AI specjalnie przeszkoleni Strukturalne rozwiązywanie problemów może przewyższyć ogólne llms podczas obsługi złożonych zadań rozumowania.

U podstaw Wnioskowanie napędzane spójnością (CDI) to pomysł, że wiedza to nie tylko zbiór Izolowane fakty– To sieć współzależne prawdy. Metoda wprowadzona przez Huntsmana i Thomasa Struktury wiedzy jako Wykres spójnościGdzie:

  • Węzły Reprezentuj propozycje (np. „Haga jest stolicą”).
  • Krawędzie reprezentować konsystencja Lub niezgodność między tymi propozycjami.

Jeśli propozycja obsługuje innydostaje Pozytywne połączenie. Jeśli są sprzeczne z dwoma oświadczeniami, otrzymują Negatywne połączenie. Cel? Do zmaksymalizować spójność oddzielając prawdziwe i fałszywe stwierdzenia do różnych klastrów.

Problem znalezienia najbardziej spójnej partycji na wykresie okazuje się matematycznie równoważny Max-Cutdobrze znane wyzwanie obliczeniowe. Neurosymboliczne AI zajmuje się tym, łącząc zrozumienie języka naturalnego LLM z rozumowaniem opartym na wykresie CDI.

Podejście naukowców czerpie inspirację Zarówno psychologia, jak i informatyka. CDI został użyty do modelowania podejmowanie decyzji przez ludziRozumowanie prawne, a nawet wnioskowanie przyczynowe w nauce. Ale do tej pory wykresy CDI musiały być ręcznie konstruowane.

Aby zautomatyzować ten proces, badanie proponuje algorytm, który:

  1. Przekształca propozycje języka naturalnego w ustrukturyzowany wykres spójności.
  2. Trenuje LLM do rekonstrukcji tych wykresówtestowanie ich zdolności do identyfikowania relacji między faktami.
  3. Benchmarks wydajność w różnych modelach AIanalizując, jak dobrze zachowują logiczną spójność.

Aby przetestować, jak dobrze LLM radzi sobie z wnioskiem napędzanym koherencją, naukowcy wygenerowali syntetyczne wykresy koherencji i nakarmili je w różne modele AI. Wykresy te zawierały zarówno spójne, jak i sprzeczne stwierdzenia, kwestionując modele do identyfikowania struktur logicznych, a nie tylko zwracania informacji.

Testowali:

  • Claude 3.5 i GPT-4O (wysokiej klasy komercyjne LLM)
  • QWQ-32B, O1-Mini i Llama-3 (Modele open source zoptymalizowane do rozumowania)
  • Phi-4 i Gemini 1.5/2.0 (Modele mniejsze i średniej wielkości)

Wyniki pokazały, że:

  • Modele zoptymalizowane pod kątem rozumowania (takie jak O1-MINI i QWQ-32B) znacznie przewyższały LLM ogólnego zastosowania.
  • Niektóre modele z powodzeniem zrekonstruowały oryginalny wykres koherencji – nawet w obliczu niepewnych lub niejednoznacznych informacji.
  • LLM zmagało się z bardziej złożonymi strukturami logicznymi, szczególnie gdy wiele propozycji było współzależnych.

To badanie jest ważnym krokiem w kierunku Naprawdę inteligentna sztuczna inteligencja. Zamiast traktować język jak Statystyczna gra zgadywaniaWnioskowanie napędzane spójnością zmusza AI Oceń logiczną spójnośćco prowadzi do:

  • Bardziej niezawodne wyjścia AI (Mniej halucynacji, dokładniejsze rozumowanie)
  • Lepsza wyjaśnienie (Decyzje AI oparte na jawnych strukturach logicznych)
  • Ulepszone rozwiązywanie problemów (dotyczy prawa, nauki i zarządzania)

Wyróżniony obraz obrazu: Tara Winstead/Pexels

Tags: AiLLMWyróżniony

Related Posts

Narzędzia badawcze AI mogą powodować więcej problemów niż rozwiązują

Narzędzia badawcze AI mogą powodować więcej problemów niż rozwiązują

14 maja 2025
Czy twój bardzo pomocny partner generatywny AI potajemnie sprawia, że ​​twoja praca jest nudna?

Czy twój bardzo pomocny partner generatywny AI potajemnie sprawia, że ​​twoja praca jest nudna?

14 maja 2025
Adele Microsoft chce nadać twojej sztucznej inteligencji profilu poznawczego

Adele Microsoft chce nadać twojej sztucznej inteligencji profilu poznawczego

14 maja 2025
Apple Research Paper zaprezentuje Matrix3D do generowania treści 3D

Apple Research Paper zaprezentuje Matrix3D do generowania treści 3D

14 maja 2025
Badania: Złoty standard oceny Genai

Badania: Złoty standard oceny Genai

12 maja 2025
AI w końcu rozwiązuje najtrudniejszą zagadkę biologii

AI w końcu rozwiązuje najtrudniejszą zagadkę biologii

6 maja 2025

Recent Posts

  • Wpływ inteligentnych tkanin na taktyczną wydajność odzieży
  • Databricks obstawia duże na serwerze Postgres z przejęciem neonów w wysokości 1 miliarda dolarów
  • Alphaevolve: Jak nowa sztuczna inteligencja Google dąży do prawdy z samokonmitowaniem
  • Tiktok wdraża teksty AlT generowane przez AI, aby uzyskać lepszą dostępność
  • Trump zmusza Apple do przemyślenia swojej strategii iPhone’a w Indiach

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.