Proces budowania ontologii – tych ustrukturyzowanych, powiązanych z powiązaniami map wiedzy, które zasilają wszystko, od wyszukiwarek po rozumowanie AI – jest notorycznie złożony. Wymaga mieszanki wiedzy specjalistycznej w dziedzinie, logicznej rygorystycznej i niemal filozoficznego zrozumienia, w jaki sposób powiązane koncepcje. Przez lata inżynierowie ontologii zmagają się z wyzwaniem przekształcenia abstrakcyjnej wiedzy w strukturalne dane. Teraz duże modele językowe (LLM) wchodzą na ring, twierdząc, że mogą zrobić wiele ciężkich podnoszenia.
Zespół naukowców, w tym Anna Sofia Lippolis, Mohammad Javad Saeedizade i Eva Blomqvist, testował to twierdzenie. Ich najnowsze badanie Ocena, czy modele AI-Specyficznie Openai’s O1-Preview, GPT-4 i Meta’s Lama 3.1-mogą generować użyteczne ontologie z opisów języka naturalnego. Wyniki? Mieszanka obietnicy, pułapek i filozoficznych pytań dotyczących roli AI w reprezentacji wiedzy.
Inżynier ontologii napędzany AI
Tradycyjnie tworzenie ontologii polegało na takich metodologiach Methontology I Neonktórzy prowadzą inżynierów przez skomplikowany proces definiowania pojęć, relacji i ograniczeń. Ale nawet dla doświadczonych ekspertów proces ten jest czasochłonny i podatny na błędy. Naukowcy zaproponowali inne podejście: Niech LLM wygenerują fundament i pozwalają ekspertom ludzi udoskonalić wyniki.
Ich badanie wprowadzono dwie techniki podpowiedzi –Bez pamięci CQBYCQ I Ontogenia—Signed, aby pomóc AI generować ontologie krok po kroku. Obie metody opierały się na karmieniu podpowiedzi strukturalnych AI na podstawie pytania dotyczące kompetencji (zapytania o ontologię powinny być w stanie odpowiedzieć) i Historie użytkowników (Scenariusze w świecie rzeczywistym, które powinna wspierać ontologia).
Zamiast zmuszać sztuczną inteligencję do przetwarzania całej ontologii jednocześnie – zadanie, które często prowadzi do zdezorientowanych, rozdętych wyników – te podejścia rozbiły ten proces na modułowe kroki, prowadząc LLM przez logiczne konstrukcje po jednym kawałku.
Sensei: AI, która bada jak ciekawe dziecko
Jak dobrze działała AI?
Naukowcy przetestowali swoje metody na zestawie danych porównawczych, porównując ontologie generowane przez AI w stosunku do tych stworzonych przez początkujących inżynierów ludzi. Wyróżniający się wykonawca? Openai’s O1-Previewprzy użyciu metody monitowania ontogenii. Wyprodukował ontologie, które były nie tylko użyteczne, ale w wielu przypadkach, przewyższały osoby stworzone przez ludzkich początkujących.
Jednak badanie również podkreśliło Krytyczne ograniczenia. Ontologie generowane przez AI miały tendencję do wytwarzania nadmiarowych lub niespójnych elementów-takich jak definiowanie obu zatrudniony I ZatrudnienieStartDate dla tej samej koncepcji. Co gorsza, modele często zmagały się z drobniejszymi punktami logiki, generując nakładające się domeny i nieprawidłowe relacje odwrotne. W szczególności model Lamy Meta działał słabo, wytwarzając splątane hierarchie i wady strukturalne, które utrudniały jego ontologie.
Jeden z największych na wynos? Kontekst ma znaczenie. Kiedy LLM były zmuszone do pracy z zbyt dużą ilością informacji jednocześnie, ich wyniki ucierpiały. Przycinanie ich wkładu – stąd strategia „bez pamięci” – zmniejszyła nieistotne wyniki i poprawiło spójność.
Czy powinniśmy pozwolić AI przejąć inżynierię ontologii? Nie całkiem. Podczas gdy LLM mogą przyspieszyć proces przygotowywania, interwencja człowieka pozostaje niezbędna. AI jest świetna w szybkim tworzeniu ustrukturyzowanej wiedzy, ale jej wyniki wciąż potrzebują Logiczne udoskonalenie I Weryfikacja semantyczna—Skwy wymagające ludzkiego nadzoru.
Naukowcy sugerują, że prawdziwą rolą AI w inżynierii ontologii jest rola drugie pilot zamiast zamiennika. Zamiast budować wykresy wiedzy od zera, LLM mogą pomóc, generując strukturalne szkice, które ludzcy eksperci mogą udoskonalić. Przyszłe ulepszenia mogą koncentrować się na integracji Mechanizmy walidacji ontologii bezpośrednio do przepływów pracy AI, zmniejszając potrzebę ręcznych poprawek.
Innymi słowy, AI może Pomóż mapować terytoriumale ludzie nadal muszą Sprawdź punkty orientacyjne.
Badanie rodzi również głębsze pytanie dotyczące zdolności AI do zrozumienia wiedzy. Czy model naprawdę „uchwycił” relacje ontologiczne, czy też gra po prostu zaawansowaną grę statystycznego dopasowania wzorów? W miarę ewolucji AI, linia między ludzką logiką a rozumowaniem generowanym przez maszynę rozmywa się-ale na razie ludzcy inżynierowie nadal mają ostateczne słowo.
LLM mogą generować zaskakująco wysokiej jakości szkice ontologii, ale ich wyniki pozostają niespójne i wymagają wyrafinowania człowieka. Jeśli celem jest efektywnośćWspomagana przez AI inżynieria ontologii okazuje się już przydatna. Jeśli celem jest doskonałośćwciąż jest długa droga.
Wyróżniony obraz obrazu: Kerem Gülen/Imagen 3