Google wykonało kolejny znaczący krok naprzód w wyścigu o poprawę dokładności i niezawodności modeli AI dzięki wstęp DataGemma, innowacyjne podejście łączące duże modele językowe Gemma (LLM) i projekt Data Commons. W centrum uwagi znajduje się technika zwana generacja wspomagana wyszukiwaniem (RAG)metoda zyskująca coraz większą popularność w przedsiębiorstwach, ale teraz, dzięki DataGemma, Google zamierza wprowadzić ją do głównego nurtu sztucznej inteligencji.
W swojej istocie RAG stara się rozwiązać jedno z największych wyzwań, z jakimi mierzą się LLM: problem halucynacji. W świecie generatywnej AI halucynacje odnoszą się do przypadków, w których model generuje informacje, które brzmią wiarygodnie, ale są nieprawdziwe. Jest to powszechny problem w systemach AI, zwłaszcza gdy brakuje im wiarygodnego oparcia w danych faktycznych. Celem Google w przypadku DataGemma jest „wykorzystanie wiedzy Data Commons w celu zwiększenia faktów i rozumowania LLM”, zajmując się tym problemem bezpośrednio.
Czym jest RAG?
Generowanie rozszerzone o pobieranie zmienia zasady gry, ponieważ nie opiera się wyłącznie na wstępnie wyszkolonych modelach AI w celu generowania odpowiedzi. Zamiast tego pobiera odpowiednie dane ze źródła zewnętrznego przed wygenerowaniem odpowiedzi. To podejście pozwala AI na dostarczanie dokładniejszych i kontekstowo istotnych odpowiedzi poprzez pobieranie rzeczywistych danych z repozytoriów. W przypadku DataGemma źródłem tych danych jest Projekt Data Commons firmy Googlepublicznie dostępne źródło danych gromadzące dane statystyczne pochodzące z renomowanych instytucji, takich jak Organizacja Narodów Zjednoczonych.
Ten krok Google mający na celu integrację Data Commons z modelami sztucznej inteligencji generatywnej stanowi pierwsza implementacja RAG na dużą skalę w chmurze. Podczas gdy wiele przedsiębiorstw używało RAG do osadzenia swoich modeli AI w zastrzeżonych danych, korzystanie z publicznego zasobu danych, takiego jak Data Commons, przenosi sprawy na zupełnie nowy poziom. Sygnalizuje to intencję Google, aby używać weryfikowalnych, wysokiej jakości danych, aby uczynić AI bardziej niezawodną i użyteczną w szerokim zakresie aplikacji.

Dwutorowe podejście Google’a
Według Google, DataGemma stosuje „dwa różne podejścia” zintegrować pobieranie danych z wyjściem LLM. Pierwsza metoda nazywa się generacja z pobieraniem i przeplotem (RIG). Dzięki RIG sztuczna inteligencja pobiera określone dane statystyczne w celu sprawdzenia faktów w pytaniach zadanych w monicie zapytania. Na przykład, jeśli użytkownik zapyta: „Czy wykorzystanie odnawialnych źródeł energii wzrosło na świecie?”, system może pobrać aktualne statystyki z Data Commons i zacytować je bezpośrednio w swojej odpowiedzi. To nie tylko poprawia dokładność faktów odpowiedzi, ale także zapewnia użytkownikom konkretne źródła informacji.
Druga metoda jest bardziej zgodna z tradycyjnym podejściem RAG. Tutaj model pobiera dane, aby wygenerować bardziej kompleksowe i szczegółowe odpowiedzi, cytując źródła danych, aby stworzyć pełniejszy obraz. „DataGemma pobiera istotne informacje kontekstowe z Data Commons zanim model zainicjuje generowanie odpowiedzi” Google stwierdza. Dzięki temu AI ma wszystkie niezbędne fakty pod ręką, zanim zacznie generować odpowiedź, co znacznie zmniejsza prawdopodobieństwo halucynacji.
Kluczową cechą DataGemma jest wykorzystanie technologii Google Model Gemini 1.5który może pochwalić się imponującym okno kontekstowe do 128 000 tokenów. W terminologii AI okno kontekstowe odnosi się do ilości informacji, jaką model może przechowywać w pamięci podczas przetwarzania zapytania. Im większe okno, tym więcej danych model może uwzględnić podczas generowania odpowiedzi. Gemini 1.5 może nawet skalować się do oszałamiającego 1 milion tokenówco pozwala na pobieranie ogromnych ilości danych z Data Commons i wykorzystywanie ich do tworzenia szczegółowych, zróżnicowanych odpowiedzi.
To rozszerzone okno kontekstowe jest krytyczne, ponieważ umożliwia DataGemma „zminimalizować ryzyko halucynacji i zwiększyć dokładność odpowiedzi” według Google. Dzięki przechowywaniu w pamięci bardziej istotnych informacji model może sprawdzać swoje własne wyniki z danymi ze świata rzeczywistego, zapewniając, że udzielane przez niego odpowiedzi są nie tylko istotne, ale także oparte na faktach.

Poza studiami LLM
Chociaż integracja technik RAG sama w sobie jest ekscytująca, DataGemma reprezentuje również szerszą zmianę w krajobrazie sztucznej inteligencji. Nie chodzi już tylko o duże modele językowe generujące tekst lub odpowiadające na pytania na podstawie tego, na czym zostały wyszkolone. Przyszłość AI leży w jej zdolności do integruj się ze źródłami danych w czasie rzeczywistymdbając o to, aby wyniki były możliwie najdokładniejsze i najbardziej aktualne.
Google nie jest w tym osamotniony. Zaledwie w zeszłym tygodniu, Zaprezentowano OpenAI jego Projekt „Truskawka”który stosuje inne podejście do ulepszania rozumowania AI. Strawberry używa metody znanej jako „łańcuch myśli”gdzie AI wyjaśnia kroki lub czynniki, których używa, aby dojść do przewidywania lub wniosku. Chociaż różni się od RAG, cel jest podobny: uczynić AI bardziej przejrzystą, niezawodną i użyteczną, dostarczając wglądu w rozumowanie stojące za jej odpowiedziami.
Co dalej z DataGemma?
Na razie prace nad DataGemma są w toku. Google przyznaje, że potrzeba więcej testów i prac rozwojowych zanim system będzie mógł być szeroko dostępny dla ogółu społeczeństwa. Jednak wczesne wyniki są obiecujące. Google twierdzi, że zarówno podejście RIG, jak i RAG doprowadziły do poprawy jakości wyników, przy czym „mniej halucynacji w przypadku zastosowań w badaniach, podejmowaniu decyzji lub po prostu zaspokajaniu ciekawości”.
Jest oczywiste, że Google, podobnie jak inne wiodące firmy AI, wykraczają poza podstawowe możliwości dużych modeli językowych. Przyszłość AI leży w jej zdolności do integracji z zewnętrznymi źródłami danych, niezależnie od tego, czy są to publiczne bazy danych, takie jak Data Commons, czy zastrzeżone dane korporacyjne. Dzięki temu AI może wyjść poza swoje ograniczenia i stać się potężniejszym narzędziem do podejmowania decyzji, badań i eksploracji.
Źródło wyróżnionego obrazu: Google