Sztuczna inteligencja ogólna (AGI), teoretyczna forma sztucznej inteligencji zdolna do naśladowania inteligencji na poziomie ludzkim, może przynieść radykalne zmiany w świecie technologii. W przeciwieństwie do dzisiejszej wąskiej sztucznej inteligencji, zaprogramowanej do konkretnych zadań, takich jak identyfikowanie wad produktów lub podsumowywanie artykułów prasowych, AGI zapewnia elastyczność w szerokim zakresie wyzwań opartych na myśleniu. Jednak postacie z branży, takie jak dyrektor generalny Nvidii Jensen Huang, są, co zrozumiałe, ostrożne, jeśli chodzi o przewidywanie konkretnego harmonogramu pojawienia się tej technologii.
AGI może pojawić się za 5 lat
Etyczne i społeczne implikacje AGI wydają się ogromne. Jeśli systemy te opracują własne cele niezgodne z celami ludzkimi, konsekwencje mogą być poważne. Istnieje obawa, że wystarczająco zaawansowana AGI może stać się niekontrolowana, a jej wyniki będą trudne do przewidzenia lub odwrócenia.
Choć waha się przed angażowaniem się w apokaliptyczne scenariusze preferowane przez media, Huang zdaje sobie sprawę ze złożoności rozwoju AGI. Kluczową przeszkodą jest ustalenie obiektywnych kryteriów definiujących, co stanowi prawdziwą AGI. Czy opiera się wyłącznie na wydajności? Czy AGI można mierzyć na podstawie jego zdolności do samodzielnego rozumowania, planowania i uczenia się?

Huang skorzystał z okazji, aby podzielić się z mediami swoimi poglądami na ten temat. Twierdzi, że prognozowanie pojawienia się wykonalnego AGI zależy od definicji samego AGI. Dokonuje porównania i zauważa, że pomimo złożoności wprowadzonej przez strefy czasowe, jest jasne, kiedy przypada Nowy Rok i kiedy rozpocznie się rok 2025.
„Gdybyśmy określili AGI jako coś bardzo specyficznego, zestaw testów, w których program może sobie poradzić bardzo dobrze — a może 8% lepiej niż większość ludzi — Wierzę, że uda nam się to osiągnąć w ciągu 5 lat”- zauważa Huang. Proponuje hipotetyczne kamienie milowe AGI, takie jak lepsze wyniki od ekspertów w egzaminach prawnych, ekonomicznych czy medycznych. Jednak dopóki sama koncepcja AGI nie zostanie bardziej konkretnie zdefiniowana, dokładne przewidywania pozostają trudne.
Kwestia halucynatów
Kolejna poważna obawa dotyczy kwestii sztucznej inteligencji „halucynacje” – te pozornie prawdopodobne, ale ostatecznie nieprawdziwe stwierdzenia generowane przez niektóre modele sztucznej inteligencji. Huang wyraża jednak pewność, że problem ten można rozwiązać, kładąc nacisk na rygorystyczne praktyki weryfikacyjne.
Huang podkreśla konieczność dodania wymiaru badawczego do tworzenia odpowiedzi generowanych przez sztuczną inteligencję, podkreślając to jako „generowanie wspomagane odzyskiwaniem”. Nalega: „Dodaj regułę: dla każdej pojedynczej odpowiedzi musisz sprawdzić odpowiedź”, definiując tę metodę jako „pokolenie wspomagane wyszukiwaniem.Wyjaśnia, że strategia ta odzwierciedla podstawowe założenia umiejętności korzystania z mediów, które obejmują ocenę pochodzenia i kontekstu informacji.

Procedura polega na porównaniu informacji pochodzących ze źródła z ustalonymi prawdami. Jeśli informacja okaże się choć trochę nieprawdziwa, należy odłożyć źródło na bok i poszukać innego. Huang podkreśla, że rolą sztucznej inteligencji nie jest tylko dostarczanie odpowiedzi, ale także prowadzenie wstępnych dochodzeń w celu ustalenia najdokładniejszych odpowiedzi.
W przypadku odpowiedzi o istotnym znaczeniu, takich jak porady medyczne, szef Nvidii sugeruje, że kluczowe znaczenie ma weryfikacja informacji z różnych zaufanych źródeł. Oznacza to, że sztuczna inteligencja odpowiedzialna za generowanie odpowiedzi musi być w stanie rozpoznać, kiedy brakuje jej informacji wystarczających do udzielenia odpowiedzi, kiedy nie ma jasnego konsensusu co do prawidłowej odpowiedzi lub kiedy pewne informacje, takie jak wynik przyszłych wydarzeń, nie jest jeszcze dostępny.
Autor wyróżnionego obrazu: NVIDIA