Chatgpt-5 Openai zaczął odpowiadać „nie wiem”, kiedy nie może z pewnością odpowiedzieć na zapytanie, co jest znaczącą zmianą w stosunku do typowego zachowania chatbota, aby zapewnić odpowiedź niezależnie od jego niezawodności. Nowa funkcja, która zyskała uwagę po udostępnieniu interakcji w mediach społecznościowych, jest częścią wysiłku w celu rozwiązania długotrwałego problemu dezinformacji generowanej przez AI.
Rozwiązywanie problemu halucynacji AI
Trwałym wyzwaniem dla dużych modeli językowych jest kwestia „halucynacji”, w której AI generuje sfabrykowane informacje, takie jak fałszywe cytaty lub badania nieistniejące, z pewnym tonem. Jest to szczególnie niebezpieczne w dziedzinach takich jak medycyna lub prawo, w których użytkownicy mogą działać na podstawie nieprawidłowych informacji, nie zdając sobie sprawy, że są niewiarygodne. Użytkownicy często akceptują te wyniki według wartości nominalnej, ponieważ autorytatywna dostawa AI maskuje sfabrykowane szczegóły. Nowe podejście Chatgpt-5 bezpośrednio to przeciwdziała, wybierając uczciwość nad wynalazkiem. Kiedy model napotyka zapytanie, które nie spłaca danych szkoleniowych lub obejmuje niezweryfikowane roszczenia, stwierdzi teraz swoją niepewność, a nie generowanie spekulacyjnej lub nieprawidłowej odpowiedzi.
Jak działa funkcja „nie wiem”
Duże modele językowe, takie jak Chatgpt, nie pobierają faktów z bazy danych. Zamiast tego działają, przewidując następne słowo w sekwencji opartej na wzorcach statystycznych wyuczonych z ogromnych ilości tekstu. Ta metoda pozwala na płynną, podobną do człowieka rozmowę, ale może również prowadzić do wiarygodnych nieścisłości, gdy dane szkoleniowe są ograniczone na określony temat. Openai wdrożył próg zaufania do Chatgpt-5. Kiedy prognoza modelu odpowiedzi spadnie poniżej pewnego wyniku niezawodności, wywołuje odpowiedź „nie wiem”. Ten mechanizm uniemożliwia modelu dostarczenie prawidłowej gramatycznie, ale bez faktycznie bezpodstawnej odpowiedzi. Deweloperzy skalibrowali te progi poprzez szeroko zakrojone testy w celu zrównoważenia dostarczania pomocnych informacji z zachowaniem dokładności.
Budowanie zaufania użytkowników poprzez komunikowanie ograniczeń
Nowa funkcja została zaprojektowana w celu budowania zaufania użytkowników poprzez wyjaśnienie ograniczeń AI. Już wyraźnie oznaczając, gdy jest to niepewne, CHATGPT-5 zachęca użytkowników do poszukiwania zewnętrznej weryfikacji i bardziej krytycznego korzystania z narzędzia. Promuje to bardziej odpowiedzialną interakcję, pozycjonując sztuczną inteligencję jako pomocnego asystenta, a nie nieomylne źródło informacji. Ten ruch w kierunku większej przejrzystości jest zgodny z szerszym trendem branżowym, podobnie jak inne firmy Google’s Gemini I Claude antropiku badają także sposoby budowania podobnych zabezpieczeń w ich modelach AI. Przyjęcie niepewności odzwierciedla sposób działania ludzkich ekspertów, którzy często uznają granice swojej wiedzy i konsultują się z innymi źródłami. Ta funkcja stanowi krok w kierunku bardziej dopracowanych i odpowiedzialnych systemów AI, które mogą skutecznie przekazywać swoje granice.





