Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Openai’s Chatgpt-5 w końcu dostał "połowa wiedzy"

byEmre Çıtak
17 września 2025
in Artificial Intelligence
Home Artificial Intelligence
Share on FacebookShare on Twitter

Chatgpt-5 Openai zaczął odpowiadać „nie wiem”, kiedy nie może z pewnością odpowiedzieć na zapytanie, co jest znaczącą zmianą w stosunku do typowego zachowania chatbota, aby zapewnić odpowiedź niezależnie od jego niezawodności. Nowa funkcja, która zyskała uwagę po udostępnieniu interakcji w mediach społecznościowych, jest częścią wysiłku w celu rozwiązania długotrwałego problemu dezinformacji generowanej przez AI.

Rozwiązywanie problemu halucynacji AI

Trwałym wyzwaniem dla dużych modeli językowych jest kwestia „halucynacji”, w której AI generuje sfabrykowane informacje, takie jak fałszywe cytaty lub badania nieistniejące, z pewnym tonem. Jest to szczególnie niebezpieczne w dziedzinach takich jak medycyna lub prawo, w których użytkownicy mogą działać na podstawie nieprawidłowych informacji, nie zdając sobie sprawy, że są niewiarygodne. Użytkownicy często akceptują te wyniki według wartości nominalnej, ponieważ autorytatywna dostawa AI maskuje sfabrykowane szczegóły. Nowe podejście Chatgpt-5 bezpośrednio to przeciwdziała, wybierając uczciwość nad wynalazkiem. Kiedy model napotyka zapytanie, które nie spłaca danych szkoleniowych lub obejmuje niezweryfikowane roszczenia, stwierdzi teraz swoją niepewność, a nie generowanie spekulacyjnej lub nieprawidłowej odpowiedzi.

Jak działa funkcja „nie wiem”

Duże modele językowe, takie jak Chatgpt, nie pobierają faktów z bazy danych. Zamiast tego działają, przewidując następne słowo w sekwencji opartej na wzorcach statystycznych wyuczonych z ogromnych ilości tekstu. Ta metoda pozwala na płynną, podobną do człowieka rozmowę, ale może również prowadzić do wiarygodnych nieścisłości, gdy dane szkoleniowe są ograniczone na określony temat. Openai wdrożył próg zaufania do Chatgpt-5. Kiedy prognoza modelu odpowiedzi spadnie poniżej pewnego wyniku niezawodności, wywołuje odpowiedź „nie wiem”. Ten mechanizm uniemożliwia modelu dostarczenie prawidłowej gramatycznie, ale bez faktycznie bezpodstawnej odpowiedzi. Deweloperzy skalibrowali te progi poprzez szeroko zakrojone testy w celu zrównoważenia dostarczania pomocnych informacji z zachowaniem dokładności.

Budowanie zaufania użytkowników poprzez komunikowanie ograniczeń

Nowa funkcja została zaprojektowana w celu budowania zaufania użytkowników poprzez wyjaśnienie ograniczeń AI. Już wyraźnie oznaczając, gdy jest to niepewne, CHATGPT-5 zachęca użytkowników do poszukiwania zewnętrznej weryfikacji i bardziej krytycznego korzystania z narzędzia. Promuje to bardziej odpowiedzialną interakcję, pozycjonując sztuczną inteligencję jako pomocnego asystenta, a nie nieomylne źródło informacji. Ten ruch w kierunku większej przejrzystości jest zgodny z szerszym trendem branżowym, podobnie jak inne firmy Google’s Gemini I Claude antropiku badają także sposoby budowania podobnych zabezpieczeń w ich modelach AI. Przyjęcie niepewności odzwierciedla sposób działania ludzkich ekspertów, którzy często uznają granice swojej wiedzy i konsultują się z innymi źródłami. Ta funkcja stanowi krok w kierunku bardziej dopracowanych i odpowiedzialnych systemów AI, które mogą skutecznie przekazywać swoje granice.


Polecane wizerunki

Tags: ChatgptGPT-5OpenaiWyróżniony

Related Posts

Qwen Code v0.5.0 firmy Alibaba przekształca terminal w pełny ekosystem deweloperski

Qwen Code v0.5.0 firmy Alibaba przekształca terminal w pełny ekosystem deweloperski

26 grudnia 2025
ChatGPT ewoluuje w pakiet biurowy z nowymi blokami formatowania

ChatGPT ewoluuje w pakiet biurowy z nowymi blokami formatowania

26 grudnia 2025
Google NotebookLM przedstawia "Tryb wykładu" na 30-minutową naukę sztucznej inteligencji

Google NotebookLM przedstawia "Tryb wykładu" na 30-minutową naukę sztucznej inteligencji

26 grudnia 2025
Amazon dodaje Angi, Expedia, Square i Yelp do Alexa+

Amazon dodaje Angi, Expedia, Square i Yelp do Alexa+

26 grudnia 2025
Robotaxis Waymo może otrzymać asystenta samochodowego Gemini AI

Robotaxis Waymo może otrzymać asystenta samochodowego Gemini AI

26 grudnia 2025
Dlaczego NVIDIA pomija procesor Intel 18A w swoich układach AI nowej generacji

Dlaczego NVIDIA pomija procesor Intel 18A w swoich układach AI nowej generacji

26 grudnia 2025

Recent Posts

  • Qwen Code v0.5.0 firmy Alibaba przekształca terminal w pełny ekosystem deweloperski
  • Bethesda planuje 600-godzinną rozgrywkę w Falloucie 5
  • ASUS broni źle ustawionego portu zasilania HyperX w RTX 5090 jako "zamierzony projekt"
  • NVIDIA udostępnia open source CUDA Tile IR w serwisie GitHub
  • Dyrektor generalny MicroStrategy mówi o podstawach Bitcoina "nie mogło być lepiej"

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.