ChatGPT wciąż ma halucynacje, ale OpenAI twierdzi, że ma na to sposób

04.06.2023 |
| Clock Przeczytasz w 2 Minuty
ChatGPT wciąż ma halucynacje, ale OpenAI twierdzi, że ma na to sposób
Przeczytasz w 2 Minuty
Zwiększ rozmiar tekstu

Wiele osób zachwyciło się działaniem ChatGPT. Chatbot jest niezwykle pomocny, zna odpowiedzi na wiele pytań i potrafi samodzielnie generować rozmaite treści: tekstowe, kod planistyczny i nie tylko. Jedną z bolączek narzędzia jest jednak problem z… prawdomównością. Chatbotowi zdarza się podawać nieprawdziwe, zmyślone lub niepełne informacje. Ciężko jest je odróżnić od poprawnych treści. OpenAI, czyli twórcy narzędzia, chcą z tym skończyć.

ChatGPT będzie mniej kłamliwy

W sieci możemy przeczytać wiele na temat tak zwanych „halucynacji” sztucznej inteligencji. Nie znając właściwej odpowiedzi na zadane pytanie, chatbot znajduje odpowiedź dość prawdopodobnie brzmiącą. W rzeczywistości czasami jest ona po prostu zmyślona i błędna. Nie jest to jednak błąd w algorytmach rządzących ChatGPT. Chatbot nie posiada bowiem „monopolu na prawdę”. Działanie ChatGPT opiera się właśnie na podawaniu prawdopodobnych odpowiedzi, których oczekuje użytkownik. Zwykle są to po prostu właściwe, potwierdzone dane, ale są od tego wyjątki. OpenAI chce z nimi walczyć, co uczyniłoby ich narzędzie jeszcze lepszym.

Dziś ChatGPT potrafi nie tylko podać zmyślone informacje. Może je argumentować nieistniejącymi wydarzeniami, czy podać nieistniejące źródła.

Czasami dochodzi do tego, że podważając takie informacje, chatbot wciąż brnie w zaparte. Używa kolejnych argumentów na to, aby udowodnić swoje fałszywe tezy.

ChatGPT z dostępem do Internetu
ChatGPT

O ile czasami takie zachowanie jest niegroźne, a nawet zabawne, w niektórych przypadkach może być problemem. ChatGPT mógłby bowiem być wykorzystany m.in. do udzielania porad medycznych. Dziś jest to dość ryzykowne.

Dwa nowe sposoby nadzorowania efektów pracy ChatGPT

Aby chatbot OpenAI był bardziej prawdomówny, twórcy chcą skorzystać z dwóch sposobów. Pierwszym jest nadzorowanie wyników wyświetlanych w oknie chatu. Druga metoda to nadzorowanie samego procesu – sprawdzanie danych w kolejnych krokach, gdy ChatGPT tworzy swoje odpowiedzi.

Do stworzenia takich „zabezpieczeń przed kłamstwami”, inżynierowi OpenAI zastosowali test na obliczeniach matematycznych. Dla różnych (poprawnych i błędnych) wyników ocenili, że bardziej skuteczne jest nadzorowanie samego „procesu myślowego” ChatGPT, a nie tylko sprawdzenie samych wyników.

Dlaczego ChatGPT podaje czasami nieprawdziwe informacje?

Sposób działania ChatGPT łączy szybkość i prawidłowość podawanych treści. Nie zawsze idzie to jednak w parze, co może się objawiać otrzymaniem nieprawdziwych danych. OpenAI stale z tym walczy. Na poprawę prawdomówności chatbota wpłynie nie tylko dodanie procesu nadzoru, ale również dalsze trenowanie sztucznej inteligencji.

Może zainteresują Cię także inne artykuły

Telefonami komórkowymi interesował się jeszcze w czasach, gdy przedrostek “smart”-” oznaczał możliwość wysłania SMS-a. Przed dokonaniem jakiegokolwiek zakupu zawsze ogląda wszystkie recenzje i testy. W wolnych chwilach lubi grać w szachy i na gitarze basowej.