ChatGPT wciąż ma halucynacje, ale OpenAI twierdzi, że ma na to sposób
Wiele osób zachwyciło się działaniem ChatGPT. Chatbot jest niezwykle pomocny, zna odpowiedzi na wiele pytań i potrafi samodzielnie generować rozmaite treści: tekstowe, kod planistyczny i nie tylko. Jedną z bolączek narzędzia jest jednak problem z… prawdomównością. Chatbotowi zdarza się podawać nieprawdziwe, zmyślone lub niepełne informacje. Ciężko jest je odróżnić od poprawnych treści. OpenAI, czyli twórcy narzędzia, chcą z tym skończyć.
ChatGPT będzie mniej kłamliwy
W sieci możemy przeczytać wiele na temat tak zwanych „halucynacji” sztucznej inteligencji. Nie znając właściwej odpowiedzi na zadane pytanie, chatbot znajduje odpowiedź dość prawdopodobnie brzmiącą. W rzeczywistości czasami jest ona po prostu zmyślona i błędna. Nie jest to jednak błąd w algorytmach rządzących ChatGPT. Chatbot nie posiada bowiem „monopolu na prawdę”. Działanie ChatGPT opiera się właśnie na podawaniu prawdopodobnych odpowiedzi, których oczekuje użytkownik. Zwykle są to po prostu właściwe, potwierdzone dane, ale są od tego wyjątki. OpenAI chce z nimi walczyć, co uczyniłoby ich narzędzie jeszcze lepszym.
Dziś ChatGPT potrafi nie tylko podać zmyślone informacje. Może je argumentować nieistniejącymi wydarzeniami, czy podać nieistniejące źródła.
Czasami dochodzi do tego, że podważając takie informacje, chatbot wciąż brnie w zaparte. Używa kolejnych argumentów na to, aby udowodnić swoje fałszywe tezy.
O ile czasami takie zachowanie jest niegroźne, a nawet zabawne, w niektórych przypadkach może być problemem. ChatGPT mógłby bowiem być wykorzystany m.in. do udzielania porad medycznych. Dziś jest to dość ryzykowne.
Dwa nowe sposoby nadzorowania efektów pracy ChatGPT
Aby chatbot OpenAI był bardziej prawdomówny, twórcy chcą skorzystać z dwóch sposobów. Pierwszym jest nadzorowanie wyników wyświetlanych w oknie chatu. Druga metoda to nadzorowanie samego procesu – sprawdzanie danych w kolejnych krokach, gdy ChatGPT tworzy swoje odpowiedzi.
Do stworzenia takich „zabezpieczeń przed kłamstwami”, inżynierowi OpenAI zastosowali test na obliczeniach matematycznych. Dla różnych (poprawnych i błędnych) wyników ocenili, że bardziej skuteczne jest nadzorowanie samego „procesu myślowego” ChatGPT, a nie tylko sprawdzenie samych wyników.
Dlaczego ChatGPT podaje czasami nieprawdziwe informacje?
Sposób działania ChatGPT łączy szybkość i prawidłowość podawanych treści. Nie zawsze idzie to jednak w parze, co może się objawiać otrzymaniem nieprawdziwych danych. OpenAI stale z tym walczy. Na poprawę prawdomówności chatbota wpłynie nie tylko dodanie procesu nadzoru, ale również dalsze trenowanie sztucznej inteligencji.
Może zainteresują Cię także inne artykuły