Obecnie miliony osób polegają na ChatGPT jako pomocnym zasobie, czy to w pracy, zabawie czy edukacji. Ale czy możesz polegać na tym chatbocie AI, który zawsze dostarcza fakty? Czy ChatGPT kiedykolwiek kłamie, czy dostarcza tylko rzeczowych informacji?

Skąd ChatGPT czerpie informacje?

W okresie szkoleniowym ChatGPT był zasilany danymi ze źródeł internetowych, takich jak strony rządowe i agencje, czasopisma naukowe, opracowania, artykuły z wiadomościami, podcasty, fora internetowe, książki, bazy danych, filmy, filmy dokumentalne i serwisy społecznościowe głoska bezdźwięczna.

W szczególności ChatGPT-3 został przeszkolony przy użyciu obszernej bazy danych zawierającej 570 GB danych. Jak czytamy w artykule pt Skupienie na nauce, 300 miliardów słów informacji zostało wprowadzonych do systemu GPT-3 podczas jego opracowywania.

Warto tutaj zauważyć, że ChatGPT był zasilany tylko danymi, które istniały przed 2021 rokiem. Oznacza to, że chatbot nie może odpowiadać na pytania dotyczące ostatnich wydarzeń. ChatGPT również nie ma dostępu do internetu. Dane, które otrzymał podczas szkolenia, są jedynym rodzajem danych, których używa do wypełniania monitów użytkownika.

Ale czy ChatGPT dostarcza tylko faktów, czy też w odpowiedziach pojawiają się bardziej niejednoznaczne informacje? Dodatkowo, czy ChatGPT może Cię okłamać?

Czy ChatGPT kłamie?

Chociaż ChatGPT często dostarcza użytkownikom prawdziwych informacji, ma możliwość „kłamania”. Oczywiście ChatGPT nie decyduje się na złośliwe okłamywanie użytkowników, ponieważ po prostu nie może tego zrobić. W końcu ChatGPT jest narzędziem do przetwarzania języka, a nie imitacją prawdziwej, świadomej osoby.

Jednak ChatGPT może technicznie nadal kłamać poprzez zjawisko znane jako halucynacja AI.

Halucynacja AI obejmuje system sztucznej inteligencji dostarczający informacji, które wydają się rozsądne lub wiarygodne, ale w rzeczywistości wcale nie są prawdziwe. W rzeczywistości halucynacja AI może dostarczyć informacji, że nigdy nie była karmiona podczas okresu szkolenia. Alternatywnie może się to zdarzyć, gdy system sztucznej inteligencji dostarcza informacje niezwiązane z monitem lub żądaniem. System sztucznej inteligencji może nawet twierdzić, że jest człowiekiem w przypadku halucynacji.

Systemy sztucznej inteligencji, takie jak chatboty, wpadają w pułapkę halucynacji z kilku powodów: braku zrozumienia świata rzeczywistego, błędów oprogramowania i ograniczeń dostarczanych danych.

Jak wspomniano wcześniej, ChatGPT może dostarczać informacje tylko na podstawie danych opublikowanych do 2021 r., co z pewnością ogranicza rodzaje monitów, które może spełnić.

Jeden z Wielkie problemy ChatGPT polega na tym, że może również paść ofiarą stronniczości przy przekazywaniu informacji użytkownikom. Nawet twórcy ChatGPT stwierdzili, że system sztucznej inteligencji był w przeszłości „politycznie stronniczy, obraźliwy” i „nie do przyjęcia”. Jak poinformował o Niezależny, programiści ChatGPT są zaangażowani w rozwiązanie tego problemu, ale to nie znaczy, że nie stanowi już zagrożenia.

Zapytany, ChatGPT stwierdził, że powody, dla których może podawać niedokładne informacje, obejmują:

  • Niejednoznaczność pytania (niejasne, niejasne podpowiedzi);
  • Podane niekompletne informacje;
  • Dostarczono stronnicze lub nieprawidłowe informacje; Lub,
  • Ograniczenia techniczne (głównie z powodu braku dostępu do aktualnych danych).

Tak więc sam ChatGPT stwierdził, że istnieją scenariusze, w których nie dostarczy użytkownikom dokładnych informacji.

W innej odpowiedzi w tej samej rozmowie ChatGPT stwierdził, że „zawsze dobrze jest zweryfikować wszelkie informacje [dostarczane] z innymi źródłami”.

Czy możesz zaufać ChatGPT?

Ponieważ może dostarczać fałszywych informacji, wyraźnie nie może ufać ChatGPT 100% czasu.

Możesz zmniejszyć ryzyko halucynacji chatbota AI, ustawiając określone parametry dotyczące sposobu, w jaki może ci odpowiedzieć. Jednak nadal nie ma gwarancji, że niektóre fałszywe informacje nie prześlizgną się przez szczeliny.

Z tego powodu najlepiej jest sprawdzać wszelkie informacje udostępniane przez ChatGPT, zwłaszcza jeśli prosisz o informacje o ostatnich wydarzeniach. Dwukrotne sprawdzenie tych danych poprzez odwołanie się do innych źródeł może pomóc w ustaleniu, czy ChatGPT ma rację w tym, co mówi, i może zapobiec podejmowaniu nierozważnych decyzji.

ChatGPT jest przydatny, ale nie zawsze zgodny z prawdą

Niestety, nie można polegać na ChatGPT w zakresie dostarczania prawdziwych, bezstronnych informacji przez 100% czasu. Ten chatbot oparty na sztucznej inteligencji jest niezaprzeczalnie pomocny i może Ci pomóc na różne sposoby, ale zawsze warto zweryfikować, czy informacje, które dostarcza, są zgodne z faktami.