Generatywna sztuczna inteligencja jest świetna, ale zawsze prezentuje swoje informacje z absolutnym autorytetem. Co jest świetne, chyba że jest halucynacją prawdy.

Halucynacje sztucznej inteligencji (AI) brzmią zdumiewająco. Prawdopodobnie myślisz: „Czy halucynacje nie są zjawiskiem ludzkim?” Cóż, tak, kiedyś był to wyłącznie człowiek zjawisko, dopóki sztuczna inteligencja nie zaczęła wykazywać ludzkich cech, takich jak rozpoznawanie twarzy, samouczenie się i mowa uznanie.

Niestety, sztuczna inteligencja nabrała pewnych negatywnych cech, w tym halucynacji. Czy zatem halucynacje AI są podobne do halucynacji, których doświadczają ludzie?

Czym jest halucynacja AI?

Halucynacja sztucznej inteligencji pojawia się, gdy model AI generuje dane wyjściowe inne niż oczekiwane. Należy zauważyć, że niektóre modele sztucznej inteligencji są szkolone w celu celowego generowania danych wyjściowych niezwiązanych z żadnymi danymi wejściowymi (danymi) ze świata rzeczywistego.

Na przykład, najlepsze generatory tekstu do grafiki AI

instagram viewer
, takie jak DALL-E 2, mogą twórczo generować nowe obrazy, które możemy oznaczyć jako „halucynacje”, ponieważ nie są one oparte na danych ze świata rzeczywistego.

Halucynacje AI w dużych modelach przetwarzania języka

Zastanówmy się, jak wyglądałaby halucynacja AI w dużym modelu przetwarzania języka, takim jak ChatGPT. Halucynacja ChatGPT spowodowałaby, że bot podałby ci niepoprawny fakt z pewnym twierdzeniem, tak że naturalnie wziąłbyś takie fakty za prawdę.

Mówiąc najprościej, są to zmyślone wypowiedzi sztucznie inteligentnego chatbota. Oto przykład:

Po dalszym zapytaniu pojawił się ChatGPT z tym:

Halucynacja AI w widzeniu komputerowym

Rozważmy inną dziedzinę sztucznej inteligencji, która może doświadczać halucynacji AI: Wizja komputerowa. Poniższy quiz pokazuje montaż 4x4 z dwoma bytami, które wyglądają tak podobnie. Obrazy są mieszanką chipsów ziemniaczanych BBQ i liści.

Wyzwanie polega na wybraniu chipsów ziemniaczanych bez uderzania w liście w zestawie. Ten obraz może wydawać się skomplikowany dla komputera i może nie być w stanie odróżnić chipsów ziemniaczanych BBQ od liści.

Oto kolejny montaż z mieszanką zdjęć pudla i bułek z nici wieprzowej. Komputer najprawdopodobniej nie byłby w stanie ich rozróżnić, mieszając obrazy.

Dlaczego występują halucynacje AI?

Halucynacje AI mogą wystąpić z powodu kontradyktoryjnych przykładów — danych wejściowych, które oszukują aplikację AI, aby je błędnie sklasyfikowała. Na przykład podczas szkolenia aplikacji AI programiści wykorzystują dane (obraz, tekst lub inne); jeśli dane zostaną zmienione lub zniekształcone, aplikacja inaczej zinterpretuje dane wejściowe, dając błędne dane wyjściowe.

W przeciwieństwie do tego, człowiek nadal może dokładnie rozpoznawać i identyfikować dane pomimo zniekształceń. Możemy to nazwać zdrowym rozsądkiem — ludzką cechą, której sztuczna inteligencja jeszcze nie posiada. Zobacz, jak sztuczna inteligencja jest oszukiwana za pomocą wrogich przykładów w tym filmie:

Jeśli chodzi o duże modele oparte na języku, takie jak ChatGPT i jego alternatywy, halucynacje mogą wynikać z niedokładnego dekodowania z transformatora (model uczenia maszynowego).

W sztucznej inteligencji transformator jest modelem głębokiego uczenia się, który wykorzystuje samouważność (relacje semantyczne między słowami w języku zdanie) w celu wytworzenia tekstu podobnego do tego, co napisałby człowiek za pomocą kodera-dekodera (wejście-wyjście) sekwencja.

Tak więc transformers, częściowo nadzorowany model uczenia maszynowego, może generować nową treść tekstu (dane wyjściowe) z dużego zbioru danych tekstowych używanych w jego szkoleniu (dane wejściowe). Czyni to poprzez przewidywanie następnego słowa w serii na podstawie poprzednich słów.

Jeśli chodzi o halucynacje, jeśli model językowy został przeszkolony na niewystarczających i niedokładnych danych i zasobach, oczekuje się, że dane wyjściowe będą zmyślone i niedokładne. Model językowy może generować historię lub narrację bez logicznych niespójności lub niejasnych powiązań.

W poniższym przykładzie ChatGPT został poproszony o podanie słowa podobnego do „bunt” i zaczynającego się na „b”. Oto jego odpowiedź:

Po dalszym sondowaniu nadal podawał błędne odpowiedzi, z wysokim poziomem pewności.

Dlaczego więc ChatGPT nie jest w stanie udzielić dokładnej odpowiedzi na te monity?

Możliwe, że model językowy nie jest przystosowany do obsługi raczej złożonych monitów, takich jak te lub że to nie potrafi właściwie zinterpretować podpowiedzi, ignorując zachętę do nadania podobnego wyrazu z konkretem alfabet.

Jak rozpoznać halucynacje AI?

Teraz jest oczywiste, że aplikacje sztucznej inteligencji mogą wywoływać halucynacje — generować odpowiedzi w inny sposób na podstawie oczekiwanego wyniku (faktu lub prawdy) bez żadnych złośliwych zamiarów. A wykrycie i rozpoznanie halucynacji AI zależy od użytkowników takich aplikacji.

Oto kilka sposobów na wykrycie halucynacji AI podczas korzystania z popularnych aplikacji AI:

1. Modele przetwarzania dużych języków

Chociaż zdarza się to rzadko, jeśli zauważysz błąd gramatyczny w treści generowanej przez duży model przetwarzania, taki jak ChatGPT, powinien on unieść brwi i wzbudzić podejrzenie halucynacji. Podobnie, gdy treść generowana tekstowo nie brzmi logicznie, nie koreluje z podanym kontekstem lub nie pasuje do danych wejściowych, należy podejrzewać halucynację.

Korzystanie z ludzkiego osądu lub zdrowego rozsądku może pomóc wykryć halucynacje, ponieważ ludzie mogą łatwo rozpoznać, kiedy tekst nie ma sensu lub nie jest zgodny z rzeczywistością.

2. Wizja komputerowa

Jako gałąź sztucznej inteligencji, uczenia maszynowego i informatyki, wizja komputerowa umożliwia komputerom rozpoznawanie i przetwarzanie obrazów, takich jak ludzkie oczy. Za pomocą konwolucyjne sieci neuronowe, polegają na niewiarygodnej ilości danych wizualnych wykorzystywanych w ich szkoleniu.

Odchylenie od wzorców danych wizualnych używanych w treningu spowoduje halucynacje. Na przykład, jeśli komputer nie był przeszkolony z obrazami piłki tenisowej, mógłby zidentyfikować ją jako zieloną pomarańczę. Lub jeśli komputer rozpoznaje konia obok ludzkiego posągu jako konia obok prawdziwego człowieka, wtedy nastąpiła halucynacja AI.

Aby więc wykryć halucynację komputerową, porównaj wygenerowane dane wyjściowe z tym, co powinien zobaczyć [normalny] człowiek.

3. Samochody samojezdne

Źródło obrazu: Bród

Dzięki sztucznej inteligencji samochody samojezdne stopniowo przenikają na rynek motoryzacyjny. Pionierzy, tacy jak Tesla Autopilot i BlueCruise Forda, są orędownikami sceny samojezdnych samochodów. Możesz się wymeldować jak i co widzi autopilot Tesli aby trochę zrozumieć, w jaki sposób sztuczna inteligencja napędza samojezdne samochody.

Jeśli posiadasz jeden z takich samochodów, chciałbyś wiedzieć, czy twój samochód AI ma halucynacje. Jednym ze znaków będzie to, że Twój pojazd wydaje się odbiegać od swoich normalnych wzorców zachowania podczas jazdy. Na przykład, jeśli pojazd gwałtownie hamuje lub skręca bez wyraźnego powodu, pojazd AI może mieć halucynacje.

Systemy sztucznej inteligencji też mogą mieć halucynacje

Ludzie i modele AI doświadczają halucynacji inaczej. Jeśli chodzi o sztuczną inteligencję, halucynacje odnoszą się do błędnych wyników, które są daleko od rzeczywistości lub nie mają sensu w kontekście danego monitu. Na przykład chatbot AI może udzielić niepoprawnej gramatycznie lub logicznie odpowiedzi lub błędnie zidentyfikować obiekt z powodu hałasu lub innych czynników strukturalnych.

Halucynacje AI nie wynikają ze świadomego lub podświadomego umysłu, jak można zaobserwować u ludzi. Wynika to raczej z nieadekwatności lub niedostateczności danych wykorzystywanych do szkolenia i programowania systemu AI.