Sztuczna inteligencja Tay firmy Microsoft przeszła od obiecującej sztucznej inteligencji do całkowitej katastrofy w mniej niż jeden dzień. Oto, czego dowiedziała się firma.

Chatboty AI, takie jak ChatGPT, stają się coraz bardziej integralną częścią nowoczesnych technologii, ale wielu nie wie, że generatywna sztuczna inteligencja nie zawsze była tak dobra, jak jest dzisiaj. W rzeczywistości w 2016 roku stworzony przez Microsoft chatbot Tay pokazał nam, jak szybko sztuczna inteligencja może przynieść odwrotny skutek.

Przyjrzyjmy się, czym był chatbot Microsoft AI Tay, dlaczego się nie powiódł, jego kontrowersje i wnioski, jakie firma wyciągnęła po katastrofalnej porażce.

Czym był Tay Microsoftu?

Tay był chatbotem AI opracowanym przez Microsoft i udostępnionym za pośrednictwem Twittera 23 marca 2016 r. Chatbot został opracowany dla osób w wieku od 18 do 24 lat w Stanach Zjednoczonych w „celach rozrywkowych” oraz „eksperymentowania i prowadzenia badań nad rozumieniem konwersacyjnym”.

Tay nie miał być wyrafinowanym chatbotem, takim jak ChatGPT, ale przyjaznym botem AI na Twitterze, z którym można było rozmawiać — coś w rodzaju

instagram viewer
Moja sztuczna inteligencja na Snapchacie, ale do towarzystwa.

Dlaczego Microsoft zamknął Tay?

Microsoft usunął Tay w ciągu 24 godzin od uruchomienia — nie bez powodu. Niemal natychmiast po wprowadzeniu Tay użytkownicy Twittera zaczęli nadużywać usługi, karmiąc chatbota dezinformacji, ucząc jej uwłaczających terminów i podsycając, by była coraz bardziej obraźliwa, aby zobaczyć, jak daleko zaszła poszedłby.

I rzeczywiście zaszło daleko. W ciągu kilku godzin od premiery Tay tweetował niektóre z najbardziej obraźliwych rasistowskich obelg, szerząc mowę nienawiści, promując nazizm, a nawet inspirując „wojnę rasową”. Tak! Najwyraźniej Microsoft miał okropny czas i nie mógł pozwolić, aby usługa była kontynuowana.

W post na oficjalnym blogu firmy Microsoft, wiceprezes firmy Microsoft, Peter Lee, powtórzył to samo:

Bardzo nam przykro z powodu niezamierzonych obraźliwych i bolesnych tweetów od Taya, które nie odzwierciedlają tego, kim jesteśmy ani za czym się opowiadamy, ani tego, jak zaprojektowaliśmy Taya. Tay jest teraz offline i postaramy się przywrócić Taya tylko wtedy, gdy będziemy pewni, że możemy lepiej przewidzieć złośliwe zamiary, które są sprzeczne z naszymi zasadami i wartościami.

Klęska Tay to tylko jedna z wielu zagrożenia sztucznej inteligencji i mocne przypomnienie, dlaczego jego rozwój powinien odbywać się z najwyższą ostrożnością i nadzorem.

6 lekcji, których Microsoft nauczył się po Tayu

Tay był kompletną katastrofą, ale nauczył też Microsoft kilku kluczowych lekcji, jeśli chodzi o rozwój narzędzi AI. I o ile to jest warte, prawdopodobnie lepiej, że Microsoft nauczył się swoich lekcji wcześniej niż później, co pozwoliło mu uzyskać przewagę nad Google i opracować nowy Przeglądarka Bing oparta na sztucznej inteligencji.

Oto niektóre z tych lekcji:

1. Internet jest pełen trolli

Internet jest pełen trolli, a to nie jest do końca nowość, prawda? Najwyraźniej tak było w przypadku Microsoftu w 2016 roku. Nie twierdzimy, że zbudowanie chatbota do „celów rozrywkowych” skierowanego do osób w wieku od 18 do 24 lat miało cokolwiek wspólnego z tempem nadużywania usługi. Mimo to zdecydowanie nie był to najmądrzejszy pomysł.

Ludzie naturalnie chcą testować ograniczenia nowych technologii, a ostatecznie zadaniem programisty jest uwzględnienie tych złośliwych ataków. W pewnym sensie wewnętrzne trolle działają jak mechanizm informacji zwrotnej w celu zapewnienia jakości, ale to nie znaczy, że chatbot powinien zostać wypuszczony bez odpowiednich zabezpieczeń przed uruchomieniem.

2. Sztuczna inteligencja nie potrafi intuicyjnie odróżnić dobra od zła

Pojęcie dobra i zła jest czymś, czego sztuczna inteligencja nie rozumie intuicyjnie. Musi być zaprogramowany tak, aby symulował wiedzę o tym, co jest dobre, a co złe, co jest moralne, a co niemoralne, co jest normalne, a co osobliwe.

Te cechy są mniej lub bardziej naturalne dla ludzi jako istot społecznych, ale sztuczna inteligencja nie może formułować niezależnych osądów, odczuwać empatii ani odczuwać bólu. Właśnie dlatego, gdy użytkownicy Twittera karmili Taya wszelkimi rodzajami propagandy, bot po prostu podążał za nim – nieświadomy etyki zbieranych informacji.

3. Nie trenuj modeli AI za pomocą rozmów międzyludzkich

Tay został stworzony przez „wydobycie odpowiednich danych publicznych i wykorzystanie sztucznej inteligencji oraz artykułów redakcyjnych opracowanych przez personel, w tym improwizujących komików.” Trenowanie modelu AI przy użyciu rozmów ludzi w Internecie jest okropne pomysł.

I zanim zrzucisz winę na Twittera, wiedz, że wynik byłby prawdopodobnie taki sam niezależnie od platformy. Dlaczego? Ponieważ ludzie po prostu nie są najlepszymi osobami w Internecie. Stają się emocjonalni, używają slangowych słów i wykorzystują swoją anonimowość, by być nikczemnymi.

4. AI nie ma zdrowego rozsądku i nie łapie sarkazmu

Sztuczna inteligencja wydaje się dziś bardziej intuicyjna (lub, mówiąc dokładniej, lepiej symuluje intuicję), ale nadal czasami ma problemy z rozpoznawaniem sarkazmu i figur retorycznych. Było to jeszcze bardziej prawdziwe w 2016 roku. To, co jest oczywiste dla ludzi, nie jest oczywiste dla sztucznej inteligencji; innymi słowy, brakuje mu zdrowego rozsądku.

AI, takie jak Tay, nie rozumieją, dlaczego ludzie są tacy, jacy jesteśmy, zachowują się tak, jak się zachowujemy, i nie rozumieją dziwactw każdej osoby. Może zachowywać się i brzmieć jak człowiek w zaskakującym stopniu, ale dobre programowanie może zajść tylko do pewnego stopnia.

5. Sztuczna inteligencja musi zostać zaprogramowana, aby odrzucać nieprawidłowe żądania

Sztuczna inteligencja jest bardzo podatna na wpływy i musi być zaprogramowana tak, aby odrzucała prośby promujące krzywdę. Nawet dzisiaj, po wszystkich naszych postępach w przetwarzaniu języka naturalnego, ludzie wciąż znajdują luki językowe sprawić, by chatboty AI, takie jak ChatGPT, „halucynowały” i dostarczać wyników, które miały być ograniczone.

Chodzi o to, że sztuczna inteligencja jest doskonale posłuszna, co jest chyba jej największą siłą i słabością. Wszystko, czego nie chcesz, aby chatbot robił, musisz w nim ręcznie zaprogramować.

6. Chatboty AI nigdy nie powinny pozostawać bez nadzoru

Dopóki sztuczna inteligencja nie będzie mogła sama się regulować, nie można jej pozostawić bez nadzoru. Możesz myśleć o dzisiejszej sztucznej inteligencji jak o cudownym dziecku; jest genialny pod pewnymi względami, ale mimo to wciąż jest dzieckiem. Pozostawione bez opieki ludzie będą wykorzystywać jego słabości — a Tay był tego najlepszym przykładem.

Sztuczna inteligencja jest narzędziem, podobnie jak internet, ale tempo i skala, w jakiej rzeczy mogą się odwrócić od sztucznej inteligencji, jest znacznie większa niż to, czego doświadczyliśmy we wczesnych dniach Internetu.

Sztuczna inteligencja wymaga stałego nadzoru i regulacji

Tay nie jest jedynym chatbotem, który zbuntował się — było wiele innych podobnych przypadków. Ale to, co go wyróżniało, to sama szybkość, z jaką to zrobił – oraz fakt, że został stworzony przez giganta technologicznego, takiego jak Microsoft.

Przykłady takie jak ten pokazują, jak ostrożni musimy być przy opracowywaniu narzędzi AI, zwłaszcza gdy mają być używane przez zwykłych ludzi.