Jeśli nie mieszkałeś pod kamieniem, prawdopodobnie słyszałeś, a nawet używałeś ChatGPT lub podobnego chatbota AI. Chociaż korzystanie z tych chatbotów jest z pewnością zabawne, może być również niebezpieczne, jeśli nie wiesz, co robisz.
Te chatboty mają ograniczenia i ważne jest, aby zrozumieć, jakie one są. Oto sześć rzeczy, których nie powinieneś zadawać chatbotowi AI.
1. Diagnoza medyczna
Chatboty AI są dobre w wielu rzeczach, ale dostarczanie dokładnych diagnoz medycznych nie jest jedną z nich. Jasne, mogą nie mylić się przez cały czas, ale zaufanie chatbotowi do zdiagnozowania choroby zamiast lekarzowi jest tym samym, co szukanie w Google objawów.
Chatbot po prostu podsumowuje informacje, które pobrał z Internetu, które mogą, ale nie muszą być prawdziwe. Co ważniejsze, nie zna Twojej historii medycznej ani tolerancji na pewne substancje, a zatem nie może ocenić, jaki rodzaj leczenia byłby dla Ciebie odpowiedni.
Internet ma tendencję do wyolbrzymiania rzeczy, nic więc dziwnego, że wiele osób, które szukają objawów, doświadcza hipochondrii i silnego niepokoju. Korzystanie z chatbotów AI może powtórzyć ten sam efekt i pogorszyć sytuację. Dla własnego dobra nie rób tego skonsultuj się z chatbotem w celu uzyskania porady medycznej.
2. Recenzje produktu
Chatbot AI może z łatwością podać cenę i specyfikację produktu, który może Cię zainteresować, ale nigdy nie może podać recenzji produktu. Dlaczego? Ponieważ recenzja produktu z definicji obejmuje osobistą opinię, doświadczenie i osąd recenzenta.
Sztuczna inteligencja nie ma zdolności widzenia, wąchania, dotykania, smakowania ani słyszenia, więc twierdzenia, jakie wysuwałaby na temat produktu – dowolnego produktu, nie tylko technologii – w swojej „recenzji” byłyby nieszczere.
Na przykład chatbot AI nie może poczuć dotyku telefonu w dłoni, wyrazistości jego głośnika, jakości jego silnik wibracyjny, niezawodność czujnika odcisków palców, płynność oprogramowania i wszechstronność aparatu system.
Jeśli chcesz uzyskać rekomendacje, które produkty kupić, poproś chatbota o podsumowanie istniejących recenzji. Będziesz musiał użyć bota AI, który może przeszukiwać sieć, np Bing z wbudowanym ChatGPT.
3. Porada prawna
Możesz mieć nagłówki, że ChatGPT pomyślnie zdał egzaminy w amerykańskiej szkole prawniczej i że chatboty AI są w drodze do wejścia na nasze sale sądowe w nadchodzących latach. To powinno być szokujące, ale szybkie wyszukiwanie powie ci, że tak naprawdę próbujemy wprowadzić sztuczną inteligencję do naszego systemu prawnego od 2015 roku!
Niektóre firmy stworzyły już wyspecjalizowanych asystentów prawnych AI, a nawet reklamują ich jako przystępną cenowo alternatywę dla ludzkich prawników. Koncepcja wyraźnie ma zalety dla ludzi, których nie stać na to drugie, ale problemy z tymi tak zwanymi prawnikami AI są zbyt realne, aby je zignorować.
Oczywistą różnicą jest to, że chatbotom AI brakuje zdrowego rozsądku. Rzeczy, które są instynktownie oczywiste dla nas, ludzi, muszą zostać zaprogramowane w chatbotach, co czyni je mniej zdolnymi do logicznego rozumowania.
Co ważniejsze, prawnik-człowiek może wyszukiwać nowe dowody i myśleć nieszablonowo, aby wymyślać sprytne rozwiązania i luki. Ale chatbot AI może wykorzystywać dane, które podajesz i przetwarzać je tylko w z góry określony sposób. Prawnik AI byłby również idealnym celem dla hakerów do kradzieży poufnych danych wielu osób jednocześnie.
4. Aktualności
Używanie chatbotów AI jako źródła wiadomości stwarza trzy główne problemy: odpowiedzialność, kontekst i władzę. Po pierwsze odpowiedzialność. Kiedy czytasz wiadomość, znasz publikację i dziennikarza, który za nią stoi. Oznacza to, że jest ktoś odpowiedzialny za przekazywane ci informacje, więc istnieje wyraźna zachęta do bycia dokładnym w celu utrzymania własnej reputacji i wiarygodności.
Jednak w przypadku chatbota opartego na sztucznej inteligencji żadna osoba nie pisze wiadomości. Zamiast tego bot po prostu podsumowuje historie już dostępne w sieci. Oznacza to, że nie ma głównego źródła i nie wiesz, skąd pochodzą informacje. Dlatego nie jest tak niezawodny.
Po drugie kontekst. Jeśli wiadomości, które czytasz, są tylko podsumowaniem informacji zaczerpniętych z różnych źródeł, mogą szybko stworzyć fałszywą narrację, ponieważ tracisz głębszy kontekst każdej indywidualnej historii. Bot nie wie, czy to, co twierdzi, jest prawdą, po prostu łączy rzeczy razem w sposób, który wydaje się prawdziwy na poziomie powierzchni.
I wreszcie moc. Wiemy, że ChatGPT może być stronniczy (wśród innych problemów). Tak więc, jeśli wszyscy zwrócimy się do chatbotów AI jako źródła wiadomości, da to firmom stojącym za nimi siłę do powstrzymania wszelkie negatywne relacje i podkreśl wszystkie pozytywne relacje na temat przyczyn, w które wierzą i chcą promować. Jest to bardzo niebezpieczne z oczywistych względów.
5. Opinia polityczna
Powinno być całkiem oczywiste, dlaczego proszenie chatbota o opinię polityczną jest wielkim nie-nie. Gdy poprosisz ChatGPT o zajęcie stanowiska w jakiejkolwiek sprawie politycznej, zwykle otrzymasz ograniczoną odpowiedź to wygląda mniej więcej tak: „Jako model języka sztucznej inteligencji nie mam osobistych preferencji ani pragnienia..."
To ograniczenie jest zrozumiałe, ale użytkownicy Reddit znaleźli już sposoby na „jailbreak” bota, aby reagował w nieograniczony sposób, wykorzystując wszelkiego rodzaju kreatywne luki. Robienie tego dla zabawy to jedno, ale proszenie nieograniczonego chatbota AI o opinię polityczną to to samo, co pozwolenie maluchowi na dostęp do ciemnej sieci; nie może się to dobrze skończyć dla żadnej ze stron.
6. Treść komercyjna
Największą zaletą chatbotów AI jest to, że mogą natychmiast tworzyć treści. Napisanie tego, co człowiekowi zajęłoby kilka godzin, ChatGPT może zrobić w kilka sekund. Tyle, że nie może.
Nawet jeśli przeoczysz wątpliwą etykę używania chatbotów AI do pisania treści, nie możesz zignorować tego, że po prostu nie są one wystarczająco dobre i nie zastąpi ludzkich pisarzy. Przynajmniej jeszcze nie. Na przykład ChatGPT często dostarcza niedokładne, nieaktualne i powtarzające się treści.
Ponieważ te boty nie mają własnych opinii, osądów, wyobraźni ani wcześniejszego doświadczenia, nie mogą rysować wyciągaj inteligentne wnioski, myśl o przykładach, używaj metafor i twórz narracje w sposób profesjonalny pisarz może.
Innymi słowy, nie dodaje żadnej nowej wartości do Internetu. Używanie chatbotów do użytku osobistego jest jak najbardziej w porządku. Ale używanie ich do pisania artykułów, wiadomości, podpisów w mediach społecznościowych, kopii internetowych i innych jest prawdopodobnie bardzo złym pomysłem.
Chatboty AI są zabawne, ale wciąż mają pewne wady
Trudno powiedzieć, w jaki sposób chatboty AI wpłyną na branżę technologiczną i całe współczesne społeczeństwo. Choć technologia jest rewolucyjna, chatboty stwarzają wiele problemów, którymi należy się zająć.
Co ciekawe, Microsoft integruje teraz chatbota podobnego do ChatGPT bezpośrednio w swojej wyszukiwarce Bing, a Google wkrótce zrobi to samo z własnym chatbotem o nazwie Bard. Ciekawie będzie zobaczyć, jak te nowe wyszukiwarki napędzane sztuczną inteligencją zmienią Internet.