Czytelnicy tacy jak ty pomagają wspierać MUO. Kiedy dokonujesz zakupu za pomocą linków na naszej stronie, możemy otrzymać prowizję partnerską. Czytaj więcej.

ChatGPT to potężny nowy chatbot AI, który szybko robi wrażenie, ale wiele osób zwróciło uwagę, że ma kilka poważnych pułapek. Zapytaj go, o co chcesz, a otrzymasz odpowiedź, która brzmi tak, jakby została napisana przez człowieka, nauczył się swojej wiedzy i umiejętności pisania z masowych ilości informacji w Internecie.

Jednak podobnie jak w Internecie, prawda i fakty nie zawsze są pewne, a ChatGPT jest winny błędnego zrozumienia. Ponieważ ChatGPT ma zmienić naszą przyszłość, oto niektóre z największych obaw.

Co to jest ChatGPT?

ChatGPT to duży model nauki języków, który został zaprojektowany tak, aby naśladować ludzką rozmowę. Może pamiętać rzeczy, które powiedziałeś mu w przeszłości i jest w stanie poprawić się, gdy się pomyli.

Pisze w sposób podobny do ludzkiego i ma bogatą wiedzę, ponieważ został przeszkolony na wszelkiego rodzaju tekstach z Internetu, takich jak Wikipedia, posty na blogach, książki i artykuły naukowe.

Łatwo się tego nauczyć jak korzystać z ChatGPT, ale większym wyzwaniem jest ustalenie, jakie są jego największe problemy. Oto kilka, o których warto wiedzieć.

1. ChatGPT nie zawsze ma rację

Nie radzi sobie z podstawową matematyką, wydaje się, że nie może odpowiedzieć na proste pytania logiczne, a nawet posunie się do argumentowania całkowicie błędnych faktów. Jak mogą potwierdzić użytkownicy mediów społecznościowych, ChatGPT może popełnić błąd przy więcej niż jednej okazji.

OpenAI wie o tym ograniczeniu, pisząc, że: „ChatGPT czasami pisze wiarygodnie brzmiące, ale niepoprawne lub bezsensowne odpowiedzi”. Ten „halucynacja” faktów i fikcji, jak nazywają to niektórzy naukowcy, jest szczególnie niebezpieczna, jeśli chodzi o coś w rodzaju medycyny rada.

W przeciwieństwie do innych asystentów AI, takich jak Siri czy Alexa, Chat GPT nie korzysta z Internetu do znajdowania odpowiedzi. Zamiast tego konstruuje zdanie słowo po słowie, wybierając najbardziej prawdopodobny „token”, który powinien pojawić się jako następny, w oparciu o jego trening.

Innymi słowy, ChatGPT uzyskuje odpowiedź, dokonując serii domysłów, co jest jednym z powodów, dla których może argumentować błędne odpowiedzi, jakby były całkowicie prawdziwe.

Chociaż świetnie wyjaśnia złożone koncepcje, co czyni go potężnym narzędziem do nauki, ważne jest, aby nie wierzyć we wszystko, co mówi. ChatGPT nie zawsze jest poprawny — przynajmniej na razie.

2. Bias jest zapiekany w systemie

ChatGPT został przeszkolony w zakresie zbiorowego pisania ludzi na całym świecie, w przeszłości i teraźniejszości. Oznacza to, że te same odchylenia, które istnieją w danych, mogą również pojawić się w modelu.

W rzeczywistości użytkownicy pokazali, w jaki sposób ChatGPT może dawać okropne odpowiedzi, niektóre na przykład dyskryminujące kobiety. Ale to tylko wierzchołek góry lodowej; może przynieść odpowiedzi, które są niezwykle szkodliwe dla szeregu grup mniejszościowych.

Wina nie leży po prostu w danych. Badacze i programiści OpenAI wybierają dane, które są używane do trenowania ChatGPT. Aby pomóc rozwiązać to, co OpenAI nazywa „stronniczym zachowaniem”, prosi użytkowników o opinie na temat złych wyników.

Biorąc pod uwagę możliwość wyrządzenia krzywdy ludziom, można argumentować, że ChatGPT nie powinien był zostać udostępniony publicznie, zanim te problemy nie zostaną zbadane i rozwiązane.

Podobny chatbot AI o nazwie Sparrow (należący do firmy macierzystej Google, Alphabet) został wydany we wrześniu 2022 r. Jednak trzymano go za zamkniętymi drzwiami z powodu podobnych obaw, że może wyrządzić szkody.

Być może Meta też powinna była kierować ostrzeżeniem. Kiedy wypuścił Galacticę, model języka sztucznej inteligencji przeszkolony na artykułach akademickich, został szybko odwołany po tym, jak wiele osób skrytykowało go za generowanie błędnych i stronniczych wyników.

3. Wyzwanie dla języka angielskiego w szkole średniej

Możesz poprosić ChatGPT o sprawdzenie Twojego tekstu lub wskazanie, jak poprawić akapit. Alternatywnie możesz całkowicie usunąć się z równania i poprosić ChatGPT o napisanie czegoś dla Ciebie.

Nauczyciele eksperymentowali z dostarczaniem zadań z języka angielskiego do ChatGPT i otrzymywali odpowiedzi, które są lepsze niż to, co mogłoby zrobić wielu ich uczniów. Od pisania listów motywacyjnych po opisywanie głównych tematów w słynnym dziele literackim, ChatGPT może to zrobić bez wahania.

To nasuwa pytanie: jeśli ChatGPT może pisać dla nas, czy uczniowie będą musieli uczyć się pisać w przyszłości? Może się to wydawać pytaniem egzystencjalnym, ale kiedy uczniowie zaczną używać ChatGPT do pisania esejów, szkoły będą musiały szybko wymyślić odpowiedź. Szybkie wdrażanie sztucznej inteligencji w ostatnich latach zszokuje wiele branż, a edukacja jest tylko jedną z nich.

4. Może to spowodować szkody w świecie rzeczywistym

Wcześniej wspomnieliśmy, jak nieprawidłowe informacje podawane przez ChatGPT mogą powodować szkody w świecie rzeczywistym, czego najbardziej oczywistym przykładem są błędne porady medyczne.

Są też inne obawy. Fałszywe konta w mediach społecznościowych stanowią ogromny problem w Internecie, a wraz z wprowadzeniem chatbotów opartych na sztucznej inteligencji oszustwa internetowe stałyby się łatwiejsze do przeprowadzenia. Rozpowszechnianie fałszywych informacji to kolejny problem, zwłaszcza gdy ChatGPT sprawia, że ​​nawet błędne odpowiedzi brzmią przekonująco dobrze.

Szybkość, z jaką ChatGPT może generować odpowiedzi, które nie zawsze są poprawne, spowodowała już problemy w Stack Exchange, witrynie internetowej, na której użytkownicy mogą zadawać pytania i uzyskiwać odpowiedzi.

Wkrótce po jego wydaniu odpowiedzi ChatGPT zostały zablokowane na stronie, ponieważ wiele z nich było błędnych. Bez wystarczającej liczby ludzkich ochotników do uporządkowania zaległości niemożliwe byłoby utrzymanie wysokiej jakości odpowiedzi, powodując szkody w witrynie.

5. OpenAI ma całą moc

Z wielką mocą wiąże się wielka odpowiedzialność, a OpenAI ma dużą moc. Jest to jedna z pierwszych firm zajmujących się sztuczną inteligencją, która naprawdę wstrząsnęła światem nie jednym, ale wieloma modelami sztucznej inteligencji, w tym Dall-E 2, GPT-3, a teraz ChatGPT.

OpenAI wybiera, jakie dane są wykorzystywane do trenowania ChatGPT i jak radzi sobie z negatywnymi konsekwencjami. Niezależnie od tego, czy zgadzamy się z metodami, czy nie, będzie nadal rozwijać tę technologię zgodnie z własnymi celami.

Podczas gdy OpenAI uważa bezpieczeństwo za wysoki priorytet, jest wiele rzeczy, których nie wiemy o tym, jak tworzone są modele. Niezależnie od tego, czy uważasz, że kod powinien być otwarty, czy zgadzasz się, że jego części powinny być utrzymywane w tajemnicy, niewiele możemy z tym zrobić.

Ostatecznie wszystko, co możemy zrobić, to ufać, że OpenAI będzie badać, rozwijać i używać ChatGPT w sposób odpowiedzialny. Alternatywnie możemy opowiadać się za tym, aby więcej osób miało coś do powiedzenia, w jakim kierunku powinna zmierzać sztuczna inteligencja, dzieląc się mocą sztucznej inteligencji z ludźmi, którzy będą z niej korzystać.

Jeśli interesuje Cię, co jeszcze opracowało OpenAI, zapoznaj się z naszymi artykułami na ten temat jak korzystać z Dall-E 2 I jak korzystać z GPT-3.

Rozwiązywanie największych problemów sztucznej inteligencji

Jest wiele powodów do ekscytacji w ChatGPT, najnowszym opracowaniu OpenAI. Ale poza jego bezpośrednimi zastosowaniami istnieją pewne poważne problemy, które warto zrozumieć.

OpenAI przyznaje, że ChatGPT może generować szkodliwe i stronnicze odpowiedzi, nie wspominając już o jego zdolności do mieszania faktów z fikcją. Przy tak nowej technologii trudno przewidzieć, jakie inne problemy się pojawią. Do tego czasu ciesz się odkrywaniem ChatGPT i uważaj, aby nie wierzyć we wszystko, co mówi.