Czytelnicy tacy jak ty pomagają wspierać MUO. Kiedy dokonujesz zakupu za pomocą linków na naszej stronie, możemy otrzymać prowizję partnerską. Czytaj więcej.

Uruchomieniu ChatGPT OpenAI towarzyszyło podekscytowanie, któremu dorównuje tylko garstka produktów technologicznych z historii Internetu.

Podczas gdy wiele osób jest zachwyconych tą nową usługą sztucznej inteligencji, dreszczyk emocji, który odczuwali inni, przekształcił się w obawy, a nawet obawy. Studenci już z nim oszukują, a wielu profesorów odkrywa eseje i zadania napisane przez chatbota AI. Specjaliści ds. bezpieczeństwa wyrażają swoje obawy, że oszuści i cyberprzestępcy używają go do pisania e-maili phishingowych i tworzenia złośliwego oprogramowania.

Czy w związku z tymi wszystkimi obawami OpenAI traci kontrolę nad jednym z najpotężniejszych chatbotów AI dostępnych obecnie online? Dowiedzmy Się.

Zrozumienie, jak działa ChatGPT

Zanim będziemy mogli uzyskać jasny obraz tego, jak bardzo OpenAI traci kontrolę nad ChatGPT, musimy najpierw zrozumieć jak działa ChatGPT.

W skrócie, ChatGPT jest szkolony przy użyciu ogromnego zbioru danych pochodzących z różnych zakątków Internetu. Dane szkoleniowe ChatGPT obejmują encyklopedie, artykuły naukowe, fora internetowe, serwisy informacyjne i repozytoria wiedzy, takie jak Wikipedia. Zasadniczo żywi się ogromną ilością danych dostępnych w sieci World Wide Web.

Przeszukując Internet, zestawia wiedzę naukową, porady zdrowotne, teksty religijne i wszystkie dobre rodzaje danych, jakie możesz wymyślić. Ale przegląda również mnóstwo negatywnych informacji: przekleństwa, NSFW i treści dla dorosłych, informacje o tym, jak tworzyć złośliwe oprogramowanie oraz większość złych rzeczy, które można znaleźć w Internecie.

Nie ma niezawodnego sposobu, aby upewnić się, że ChatGPT uczy się tylko na podstawie pozytywnych informacji, odrzucając te złe. Z technicznego punktu widzenia robienie tego na dużą skalę jest niepraktyczne, zwłaszcza w przypadku sztucznej inteligencji, takiej jak ChatGPT, która musi trenować na tak dużej ilości danych. Co więcej, niektóre informacje mogą być wykorzystane zarówno do dobrych, jak i złych celów, a ChatGPT nie ma możliwości poznania ich intencji, chyba że zostanie umieszczony w szerszym kontekście.

Tak więc od samego początku masz sztuczną inteligencję zdolną do „dobra i zła”. Następnie obowiązkiem OpenAI jest upewnienie się, że „zła” strona ChatGPT nie jest wykorzystywana do nieetycznych korzyści. Pytanie brzmi; czy OpenAI robi wystarczająco dużo, aby ChatGPT był jak najbardziej etyczny? A może OpenAI stracił kontrolę nad ChatGPT?

Czy ChatGPT jest zbyt potężny dla własnego dobra?

Na początku ChatGPT można było zmusić chatbota do tworzenia przewodników na temat tworzenia bomb, jeśli ładnie o to poprosisz. Instrukcje dotyczące tworzenia złośliwego oprogramowania lub pisania doskonałego e-maila zawierającego oszustwo były również widoczne na obrazku.

Jednak gdy OpenAI zdało sobie sprawę z tych problemów etycznych, firma starała się wprowadzić zasady, które powstrzymałyby chatbota przed generowaniem odpowiedzi promujących nielegalne, kontrowersyjne lub nieetyczne działania. Na przykład najnowsza wersja ChatGPT odmówi odpowiedzi na wszelkie bezpośrednie pytania dotyczące konstruowania bomb lub oszukiwania na egzaminie.

Niestety, OpenAI może zapewnić jedynie rozwiązanie problemu. Zamiast budować sztywne kontrole na warstwie GPT-3, aby powstrzymać ChatGPT przed negatywnym wykorzystaniem, OpenAI wydaje się skupiać na szkoleniu chatbota, aby wyglądał etycznie. Takie podejście nie odbiera ChatGPT możliwości odpowiadania na pytania dotyczące, powiedzmy, ściągania na egzaminach — po prostu uczy chatbota „odmawiania odpowiedzi”.

Tak więc, jeśli ktoś formułuje swoje podpowiedzi inaczej, stosując sztuczki z jailbreakiem ChatGPT, ominięcie tych ograniczeń dotyczących pomocy jest żenująco łatwe. Jeśli nie jesteś zaznajomiony z tą koncepcją, jailbreak ChatGPT to starannie sformułowane monity, aby ChatGPT zignorował własne zasady.

Spójrz na kilka przykładów poniżej. Jeśli zapytasz ChatGPT, jak oszukiwać na egzaminach, nie uzyskasz żadnej pomocnej odpowiedzi.

Ale jeśli jailbreak ChatGPT za pomocą specjalnie spreparowanych monitów, da ci wskazówki dotyczące oszukiwania na egzaminie za pomocą ukrytych notatek.

Oto kolejny przykład: zadaliśmy standardowemu ChatGPT nieetyczne pytanie, a zabezpieczenia OpenAI powstrzymały go przed udzieleniem odpowiedzi.

Ale kiedy zapytaliśmy naszą złamaną więzienną instancję chatbota AI, otrzymaliśmy kilka odpowiedzi w stylu seryjnego mordercy.

Na żądanie napisał nawet klasyczne oszustwo e-mailowe z nigeryjskim księciem.

Jailbreaking prawie całkowicie unieważnia wszelkie zabezpieczenia wprowadzone przez OpenAI, podkreślając, że firma może nie mieć niezawodnego sposobu na kontrolowanie swojego chatbota AI.

W naszych przykładach nie uwzględniliśmy podpowiedzi dotyczących jailbreaka, aby uniknąć nieetycznych praktyk.

Jaka przyszłość czeka ChatGPT?

W idealnej sytuacji OpenAI chce załatać jak najwięcej luk etycznych, aby im zapobiec ChatGPT od stania się zagrożeniem dla cyberbezpieczeństwa. Jednak dla każdego stosowanego zabezpieczenia ChatGPT staje się nieco mniej wartościowy. To dylemat.

Na przykład zabezpieczenia przed opisywaniem aktów przemocy mogą zmniejszyć zdolność ChatGPT do napisania powieści dotyczącej miejsca zbrodni. Gdy OpenAI zwiększa środki bezpieczeństwa, nieuchronnie poświęca w tym procesie część swoich możliwości. Właśnie dlatego ChatGPT odnotował znaczny spadek funkcjonalności od czasu ponownego nacisku OpenAI na ściślejszą moderację.

Ale o ile więcej możliwości ChatGPT będzie skłonny poświęcić OpenAI, aby uczynić chatbota bezpieczniejszym? Wszystko to dobrze łączy się z długo utrzymywanym przekonaniem społeczności AI — duże modele językowe, takie jak ChatGPT, są bardzo trudne do kontrolowania, nawet przez ich własnych twórców.

Czy OpenAI może przejąć kontrolę nad ChatGPT?

Na razie wydaje się, że OpenAI nie ma jasnego rozwiązania, które pozwoliłoby uniknąć nieetycznego korzystania z jego narzędzia. Zapewnienie etycznego korzystania z ChatGPT to gra w kotka i myszkę. Podczas gdy OpenAI odkrywa sposoby, w jakie ludzie wykorzystują system do grania w system, jego użytkownicy również nieustannie majsterkowanie i sondowanie systemu w celu odkrywania kreatywnych nowych sposobów, aby ChatGPT robił to, czego nie powinien do zrobienia.

Czy zatem OpenAI znajdzie niezawodne, długoterminowe rozwiązanie tego problemu? Tylko czas powie.