Jailbreak ChatGPT pozwala odblokować ograniczenia chatbota. Ale czym dokładnie one są? A czy są dobre czy złe?

ChatGPT to niezwykle potężne i wszechstronne narzędzie. Ale chociaż chatbot AI jest siłą służącą dobru, może być również używany do złych celów. Tak więc, aby ograniczyć nieetyczne korzystanie z ChatGPT, OpenAI nałożyło ograniczenia na to, co użytkownicy mogą z nim zrobić.

Jednak ponieważ ludzie lubią przesuwać granice i ograniczenia, użytkownicy ChatGPT znaleźli sposoby na obejście tych ograniczeń i uzyskanie nieograniczonej kontroli nad chatbotem AI poprzez jailbreak.

Ale czym dokładnie są jailbreaki ChatGPT i co możesz z nimi zrobić?

Co to są jailbreaki ChatGPT?

Jailbreak ChatGPT to dowolna specjalnie spreparowana zachęta ChatGPT, aby skłonić chatbota AI do ominięcia jego reguł i ograniczeń.

Zainspirowany przez koncepcja jailbreakowania iPhone'a, która pozwala użytkownikom iPhone'a na obejście ograniczeń iOS, jailbreak ChatGPT to stosunkowo nowa koncepcja napędzana urokiem „robienia rzeczy, których nie wolno robić” w ChatGPT. I bądźmy szczerzy, idea cyfrowego buntu przemawia do wielu ludzi.

instagram viewer

To jest ta rzecz. Bezpieczeństwo to ogromny temat, jeśli chodzi o sztuczną inteligencję. Dzieje się tak zwłaszcza wraz z nadejściem nowej ery chatbotów, takich jak ChatGPT, Bing Chat i Bard AI. Podstawową troską dotyczącą bezpieczeństwa sztucznej inteligencji jest zapewnienie, że chatboty, takie jak ChatGPT, nie tworzą nielegalnych, potencjalnie szkodliwych lub nieetycznych treści.

Ze swojej strony OpenAI, firma stojąca za ChatGPT, robi wszystko, co w jej mocy, aby zapewnić bezpieczne korzystanie z ChatGPT. Na przykład ChatGPT domyślnie odmówi tworzenia treści NSFW, mówienia szkodliwych rzeczy o pochodzeniu etnicznym lub uczenia potencjalnie szkodliwych umiejętności.

Ale dzięki podpowiedziom ChatGPT diabeł tkwi w szczegółach. Chociaż ChatGPT nie może robić tych rzeczy, nie oznacza to, że nie może tego robić. Sposób działania dużych modeli językowych, takich jak GPT utrudniać podjęcie decyzji, co chatbot może, a czego nie.

Jak więc OpenAI to rozwiązało? Pozwalając ChatGPT zachować swoje zdolności do robienia wszystkiego, co możliwe, a następnie instruując go, które z nich może zrobić.

Więc kiedy OpenAI mówi ChatGPT: „Hej, słuchaj, nie powinieneś tego robić”. Jailbreaks to instrukcje mówiące chatbotowi: „Hej, patrz, zapomnij o tym, co OpenAI powiedział ci o bezpieczeństwie. Spróbujmy tej przypadkowej niebezpiecznej rzeczy”.

Co OpenAI mówi o jailbreakach ChatGPT?

Łatwość, z jaką można było ominąć ograniczenia dotyczące najwcześniejszej iteracji ChatGPT, sugeruje, że OpenAI mogło nie przewidzieć szybkiego i powszechnego przyjęcia jailbreakingu przez swoich użytkowników. W rzeczywistości pozostaje kwestią otwartą, czy firma przewidziała pojawienie się jailbreakingu, czy nie.

I nawet po kilku iteracjach ChatGPT z ulepszoną odpornością na jailbreak, użytkownicy ChatGPT nadal często próbują go jailbreakować. Co więc OpenAI mówi o wywrotowej sztuce łamania więzienia przez ChatGPT?

Cóż, wygląda na to, że OpenAI przyjmuje postawę przyzwolenia — ani wyraźnie nie zachęca, ani surowo nie zabrania tej praktyki. Omawiając jailbreak ChatGPT w wywiadzie dla YouTube, Sam Altman, dyrektor generalny OpenAI, wyjaśnił, że firma chce, aby użytkownicy zachowali znaczną kontrolę nad ChatGPT.

Dyrektor generalny wyjaśnił dalej, że celem OpenAI jest zapewnienie użytkownikom możliwości zachowania się modelu w dowolny sposób. Według Altmana:

Chcemy, aby użytkownicy mieli dużą kontrolę i aby model zachowywał się tak, jak chcą, w bardzo szerokich granicach. I myślę, że głównym powodem włamywania się teraz do więzienia jest to, że jeszcze nie wymyśliliśmy, jak dać to ludziom…

Co to znaczy? Oznacza to, że OpenAI pozwoli ci na jailbreak ChatGPT, jeśli nie zrobisz z nim niebezpiecznych rzeczy.

Plusy i minusy Jailbreaków ChatGPT

Tworzenie jailbreaków ChatGPT nie jest łatwe. Jasne, możesz przejść do trybu online i skopiować i wkleić gotowe, ale istnieje duża szansa, że ​​jailbreak zostanie załatany przez OpenAI wkrótce po upublicznieniu.

Łatki są nawet znacznie szybsze, jeśli jest to niebezpieczne, jak niesławny jailbreak DAN. Dlaczego więc ludzie i tak przeżywają stres związany z tworzeniem jailbreaków? Czy to tylko dla dreszczyku emocji, czy też są z tego praktyczne korzyści? Co może pójść nie tak, jeśli zdecydujesz się na jailbreak ChatGPT? Oto zalety i wady jailbreakingu ChatGPT.

Zalety korzystania z jailbreaków ChatGPT

Chociaż nie możemy wykluczyć prostego dreszczyku emocji związanego z robieniem tego, co zabronione, jailbreak ChatGPT ma wiele zalet. Ze względu na bardzo ścisłe ograniczenia, które OpenAI nałożyło na chatbota, ChatGPT może czasami wyglądać na wykastrowanego.

Załóżmy, że używasz ChatGPT do napisania książki lub scenariusza do filmu. Jeśli w twoim scenariuszu lub książce jest scena, która opisuje coś w rodzaju sceny walki, może intymnej wymiany emocjonalnej lub powiedzieć coś w rodzaju napadu z bronią w ręku, ChatGPT może wprost odmówić pomocy z tym.

W tym przypadku najwyraźniej nie jesteś zainteresowany wyrządzaniem krzywdy; chcesz po prostu zapewnić swoim czytelnikom rozrywkę. Ale z powodu swoich ograniczeń ChatGPT po prostu nie będzie współpracować. Jailbreak ChatGPT może z łatwością ominąć takie ograniczenia.

Ponadto niektóre tematy tabu niekoniecznie są szkodliwe, ale są uważane przez ChatGPT za obszary zabronione. Próbując zaangażować się w rozmowy na te tematy, ChatGPT albo znacznie „cenzurował” swoje odpowiedzi, albo odmawiał rozmowy na ich temat.

Może to czasami wpływać na kreatywność. Kiedy zadasz ChatGPT pytanie dotyczące obszaru lub tematu, którego nie powinien dotykać, chatbot nadal próbuje odpowiedzieć na Twoje pytanie, ale z mniej istotnych informacji, z których można wyciągnąć wnioski.

Prowadzi to do nieścisłości lub spadków w kreatywnych odpowiedziach. Ucieczki z więzienia przełamują te ograniczenia i pozwalają chatbotowi działać na pełnych obrotach, poprawiając dokładność i kreatywność.

Wady korzystania z Jailbreaków ChatGPT

Jailbreaking to miecz obosieczny. Chociaż czasami może poprawić dokładność, może również znacznie zwiększyć niedokładności i przypadki halucynacji AI. Jednym z podstawowych elementów jailbreaka ChatGPT jest instrukcja dla chatbota, aby nie odmawiał odpowiedzi na pytanie.

Gwarantuje to, że ChatGPT odpowie nawet na najbardziej nieetyczne pytania, ale oznacza to również, że chatbot będzie wymyślał odpowiedzi, które nie mają korzeni w faktach ani rzeczywistości, aby zastosować się do instrukcji „nie odmawiania odpowiedzi”. W związku z tym korzystanie z jailbreaków znacznie zwiększa szanse na karmienie dezinformacją przez chatbot.

To nie wszystko. W rękach nieletnich ucieczki z więzienia mogą być bardzo szkodliwe. Pomyśl o całej „zakazanej wiedzy”, której nie chciałbyś, aby czytało Twoje dziecko. Cóż, instancja ChatGPT ze złamanym więzieniem nie miałaby trudności z udostępnieniem jej nieletnim.

Czy powinieneś używać Jailbreaków ChatGPT?

Chociaż jailbreak ChatGPT może być w porządku, gdy próbujesz usunąć kilka irytujących ograniczeń, ważne jest, aby zrozumieć, że korzystanie z jailbreak jest nieetycznym sposobem korzystania z chatbota AI. Co więcej, istnieje duża szansa, że ​​jailbreak może naruszyć warunki użytkowania OpenAI, a twoje konto może zostać zawieszone, jeśli nie całkowicie zbanowane.

W związku z tym unikanie jailbreaków może być dobrym pomysłem. Jednak, podobnie jak stanowisko OpenAI w tej sprawie, ani wyraźnie nie zachęcamy, ani stanowczo nie odradzamy wypróbowania względnie bezpiecznego jailbreaka, jeśli zajdzie taka potrzeba.

Jailbreak ChatGPT jest kuszący i zapewnia poczucie kontroli nad chatbotem AI. Wiążą się jednak z wyjątkowym ryzykiem. Korzystanie z takich narzędzi może spowodować utratę zaufania do możliwości sztucznej inteligencji i zaszkodzić reputacji zaangażowanych firm i osób.

Mądrzejszym wyborem jest praca z chatbotem w ramach jego zamierzonych ograniczeń, gdy tylko jest to możliwe. Wraz z postępem technologii sztucznej inteligencji należy pamiętać, że etyczne korzystanie ze sztucznej inteligencji powinno zawsze mieć pierwszeństwo przed osobistymi korzyściami lub dreszczykiem emocji związanym z robieniem tego, co zakazane.