Jest nowszy, ale wolniejszy. Co daje?

Wraz z najnowszą wersją ChatGPT, GPT-4, wydaną w marcu 2023 r., wielu zastanawia się teraz, dlaczego działa tak wolno w porównaniu do swojego poprzednika, GPT-3.5. Więc jaki jest tutaj główny powód?

Tylko dlaczego ChatGPT-4 jest tak powolny i czy zamiast tego powinieneś trzymać się GPT-3.5?

Co to jest ChatGPT-4?

ChatGPT-4 to najnowszy model Chatbot OpenAI, znany ogólnie jako ChatGPT. ChatGPT jest zasilany przez sztuczną inteligencję, dzięki czemu odpowiada na Twoje pytania i monity znacznie lepiej niż poprzednie chatboty. ChatGPT korzysta z dużego modelu językowego obsługiwanego przez GPT (Generative Pre-trained Transformer), aby dostarczać użytkownikom informacje i treści, a jednocześnie umożliwiać konwersację.

ChatGPT ma szeroki zakres możliwości, dzięki czemu jest użyteczny dla milionów. Na przykład ChatGPT może pisać historie, formułować dowcipy, tłumaczyć tekst, edukować użytkowników i nie tylko. Podczas gdy ChatGPT może być również używany do bardziej nielegalnych działań, takich jak

instagram viewer
tworzenie złośliwego oprogramowania, jego wszechstronność jest nieco rewolucyjna.

Model GPT-4 ChatGPT został wydany 14 marca 2023 r. Ta wersja ChatGPT została zaprojektowana w celu lepszego zrozumienia języka emocjonalnego poprzez tekst, a także lepszego zrozumienia różnych dialektów językowych i przetwarzania obrazu. GPT-4 może również prowadzić dłuższe rozmowy i skutecznie odpowiadać na dłuższe podpowiedzi użytkownika.

Dodatkowo parametry GPT-4 znacznie przewyższają parametry GPT-3.5. Parametry ChatGPT określają, w jaki sposób sztuczna inteligencja przetwarza informacje i reaguje na nie. Krótko mówiąc, parametry określają umiejętność interakcji chatbota z użytkownikami. Podczas gdy GPT-3.5 ma 175 miliardów parametrów, GPT-4 ma niewiarygodne 100 do 170 bilionów parametrów (podobno – OpenAI nie potwierdziło tej liczby).

To GPT-3.5 OpenAI został użyty do zasilania ChatGPT, który jest obecnie najpopularniejszym chatbotem AI na świecie. Tak więc GPT-3.5 pozostawił niezaprzeczalny ślad w dziedzinie sztucznej inteligencji. Ale w branży technologicznej zawsze coś się dzieje, więc nie jest niespodzianką, że GPT-3.5 ma teraz następcę GPT-4.

Jednak GPT-4 w żadnym wypadku nie jest doskonały. W rzeczywistości długie czasy reakcji GPT-4 powodują spore zamieszanie. Przyjrzyjmy się temu problemowi i wyjaśnijmy, dlaczego tak się dzieje.

ChatGPT-4 działa wolno

Wielu zauważyło po wydaniu GPT-4, że nowy chatbot OpenAI był niesamowicie powolny. To spowodowało frustrację wielu użytkowników, ponieważ GPT-4 miał być krokiem naprzód w stosunku do GPT-3.5, a nie wstecz. W rezultacie użytkownicy GPT-4 udali się na platformy internetowe, takie jak Reddit i forum społeczności OpenAI, aby omówić ten problem.

NA Forum społeczności OpenAI, wielu użytkowników zgłosiło swoje frustracje związane z opóźnieniami GPT-4. Jeden z użytkowników stwierdził, że GPT-4 był „niezwykle powolny” po ich stronie i że nawet niewielkie żądania wysyłane do chatbota powodowały niezwykle duże opóźnienia, przekraczające 30 sekund.

Inni użytkownicy szybko podzielili się swoimi doświadczeniami z GPT-4, a jeden z nich skomentował pod postem, że „to samo połączenie z tymi samymi danymi może trwać do 4 razy wolniej niż 3,5 turbo”.

Winnym Post na forum społeczności OpenAI, użytkownik skomentował, że jego monity czasami spotykają się z komunikatem „błąd w strumieniu ciała„wiadomość, w wyniku której nie ma odpowiedzi. W tym samym wątku inna osoba stwierdziła, że ​​nie może zmusić GPT-4 do „skutecznej odpowiedzi za pomocą a kompletny skrypt." Inny użytkownik skomentował, że podczas próby użycia ciągle napotykają błędy sieciowe GPT-4.

Z opóźnieniami i nieudanymi lub niedopracowanymi odpowiedziami wydaje się, że GPT-4 jest pełen problemów, które szybko zniechęcają użytkowników.

Dlaczego właściwie tak się dzieje? Czy coś jest nie tak z GPT-4?

Dlaczego GPT-4 działa wolno w porównaniu z GPT-3.5?

W poście na forum społeczności OpenAI, o którym mowa powyżej, jeden użytkownik odpowiedział, sugerując, że opóźnienie było spowodowane „bieżącym problemem z całą infrastrukturą przeciążenie”, dodając, że wyzwaniem jest „zajęcie się skalowalnością w tak krótkim czasie przy takiej popularności i liczbie użytkowników zarówno czatu, jak i interfejs API”.

W Post z Reddita przesłane na subreddit r/singularity, użytkownik przedstawił kilka możliwych przyczyn powolności GPT-4, zaczynając od większego rozmiaru kontekstu. W ekosystemie GPT rozmiar kontekstu odnosi się do tego, ile informacji dana wersja chatbota może przetworzyć, a następnie wygenerować informacje. Podczas gdy rozmiar kontekstu GPT-3.5 wynosił 4K, GPT-4 jest dwa razy większy. Tak więc rozmiar kontekstu 8K może mieć wpływ na ogólną prędkość GPT-4.

Autor Reddit zasugerował również, że ulepszona sterowność i kontrola GPT-4 może odgrywać rolę w czasie przetwarzania chatbota. Tutaj autor stwierdził, że GPT-4 ma większą sterowność i kontrolę halucynacji i jest niestosowny język może być winowajcą, ponieważ te funkcje dodają dodatkowe kroki do metody przetwarzania GPT-4 Informacja.

Ponadto zaproponowano, że zdolność GPT-4 do przetwarzania obrazów może spowalniać działanie. Ta przydatna funkcja jest uwielbiana przez wielu, ale może mieć pewien haczyk. Biorąc pod uwagę, że podobno GPT-4 potrzebuje 10-20 sekund na przetworzenie dostarczonego obrazu, istnieje szansa, że ​​ten komponent wydłuża czas reakcji (chociaż nie wyjaśnia to opóźnień, jakich doświadczają użytkownicy wysyłający tylko monity tekstowe).

Inni użytkownicy sugerowali, że nowość ChatGPT-4 odgrywa dużą rolę w tych opóźnieniach. Innymi słowy, niektórzy uważają, że najnowszy chatbot OpenAI musi doświadczyć pewnych rosnących bólów, zanim wszystkie wady zostaną wyeliminowane.

Ale największym powodem, dla którego GPT-4 jest powolny, jest liczba parametrów, które może wywołać GPT-4 w porównaniu z GPT-3.5. The fenomenalny wzrost parametrów oznacza po prostu, że nowszy model GPT potrzebuje więcej czasu na przetwarzanie informacji i reagowanie dokładnie. Otrzymujesz lepsze odpowiedzi przy większej złożoności, ale dotarcie do nich zajmuje trochę więcej czasu.

Czy powinieneś wybrać GPT-3.5 zamiast GPT-4?

Mając więc na uwadze te kwestie, powinieneś użyć GPT-3.5 lub GPT-4?

W chwili pisania tego tekstu wydaje się, że GPT-3.5 jest lepszą opcją niż GPT-4. Tak wielu użytkowników doświadczyło opóźnień, że prawdopodobnie problem z czasem dotyczy wszystkich, a nie tylko kilku osób. Tak więc, jeśli ChatGPT-3.5 obecnie spełnia wszystkie Twoje oczekiwania i nie chcesz czekać na odpowiedź w zamian za dodatkowe funkcje, może warto na razie pozostać przy tej wersji.

Należy jednak zauważyć, że GPT-4 to nie tylko GPT-3.5, ale wolniejszy. Ta wersja chatbota OpenAI ma wiele zalet w stosunku do swojego poprzednika. Jeśli szukasz bardziej zaawansowanego chatbota AI i nie masz nic przeciwko dłuższemu czekaniu na odpowiedzi, być może warto przejść z GPT-3.5 na GPT-4.

Z biegiem czasu opóźnienia GPT-4 mogą zostać zmniejszone lub całkowicie rozwiązane, więc cierpliwość może być tutaj zaletą. Niezależnie od tego, czy spróbujesz przełączyć się na GPT-4 teraz, czy poczekasz trochę dłużej, aby zobaczyć, jak sprawy potoczą się z tą wersją, nadal możesz wiele zyskać z fajnego małego chatbota OpenAI.

GPT-4 jest bardziej zaawansowany, ale ma opóźnienie

Chociaż GPT-4 ma wiele zaawansowanych możliwości w porównaniu z GPT-3.5, jego znaczne opóźnienia i błędy odpowiedzi sprawiły, że dla niektórych jest bezużyteczny. Problemy te mogą zostać rozwiązane w najbliższej przyszłości, ale na razie GPT-4 z pewnością ma pewne przeszkody do pokonania, zanim zostanie zaakceptowany na szerszą skalę.