Jest nowszy, ale wolniejszy. Co daje?
Wraz z najnowszą wersją ChatGPT, GPT-4, wydaną w marcu 2023 r., wielu zastanawia się teraz, dlaczego działa tak wolno w porównaniu do swojego poprzednika, GPT-3.5. Więc jaki jest tutaj główny powód?
Tylko dlaczego ChatGPT-4 jest tak powolny i czy zamiast tego powinieneś trzymać się GPT-3.5?
Co to jest ChatGPT-4?
ChatGPT-4 to najnowszy model Chatbot OpenAI, znany ogólnie jako ChatGPT. ChatGPT jest zasilany przez sztuczną inteligencję, dzięki czemu odpowiada na Twoje pytania i monity znacznie lepiej niż poprzednie chatboty. ChatGPT korzysta z dużego modelu językowego obsługiwanego przez GPT (Generative Pre-trained Transformer), aby dostarczać użytkownikom informacje i treści, a jednocześnie umożliwiać konwersację.
ChatGPT ma szeroki zakres możliwości, dzięki czemu jest użyteczny dla milionów. Na przykład ChatGPT może pisać historie, formułować dowcipy, tłumaczyć tekst, edukować użytkowników i nie tylko. Podczas gdy ChatGPT może być również używany do bardziej nielegalnych działań, takich jak
tworzenie złośliwego oprogramowania, jego wszechstronność jest nieco rewolucyjna.Model GPT-4 ChatGPT został wydany 14 marca 2023 r. Ta wersja ChatGPT została zaprojektowana w celu lepszego zrozumienia języka emocjonalnego poprzez tekst, a także lepszego zrozumienia różnych dialektów językowych i przetwarzania obrazu. GPT-4 może również prowadzić dłuższe rozmowy i skutecznie odpowiadać na dłuższe podpowiedzi użytkownika.
Dodatkowo parametry GPT-4 znacznie przewyższają parametry GPT-3.5. Parametry ChatGPT określają, w jaki sposób sztuczna inteligencja przetwarza informacje i reaguje na nie. Krótko mówiąc, parametry określają umiejętność interakcji chatbota z użytkownikami. Podczas gdy GPT-3.5 ma 175 miliardów parametrów, GPT-4 ma niewiarygodne 100 do 170 bilionów parametrów (podobno – OpenAI nie potwierdziło tej liczby).
To GPT-3.5 OpenAI został użyty do zasilania ChatGPT, który jest obecnie najpopularniejszym chatbotem AI na świecie. Tak więc GPT-3.5 pozostawił niezaprzeczalny ślad w dziedzinie sztucznej inteligencji. Ale w branży technologicznej zawsze coś się dzieje, więc nie jest niespodzianką, że GPT-3.5 ma teraz następcę GPT-4.
Jednak GPT-4 w żadnym wypadku nie jest doskonały. W rzeczywistości długie czasy reakcji GPT-4 powodują spore zamieszanie. Przyjrzyjmy się temu problemowi i wyjaśnijmy, dlaczego tak się dzieje.
ChatGPT-4 działa wolno
Wielu zauważyło po wydaniu GPT-4, że nowy chatbot OpenAI był niesamowicie powolny. To spowodowało frustrację wielu użytkowników, ponieważ GPT-4 miał być krokiem naprzód w stosunku do GPT-3.5, a nie wstecz. W rezultacie użytkownicy GPT-4 udali się na platformy internetowe, takie jak Reddit i forum społeczności OpenAI, aby omówić ten problem.
NA Forum społeczności OpenAI, wielu użytkowników zgłosiło swoje frustracje związane z opóźnieniami GPT-4. Jeden z użytkowników stwierdził, że GPT-4 był „niezwykle powolny” po ich stronie i że nawet niewielkie żądania wysyłane do chatbota powodowały niezwykle duże opóźnienia, przekraczające 30 sekund.
Inni użytkownicy szybko podzielili się swoimi doświadczeniami z GPT-4, a jeden z nich skomentował pod postem, że „to samo połączenie z tymi samymi danymi może trwać do 4 razy wolniej niż 3,5 turbo”.
Winnym Post na forum społeczności OpenAI, użytkownik skomentował, że jego monity czasami spotykają się z komunikatem „błąd w strumieniu ciała„wiadomość, w wyniku której nie ma odpowiedzi. W tym samym wątku inna osoba stwierdziła, że nie może zmusić GPT-4 do „skutecznej odpowiedzi za pomocą a kompletny skrypt." Inny użytkownik skomentował, że podczas próby użycia ciągle napotykają błędy sieciowe GPT-4.
Z opóźnieniami i nieudanymi lub niedopracowanymi odpowiedziami wydaje się, że GPT-4 jest pełen problemów, które szybko zniechęcają użytkowników.
Dlaczego właściwie tak się dzieje? Czy coś jest nie tak z GPT-4?
Dlaczego GPT-4 działa wolno w porównaniu z GPT-3.5?
W poście na forum społeczności OpenAI, o którym mowa powyżej, jeden użytkownik odpowiedział, sugerując, że opóźnienie było spowodowane „bieżącym problemem z całą infrastrukturą przeciążenie”, dodając, że wyzwaniem jest „zajęcie się skalowalnością w tak krótkim czasie przy takiej popularności i liczbie użytkowników zarówno czatu, jak i interfejs API”.
W Post z Reddita przesłane na subreddit r/singularity, użytkownik przedstawił kilka możliwych przyczyn powolności GPT-4, zaczynając od większego rozmiaru kontekstu. W ekosystemie GPT rozmiar kontekstu odnosi się do tego, ile informacji dana wersja chatbota może przetworzyć, a następnie wygenerować informacje. Podczas gdy rozmiar kontekstu GPT-3.5 wynosił 4K, GPT-4 jest dwa razy większy. Tak więc rozmiar kontekstu 8K może mieć wpływ na ogólną prędkość GPT-4.
Autor Reddit zasugerował również, że ulepszona sterowność i kontrola GPT-4 może odgrywać rolę w czasie przetwarzania chatbota. Tutaj autor stwierdził, że GPT-4 ma większą sterowność i kontrolę halucynacji i jest niestosowny język może być winowajcą, ponieważ te funkcje dodają dodatkowe kroki do metody przetwarzania GPT-4 Informacja.
Ponadto zaproponowano, że zdolność GPT-4 do przetwarzania obrazów może spowalniać działanie. Ta przydatna funkcja jest uwielbiana przez wielu, ale może mieć pewien haczyk. Biorąc pod uwagę, że podobno GPT-4 potrzebuje 10-20 sekund na przetworzenie dostarczonego obrazu, istnieje szansa, że ten komponent wydłuża czas reakcji (chociaż nie wyjaśnia to opóźnień, jakich doświadczają użytkownicy wysyłający tylko monity tekstowe).
Inni użytkownicy sugerowali, że nowość ChatGPT-4 odgrywa dużą rolę w tych opóźnieniach. Innymi słowy, niektórzy uważają, że najnowszy chatbot OpenAI musi doświadczyć pewnych rosnących bólów, zanim wszystkie wady zostaną wyeliminowane.
Ale największym powodem, dla którego GPT-4 jest powolny, jest liczba parametrów, które może wywołać GPT-4 w porównaniu z GPT-3.5. The fenomenalny wzrost parametrów oznacza po prostu, że nowszy model GPT potrzebuje więcej czasu na przetwarzanie informacji i reagowanie dokładnie. Otrzymujesz lepsze odpowiedzi przy większej złożoności, ale dotarcie do nich zajmuje trochę więcej czasu.
Czy powinieneś wybrać GPT-3.5 zamiast GPT-4?
Mając więc na uwadze te kwestie, powinieneś użyć GPT-3.5 lub GPT-4?
W chwili pisania tego tekstu wydaje się, że GPT-3.5 jest lepszą opcją niż GPT-4. Tak wielu użytkowników doświadczyło opóźnień, że prawdopodobnie problem z czasem dotyczy wszystkich, a nie tylko kilku osób. Tak więc, jeśli ChatGPT-3.5 obecnie spełnia wszystkie Twoje oczekiwania i nie chcesz czekać na odpowiedź w zamian za dodatkowe funkcje, może warto na razie pozostać przy tej wersji.
Należy jednak zauważyć, że GPT-4 to nie tylko GPT-3.5, ale wolniejszy. Ta wersja chatbota OpenAI ma wiele zalet w stosunku do swojego poprzednika. Jeśli szukasz bardziej zaawansowanego chatbota AI i nie masz nic przeciwko dłuższemu czekaniu na odpowiedzi, być może warto przejść z GPT-3.5 na GPT-4.
Z biegiem czasu opóźnienia GPT-4 mogą zostać zmniejszone lub całkowicie rozwiązane, więc cierpliwość może być tutaj zaletą. Niezależnie od tego, czy spróbujesz przełączyć się na GPT-4 teraz, czy poczekasz trochę dłużej, aby zobaczyć, jak sprawy potoczą się z tą wersją, nadal możesz wiele zyskać z fajnego małego chatbota OpenAI.
GPT-4 jest bardziej zaawansowany, ale ma opóźnienie
Chociaż GPT-4 ma wiele zaawansowanych możliwości w porównaniu z GPT-3.5, jego znaczne opóźnienia i błędy odpowiedzi sprawiły, że dla niektórych jest bezużyteczny. Problemy te mogą zostać rozwiązane w najbliższej przyszłości, ale na razie GPT-4 z pewnością ma pewne przeszkody do pokonania, zanim zostanie zaakceptowany na szerszą skalę.