Odkryj moc interfejsu API OpenAI i wszystkie możliwości, jakie zapewnia.
Moc generacyjna ChatGPT wywołała szaleństwo w świecie technologii od czasu jego uruchomienia. Aby podzielić się intuicją sztucznej inteligencji, 1 marca 2023 r. firma OpenAI udostępniła interfejsy API ChatGPT i Whisper, aby programiści mogli je eksplorować i wykorzystywać w aplikacji.
Interfejsy API OpenAI zawierają wiele cennych punktów końcowych, które ułatwiają integrację AI. Zbadajmy moc interfejsów API OpenAI, aby zobaczyć, jakie korzyści mogą one przynieść Tobie.
Co potrafi API OpenAI?
The API OpenAI pakuje w kilka narzędzi dla programistów. Jeśli zamierzasz codziennie dostarczać sztuczną inteligencję w aplikacji, OpenAI ułatwi Ci życie dzięki następującym funkcjom.
Czat
Punkt końcowy zakończenia czatu OpenAI API pomaga użytkownikowi końcowemu rozpocząć naturalną, przyjazną człowiekowi sesję interaktywną z wirtualnym asystentem przy użyciu modelu GPT-3.5-turbo.
Za kulisami wywołanie API używa tablicy komunikatów ról i treści. Po stronie użytkownika treść to zestaw instrukcji dla wirtualnego asystenta, który angażuje użytkownika, natomiast dla modelu treść jest jego odpowiedzią.
Rola najwyższego poziomu to system, w którym definiujesz ogólną funkcję wirtualnego asystenta. Na przykład, kiedy programista mówi systemowi coś w stylu „jesteś pomocnym wirtualnym asystentem”, oczekujesz, że odpowie na różne pytania w ramach swoich możliwości uczenia się.
Po powiedzeniu, że jest „pomocnym wirtualnym asystentem”, oto jak przebiegał jeden z naszych czatów w wierszu poleceń z modelem GPT-3.5-turbo:
Możesz nawet poprawić wydajność modelu, podając parametry, takie jak temperatura, kara za obecność, kara za częstotliwość i inne. Jeśli kiedykolwiek korzystałeś z ChatGPT, wiesz już, jak działa model zakończenia czatu OpenAI.
Uzupełnianie tekstu
Interfejs API uzupełniania tekstu zapewnia funkcje konwersacji, wstawiania tekstu i uzupełniania tekstu w oparciu o zaawansowane modele GPT-3.5.
Model mistrzowski w punkcie końcowym uzupełniania tekstu to text-davinci-003, który jest znacznie bardziej intuicyjny niż modele języka naturalnego GPT-3. Punkt końcowy akceptuje monit użytkownika, umożliwiając modelowi reagowanie w sposób naturalny i uzupełnianie prostych i złożonych zdań przy użyciu tekstu przyjaznego dla człowieka.
Chociaż punkt końcowy uzupełniania tekstu nie jest tak intuicyjny jak punkt końcowy czatu, staje się lepszy — w miarę zwiększania tokenów tekstowych dostarczanych do modelu text-davinci-003.
Na przykład otrzymaliśmy kilka niedokończonych uzupełnień, gdy umieściliśmy model na max_tokens z siedmiu:
Jednak zwiększenie max_tokens do 70 wygenerowało bardziej spójne myśli:
Zamiana mowy na tekst
Możesz transkrybować i tłumaczyć mowę dźwiękową przy użyciu punktów końcowych transkrypcji i tłumaczenia OpenAI. Punkty końcowe zamiany mowy na tekst są oparte na modelu Whisper v2-large, opracowanym na podstawie słabego nadzoru na dużą skalę.
Jednak OpenAI twierdzi, że nie ma różnicy między jego modelem Whisper a modelem open source. Oferuje więc nieskończone możliwości integracji wielojęzycznej transkrypcji i sztucznej inteligencji tłumacza w Twojej aplikacji na dużą skalę.
Użycie punktu końcowego jest proste. Wszystko, co musisz zrobić, to dostarczyć modelowi plik audio i wywołać otwórz. Tłumaczenie audio Lub otwórz. Transkrypcja audio punkt końcowy, aby odpowiednio go przetłumaczyć lub transkrybować. Te punkty końcowe akceptują maksymalny rozmiar pliku 25 MB i obsługują większość typów plików audio, w tym mp3, mp4, MPEG, MPGA, m4a, wav i webm.
Porównanie tekstu
Punkt końcowy porównania tekstu API OpenAI mierzy relacje między tekstami przy użyciu modelu osadzania tekstu-ada-002, modelu osadzania drugiej generacji. Interfejs API osadzania używa tego modelu do oceny relacji między tekstami na podstawie odległości między dwoma punktami wektorowymi. Im większa różnica, tym mniej powiązane są porównywane teksty.
Punkt końcowy osadzania obejmuje grupowanie tekstu, różnice, trafność, zalecenia, tonacje i klasyfikację. Dodatkowo pobierana jest opłata za wolumen tokena.
Chociaż dokumentacja OpenAI mówi, że można używać innych modeli osadzania pierwszej generacji, ten pierwszy jest lepszy w niższej cenie. Jednak OpenAI ostrzega, że model osadzania może pokazywać uprzedzenia społeczne wobec niektórych osób, co udowodniono w testach.
Uzupełnianie kodu
Punkt końcowy uzupełniania kodu jest oparty na OpenAI Codex, zestawie modeli wyszkolonych przy użyciu języka naturalnego i miliardów linii kodu z publicznych repozytoriów.
Punkt końcowy jest w ograniczonej wersji beta i jest bezpłatny od chwili pisania, oferując obsługę wielu nowoczesnych języków programowania, w tym JavaScript, Python, Go, PHP, Ruby, Shell, TypeScript, Swift, Perl i SQL.
W modelu code-davinci-002 lub code-cushman-001 punkt końcowy uzupełniania kodu może automatycznie wstawiać wiersze kodu lub uruchamiać bloki kodu z monitu użytkownika. Podczas gdy ten drugi model jest szybszy, ten pierwszy jest siłą napędową punktu końcowego, ponieważ zawiera wstawianie kodu do automatycznego uzupełniania kodu.
Na przykład możesz wygenerować blok kodu, wysyłając monit do punktu końcowego w komentarzu w języku docelowym.
Oto kilka odpowiedzi, które otrzymaliśmy, gdy próbowaliśmy wygenerować kilka bloków kodu w Pythonie i JavaScript za pośrednictwem terminala:
Generowanie obrazu
Jest to jedna z najbardziej intuicyjnych funkcji API OpenAI. W oparciu o model obrazu DALL.E, funkcjonalność obrazu OpenAI API obejmuje punkty końcowe do generowania, edytowania i tworzenia odmian obrazów na podstawie monitów języka naturalnego.
Chociaż nie ma jeszcze zaawansowanych funkcji, takich jak skalowanie w górę, ponieważ wciąż jest w fazie beta, jego nieskalowane wyniki są bardziej imponujące niż w przypadku generatywnego modele sztuki, takie jak Midjourney i stabilna dyfuzja.
Uderzając w punkt końcowy generowania obrazu, wystarczy podać monit, rozmiar obrazu i liczbę obrazów. Ale punkt końcowy edycji obrazu wymaga dołączenia obrazu, który chcesz edytować, oraz maski RGBA oznaczającej punkt edycji oprócz innych parametrów.
Z drugiej strony punkt końcowy wariacji wymaga tylko obrazu docelowego, liczby wariacji i rozmiaru wyjściowego. W chwili pisania tego tekstu punkty końcowe obrazu w wersji beta OpenAI akceptowały tylko kwadratowe ramki w zakresie 256x256, 512x512 i 1024x1024 pikseli.
Stworzyliśmy prostą aplikację do generowania obrazu przy użyciu tego punktu końcowego i choć brakowało w niej niektórych szczegółów, dało to niesamowity wynik:
Jak korzystać z API OpenAI
Korzystanie z interfejsu API OpenAI jest proste i zgodne z konwencjonalnym wzorcem korzystania z interfejsu API.
- Zainstaluj otwórz pakiet za pomocą pip: pip zainstaluj openai.Jeśli zamiast tego używasz Node, możesz to zrobić za pomocą npm: npm zainstaluj openai.
- Chwyć klucze API: Zaloguj się do pulpitu nawigacyjnego OpenAI i kliknij ikonę swojego profilu w prawym górnym rogu. Iść do Wyświetl klucze API i kliknij Utwórz nowy tajny klucz wygenerować swój tajny klucz API.
- Wykonuj wywołania interfejsu API do wybranych punktów końcowych modelu za pośrednictwem języka po stronie serwera, takiego jak Python lub JavaScript (Node). Dostarcz je do swoich niestandardowych interfejsów API i przetestuj swoje punkty końcowe.
- Następnie pobierać niestandardowe interfejsy API za pomocą JavaScript frameworki takie jak React, Vue czy Angular.
- Zaprezentuj dane (żądania użytkowników i modelowe odpowiedzi) w atrakcyjnym wizualnie interfejsie użytkownika, a Twoja aplikacja będzie gotowa do użytku w świecie rzeczywistym.
Co możesz stworzyć za pomocą API OpenAI?
Interfejsy API OpenAI tworzą punkty wejścia do rzeczywistego wykorzystania uczenia maszynowego i uczenia się przez wzmacnianie. Chociaż możliwości kreatywności jest mnóstwo, oto kilka z tego, co możesz zbudować za pomocą interfejsów API OpenAI:
- Zintegruj intuicyjnego chatbota wirtualnego asystenta ze swoją witryną lub aplikacją, korzystając z punktu końcowego zakończenia czatu.
- Utwórz aplikację do edycji i manipulacji obrazami, która może w naturalny sposób wstawić obiekt do obrazu w dowolnym określonym punkcie przy użyciu punktów końcowych generowania obrazu.
- Zbuduj od podstaw niestandardowy model uczenia maszynowego, korzystając z punktu końcowego dostrajania modelu OpenAI.
- Napraw napisy i tłumaczenia dla wideo, audio i rozmów na żywo, korzystając z punktu końcowego modelu zamiany mowy na tekst.
- Zidentyfikuj negatywne nastroje w swojej aplikacji za pomocą punktu końcowego osadzania modelu OpenAI.
- Twórz wtyczki uzupełniania kodu specyficzne dla języka programowania dla edytorów kodu i zintegrowanych środowisk programistycznych (IDE).
Twórz bez końca dzięki interfejsom API OpenAI
Nasza codzienna komunikacja często polega na wymianie treści pisanych. OpenAI API tylko rozszerza swoje twórcze tendencje i potencjał, z pozornie nieograniczonymi przypadkami użycia języka naturalnego.
API OpenAI to wciąż wczesne dni. Ale spodziewaj się, że z upływem czasu będzie ewoluować z większą liczbą funkcji.