LangChain LLM jest gorącym tematem w mieście. Dowiedz się, co to jest i jak zacząć z tym korzystać.

Wraz z wprowadzeniem dużych modeli językowych (LLM) przetwarzanie języka naturalnego stało się tematem rozmów w Internecie. Nowe aplikacje są opracowywane codziennie dzięki LLM, takim jak ChatGPT i LangChain.

LangChain to framework Pythona typu open source, który umożliwia programistom tworzenie aplikacji opartych na dużych modelach językowych. Jego zastosowania to chatboty, podsumowania, generatywne pytania i odpowiedzi oraz wiele innych.

Ten artykuł zawiera wprowadzenie do LangChain LLM. Omówi podstawowe pojęcia, porównanie z innymi modelami językowymi i jak zacząć z nim korzystać.

Zrozumienie LangChain LLM

Zanim wyjaśnisz, jak działa LangChain, najpierw musisz zrozumieć jak działają duże modele językowe. Duży model językowy to rodzaj sztucznej inteligencji (AI). wykorzystuje głębokie uczenie się trenować modele uczenia maszynowego na dużych zbiorach danych składających się z danych tekstowych, numerycznych i kodowych.

instagram viewer

Ogromna ilość danych umożliwia modelowi poznanie istniejących wzorców i relacji między słowami, liczbami i symbolami. Ta funkcja umożliwia modelowi wykonywanie szeregu zadań, takich jak:

  • Generowanie tekstu, tłumaczenie na język, pisanie kreatywnych, technicznych i akademickich treści oraz dokładne i trafne odpowiadanie na pytania.
  • Wykrywanie obiektów na obrazach.
  • Streszczenia książek, artykułów i prac naukowych.

Najbardziej znaczącym ograniczeniem LLM jest to, że modele są bardzo ogólne. Ta cecha oznacza, że ​​pomimo ich zdolności do efektywnego wykonywania kilku zadań, czasami mogą one zapewnić ogólne odpowiedzi na pytania lub podpowiedzi wymagające specjalistycznej wiedzy i głębokiej wiedzy dziedzinowej zamiast szczegółowych odpowiedzi.

Ramy LangChain, opracowane przez Harrisona Chase'a pod koniec 2022 r., oferują innowacyjne podejście do LLM. Proces rozpoczyna się od wstępnego przetworzenia tekstów zestawu danych poprzez podzielenie go na mniejsze części lub streszczenia. Podsumowania są następnie osadzane w przestrzeni wektorowej. Model otrzymuje pytanie, przeszukuje streszczenia i udziela odpowiedniej odpowiedzi.

Metoda wstępnego przetwarzania LangChain jest krytyczną cechą, której nie da się uniknąć, ponieważ LLM stają się coraz potężniejsze i intensywniej przetwarzają dane. Ta metoda jest używana głównie w przypadkach wyszukiwania kodu i semantycznego, ponieważ zapewnia zbieranie w czasie rzeczywistym i interakcję z LLM.

LangChain LLM vs. Inne modele językowe

Poniższy przegląd porównawczy ma na celu podkreślenie unikalnych funkcji i możliwości, które odróżniają LangChain LLM od innych istniejących modeli językowych na rynku:

  • Pamięć: Kilka LLM ma krótką pamięć, co zwykle powoduje utratę kontekstu, jeśli podpowiedzi przekroczą limit pamięci. LangChain zapewnia jednak poprzednie monity i odpowiedzi na czacie, rozwiązując problem limitów pamięci. Historia wiadomości umożliwia użytkownikowi powtórzenie poprzednich wiadomości do LLM w celu podsumowania poprzedniego kontekstu.
  • Przełączanie LLM: W porównaniu z innymi LLM, które blokują twoje oprogramowanie za pomocą API jednego modelu, LangChain zapewnia abstrakcję, która upraszcza przełączanie LLM lub integrację wielu LLM z twoją aplikacją. Jest to przydatne, gdy chcesz zaktualizować możliwości swojego oprogramowania przy użyciu kompaktowego modelu, takiego jak StableLM firmy Stability AI z GPT-3.5 firmy OpenAI.
  • Integracja: Integracja LangChain z Twoją aplikacją jest łatwa w porównaniu z innymi LLM. Zapewnia przepływy pracy potoku więzy I agenci, umożliwiając szybkie włączenie LangChain do Twojej aplikacji. Jeśli chodzi o rurociągi liniowe, łańcuchy są obiektami, które zasadniczo łączą wiele części. Agenci są bardziej zaawansowani, co pozwala wybrać sposób interakcji komponentów przy użyciu logiki biznesowej. Na przykład możesz chcieć użyć logiki warunkowej, aby określić następny sposób działania na podstawie wyników LLM.
  • Przekazywanie danych: Ze względu na ogólną tekstową naturę LLM przekazanie danych do modelu jest zwykle trudne. LangChain rozwiązuje ten problem za pomocą indeksy. Indeksy umożliwiają aplikacji importowanie danych w różnych formatach i przechowywanie ich w sposób umożliwiający udostępnianie ich wiersz po wierszu LLM.
  • Odpowiedzi: LangChain zapewnia narzędzia do analizowania danych wyjściowych, aby udzielać odpowiedzi w odpowiednim formacie, w przeciwieństwie do innych LLM, których modelowa odpowiedź składa się z ogólnego tekstu. Podczas korzystania ze sztucznej inteligencji w aplikacji preferowane jest posiadanie ustrukturyzowanej odpowiedzi, na podstawie której można programować.

Pierwsze kroki z LangChain LLM

Teraz dowiesz się, jak wdrożyć LangChain w rzeczywistym scenariuszu użycia, aby zrozumieć, jak to działa. Przed rozpoczęciem programowania należy skonfigurować środowisko programistyczne.

Konfigurowanie środowiska programistycznego

Pierwszy, stworzyć wirtualne środowisko i zainstaluj poniższe zależności:

  • OpenAI: Aby zintegrować API GPT-3 z Twoją aplikacją.
  • LangChain: Aby zintegrować LangChain z twoją aplikacją.

Używając pip, uruchom poniższe polecenie, aby zainstalować zależności:

 pipenv zainstaluj langchain openai

Powyższe polecenie instaluje pakiety i tworzy środowisko wirtualne.

Zaimportuj zainstalowane zależności

Najpierw zaimportuj niezbędne klasy, takie jak LLMCain, OpenAI, łańcuch konwersacji, I Szablon podpowiedzi od langchain pakiet.

z langchain import ConversationChain, OpenAI, PromptTemplate, LLMChain

z langchain.pamięć import ConversationBufferWindowMemory

Klasy LangChain określają i wykonują łańcuchy modeli językowych.

Uzyskaj dostęp do klucza API OpenAI

Następnie pobierz klucz OpenAI API. Aby uzyskać dostęp do klucza API OpenAI, musisz mieć konto OpenAI, a następnie przejść do Platforma API OpenAI.

Na pulpicie nawigacyjnym kliknij ikonę Profil. Następnie kliknij Wyświetl klucze API przycisk.

Następnie kliknij Utwórz nowy tajny klucz przycisk, aby uzyskać nowy klucz API.

Wprowadź żądaną nazwę klucza API.

Otrzymasz sekretny klucz podpowiedź.

Skopiuj i przechowuj klucz API w bezpiecznym miejscu do wykorzystania w przyszłości.

Tworzenie aplikacji przy użyciu LangChain LLM

Teraz przystąpisz do opracowania prostej aplikacji do czatu w następujący sposób:

# Dostosuj szablon LLM 
szablon = Asystent to duży model językowy przeszkolony przez OpenAI.

{historia}
Człowiek: {human_input}
Asystent:

zachęta = PromptTemplate (input_variables=["historia", "człowiek_wkład"], szablon=szablon)

Następnie załadujesz łańcuch ChatGPT przy użyciu zapisanego wcześniej klucza API.

chatgpt_chain = LLMChain(

llm=OpenAI(openai_api_key=„OPENAI_API_KEY”,temperatura=0),
monit = monit,
gadatliwy=PRAWDA,
memory=ConversationBufferWindowMemory (k=2),

)
# Przewiduj zdanie za pomocą łańcucha chatgpt
wyjście = chatgpt_chain.predict(
dane wejściowe_człowieka=„Co to jest MakeUseOf?”
)
# Wyświetl odpowiedź modelu
wydrukować (wyjście)

Ten kod ładuje łańcuch LLM z kluczem OpenAI API i szablonem pytania. Następnie udostępniane są dane wejściowe użytkownika i wyświetlane są dane wyjściowe.

Powyżej znajduje się oczekiwany wynik.

Rosnący wpływ LLM

Konsumpcja LLM szybko rośnie i zmienia sposób interakcji ludzi z maszynami wiedzy. Frameworki, takie jak LangChain, przodują w zapewnianiu programistom płynnego i prostego sposobu obsługi LLM w aplikacjach. Generatywne modele sztucznej inteligencji, takie jak ChatGPT, Bard i Hugging Face, również nie pozostają w tyle w rozwijaniu aplikacji LLM.