Podczas gdy na rynku dominuje oprogramowanie własnościowe, takie jak GPT i PaLM, wielu programistów dostrzega zamiast tego wartość w modelach językowych open source. Weźmy Meta za przykład. W lutym 2023 r. trafił na pierwsze strony gazet po oficjalnym opublikowaniu dużego modelu językowego LLaMA jako programu typu open source. Nic dziwnego, że decyzja ta spotkała się z mieszanymi reakcjami.

Ponieważ modele językowe typu open source mają wiele zalet i wad oraz mogą pozytywnie i negatywnie wpływać na branżę sztucznej inteligencji, podsumowaliśmy kluczowe punkty, które powinieneś znać i rozumieć.

5 pozytywnych skutków modeli językowych Open Source

Modele językowe typu open source sprzyjają podejściu opartemu na współpracy. Dane wejściowe, recenzje i przypadki użycia od programistów z całego świata prawdopodobnie pomagają im rozwijać się szybciej niż zamknięte projekty.

1. Programiści AI oszczędzają zasoby, korzystając z modeli Open Source

Uruchomienie zastrzeżonych modeli językowych kosztuje miliony, jeśli nie miliardy zasobów. Weźmy jako przykład OpenAI.

Informator biznesowy informuje, że firma musiała zebrać około 30 miliardów dolarów, aby wydajnie obsługiwać ChatGPT. Pozyskanie tak dużego finansowania jest dla większości firm niemożliwe. Startupy technologiczne na wczesnym etapie miałyby szczęście, gdyby osiągnęły nawet siedem cyfr.

Biorąc pod uwagę wysokie koszty ogólne, wielu programistów używa zamiast tego modeli językowych typu open source. Oszczędzają miliony, wykorzystując architekturę tych systemów, strukturę neuronową, dane treningowe, algorytm, implementację kodu i zestawy danych szkoleniowych.

2. Modele Open Source prawdopodobnie rozwijają się szybciej

Wielu liderów technologii twierdzi, że modele języków open source rozwijają się szybciej niż ich odpowiedniki własnościowe. Cenią wkład i współpracę społeczności. Nad otwartymi projektami pracują miliony wykwalifikowanych programistów — teoretycznie mogliby znacznie szybciej osiągnąć bezbłędną, wyrafinowaną iterację.

Wypełnianie luk w wiedzy jest również szybsze dzięki sztucznej inteligencji typu open source. Zamiast szkolić zespoły w znajdowaniu błędów, testowaniu aktualizacji i eksplorowaniu wdrożeń, firmy mogą analizować wkład społeczności. Dzielenie się wiedzą umożliwia użytkownikom wydajniejszą pracę.

Wkłady społeczności nie zawsze są dokładne. Deweloperzy nadal powinni dokładnie sprawdzać algorytmy i modele przed zintegrowaniem ich ze swoimi systemami.

3. Programiści szybciej wykrywają luki w zabezpieczeniach

Modele językowe typu open source zachęcają do recenzowania i aktywnego zaangażowania w społeczności współpracującej. Deweloperzy mogą swobodnie uzyskiwać dostęp do zmian bazy kodu. Przy tak wielu użytkownikach analizujących otwarte projekty prawdopodobnie szybciej wykryją problemy z bezpieczeństwem, luki w zabezpieczeniach i błędy systemowe.

Usprawniono również rozwiązywanie błędów. Zamiast ręcznie rozwiązywać problemy systemowe, programiści mogą sprawdzić system kontroli wersji projektu pod kątem wcześniejszych poprawek. Niektóre wpisy mogą być nieaktualne. Jednak nadal będą stanowić pomocny punkt wyjścia dla badaczy i trenerów sztucznej inteligencji.

4. Liderzy technologii sztucznej inteligencji uczą się na modelach open source

Modele językowe typu open source korzystają z pętli sprzężenia zwrotnego. Pętla z pozytywnym sprzężeniem zwrotnym udostępnia skuteczne algorytmy, zestawy danych i funkcje, zachęcając programistów do ich naśladowania. Proces oszczędza im dużo czasu. Pamiętaj tylko, że przy pozytywnych opiniach mogą pojawić się błędy, które użytkownicy przypadkowo powielają — błędy są zwykle pomijane.

Tymczasem negatywne sprzężenie zwrotne koncentruje się na obszarach wymagających poprawy. Proces obejmuje dzielenie się osobistymi spostrzeżeniami podczas rozwiązywania błędów, testowania nowych funkcji i rozwiązywania problemów systemowych.

5. Platformy sztucznej inteligencji typu open source uzyskują pierwszeństwo w nowych systemach

Firmy technologiczne nie udostępniają systemów językowych za miliardy dolarów z uprzejmości. Chociaż licencje typu open source zapewniają użytkownikom zewnętrznym swobodę modyfikowania i sprzedawania systemów, mają one ograniczenia.

Dystrybutorzy często tworzą warunki, które zapewniają im zachowanie pewnej władzy. Zasady te znajdziesz w umowach licencyjnych na programy typu open source — użytkownicy końcowi rzadko mają 100% uprawnień.

Powiedzmy, że Meta chce mieć kontrolę nad produktami zasilanymi przez LLaMA. Jej zespół prawny mógłby określić, że Meta zastrzega sobie prawo do inwestowania we wszelkie nowe systemy zbudowane na jej modelu językowym.

Ale nie zrozum źle — zewnętrzni programiści i dystrybutorzy nadal zawierają obopólnie korzystne umowy. Ta ostatnia dostarcza technologie i systemy warte miliardy dolarów. Tymczasem startupy i niezależni programiści badają sposoby implementacji ich w różnych aplikacjach.

5 negatywnych skutków modeli językowych Open Source

Modele językowe typu open source są z natury bezstronne, ale ludzie nie. Konsumenci, programiści i firmy o złych intencjach mogą wykorzystać otwarty charakter tych systemów dla osobistych korzyści.

1. Firmy przypadkowo dołączają do wyścigu AI

Firmy znajdują się obecnie pod zbyt dużą presją, aby dołączyć do wyścigu AI. Wraz z popularyzacją systemów sztucznej inteligencji wiele firm obawia się, że staną się one przestarzałe, jeśli nie przyjmą sztucznej inteligencji. W rezultacie marki przypadkowo wskakują na modę. Integrują modele językowe open source w swoich produktach, aby sprzedawać produkt i nadążać za konkurencją, nawet jeśli nie oferują nic wartościowego.

Tak, sztuczna inteligencja to szybko rozwijający się rynek. Ale beztroskie udostępnianie wyrafinowanych, ale niepewnych systemów szkodzi branży i zagraża bezpieczeństwu konsumentów. Deweloperzy powinni wykorzystywać sztuczną inteligencję do rozwiązywania problemów, a nie stosować sztuczki marketingowe.

2. Konsumenci uzyskują dostęp do technologii, którą ledwo rozumieją

Znajdziesz oparte na sztucznej inteligencji odmiany różnych narzędzi technicznych, od edytory obrazów online Do aplikacje monitorujące stan zdrowia. A marki będą wprowadzać nowe systemy w miarę ewolucji sztucznej inteligencji. Modele sztucznej inteligencji pomagają im zapewniać bardziej spersonalizowane, zorientowane na użytkownika iteracje istniejących platform.

Podczas gdy branża technologiczna z zadowoleniem przyjmuje innowacje, szybka ewolucja sztucznej inteligencji wyprzedza edukację użytkowników. Konsumenci uzyskują dostęp do technologii, których prawie nie rozumieją. Brak edukacji powoduje ogromne luki w wiedzy, przez co społeczeństwo jest podatne na zagrożenia cyberbezpieczeństwa i drapieżne praktyki.

Marki powinny traktować priorytetowo szkolenia tak samo, jak rozwój produktu. Muszą pomóc użytkownikom zrozumieć bezpieczne i odpowiedzialne sposoby korzystania z potężnych narzędzi opartych na sztucznej inteligencji.

3. Nie wszyscy programiści mają dobre intencje

Nie wszyscy używają narzędzi AI zgodnie z ich przeznaczeniem. Na przykład OpenAI opracował ChatGPT, aby odpowiadać na pytania dotyczące wiedzy ogólnej bezpiecznej w pracy i replikować dane wyjściowe w języku naturalnym, ale przestępcy wykorzystują je do nielegalnych działań. Było ich kilka Oszustwa ChatGPT od uruchomienia chatbota AI w listopadzie 2022 r.

Nawet jeśli laboratoria sztucznej inteligencji narzucą sztywne ograniczenia, oszuści i tak znajdą sposób na ich obejście. Ponownie weź ChatGPT jako przykład. Użytkownicy obchodzą ograniczenia i wykonują zabronione zadania za pomocą Monity o jailbreak ChatGPT.

Poniższe konwersacje demonstrują te luki w zabezpieczeniach. ChatGPT ma ograniczone zbiory danych; w związku z tym nie może przewidywać niestabilnych, niegwarantowanych zdarzeń.

Pomimo swoich ograniczeń, ChatGPT wykonał naszą prośbę i przedstawił bezpodstawne prognozy po jailbreaku.

4. Instytucje mogą mieć problemy z uregulowaniem sztucznej inteligencji typu open source

Organy regulacyjne z trudem nadążają za sztuczną inteligencją, a rozprzestrzenianie się modeli open source tylko utrudnia monitorowanie. Postępy w zakresie sztucznej inteligencji już wyprzedzają ramy regulacyjne. Nawet światowi liderzy technologii, tacy jak Elon Musk, Bill Gates i inni Sam Altman wzywa do zaostrzenia przepisów dotyczących sztucznej inteligencji.

Zarówno sektor prywatny, jak i rządowy muszą kontrolować te systemy. W przeciwnym razie złośliwe osoby będą nadal wykorzystywać je do naruszania przepisów dotyczących prywatności danych, wykonaj kradzież tożsamościi ofiarami oszustw, a także innymi nielegalnymi działaniami.

5. Niższe bariery utrudniające wejście Jakość

Rozprzestrzenianie się modeli językowych typu open source obniża bariery wejścia do wyścigu AI. W Internecie znajdziesz tysiące narzędzi opartych na sztucznej inteligencji.

Obserwowanie, jak firmy wdrażają uczenie maszynowe i głębokie uczenie się, może wydawać się imponujące, ale niewiele z nich zapewnia jakąkolwiek rzeczywistą wartość. Większość po prostu kopiuje swoich konkurentów. Z biegiem czasu dostępność wyrafinowanych modeli językowych i zestawów danych szkoleniowych może utowarowić bezsensowne platformy AI.

Ogólny wpływ modeli języka Open Source na branżę sztucznej inteligencji

Chociaż modele językowe typu open source sprawiają, że technologie sztucznej inteligencji są bardziej dostępne, wiążą się one również z kilkoma zagrożeniami dla bezpieczeństwa. Deweloperzy powinni wprowadzić surowsze ograniczenia. W przeciwnym razie oszuści będą nadal wykorzystywać przejrzystą architekturę tych systemów.

To powiedziawszy, konsumenci nie są całkowicie bezbronni wobec oszustw AI. Zapoznaj się z typowymi sposobami, w jakie oszuści wykorzystują generatywne narzędzia sztucznej inteligencji i przestudiuj sygnały ostrzegawcze ataków. Z większością cyberprzestępstw można walczyć, zachowując czujność.