Najnowsze innowacje związane z technologią opartą na sztucznej inteligencji przesuwają granice tego, co kiedyś uważaliśmy za możliwe dzięki sztucznej inteligencji. Jednak skoro chatboty, takie jak ChatGPT i Bing Chat, są w kilku rzeczach prawie tak dobre jak ludzie, czy nadszedł czas, aby na chwilę przyhamować?

Elon Musk i kilku naukowców zajmujących się sztuczną inteligencją jest wśród 1188 osób (w chwili pisania tego tekstu), które tak myślą. List opublikowany przez niedochodowy instytut Future of Life wzywa do sześciomiesięcznej przerwy w szkoleniu technologii AI lepszych niż GPT 4, ale czy naprawdę potrzebna jest przerwa?

O czym jest list otwarty Future of Life?

The list opublikowany przez instytut Future of Life zwraca uwagę, że laboratoria sztucznej inteligencji zostały „uwięzione w niekontrolowanym wyścigu”, aby rozwijać i wdrażać więcej i potężniejsze modele sztucznej inteligencji, których nikt, łącznie z ich twórcami, nie jest w stanie „zrozumieć, przewidzieć ani wiarygodnie”. kontrola".

instagram viewer

Wskazuje również, że współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne dla ludzi w ogólnych zadaniach i stawia pytania czy powinniśmy rozwijać „nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, przestarzałe i zastąpić nas".

List ostatecznie wzywa wszystkie laboratoria AI do natychmiastowego wstrzymania szkolenia systemów AI potężniejszych niż GPT-4 na co najmniej sześć miesięcy. Wstrzymanie powinno być publiczne i możliwe do zweryfikowania również wśród wszystkich kluczowych aktorów. Stwierdza również, że jeśli takiej przerwy nie można szybko wyegzekwować, rządy powinny tymczasowo zakazać szkolenia modeli AI.

Gdy pauza jest aktywna, laboratoria sztucznej inteligencji i niezależni eksperci są proszeni o wykorzystanie jej do wspólnego opracowania i wdrożenia „wspólny zestaw protokołów bezpieczeństwa”, aby zapewnić, że systemy przestrzegające tych zasad są „bezpieczne ponad rozsądek”. wątpliwość".

Ten list został podpisany przez wiele znanych osobistości, w tym Elon Musk, Steve Wozniak oraz badaczy i autorów AI. W rzeczywistości lista sygnatariuszy jest obecnie wstrzymana z powodu dużego zainteresowania.

Jakie są obawy Muska związane z zaawansowaną technologią sztucznej inteligencji i OpenAI?

Chociaż podpisanie listu Future of Life może wskazywać, że Musk jest zaniepokojony zagrożeniami dla bezpieczeństwa, jakie stwarzają takie zaawansowane systemy sztucznej inteligencji, prawdziwym powodem może być coś innego.

Musk był współzałożycielem OpenAI wraz z obecnym dyrektorem generalnym Samem Altmanem w 2015 roku jako organizacja non-profit. Jednak później w 2018 roku zderzył się z Altmanem, po tym, jak zdał sobie sprawę, że nie jest zadowolony z postępów firmy. Podobno Musk chciał przejąć kontrolę, aby przyspieszyć rozwój, ale Altman i zarząd OpenAI odrzucili ten pomysł.

Wkrótce potem Musk odszedł z OpenAI i zabrał ze sobą pieniądze, łamiąc obietnicę przekazania 1 miliarda funduszy i oddania tylko 100 milionów przed odejściem. To zmusiło OpenAI do przekształcenia się wkrótce potem w marcu 2019 roku w prywatną firmę w celu zebrania funduszy na kontynuację badań.

Źródło zdjęcia: Heisenberg Media/Wikimedia Commons

Innym powodem, dla którego Musk odszedł, był fakt, że rozwój sztucznej inteligencji w Tesli spowodowałby konflikt interesów w przyszłości. To oczywiste, że Tesla potrzebuje zaawansowanych systemów sztucznej inteligencji do zasilania Pełne funkcje autonomicznej jazdy. Odkąd Musk opuścił OpenAI, firma uciekła ze swoimi modelami AI, uruchamiając ChatGPT z obsługą GPT3.5 w 2022 r., a później w następstwie GPT-4 w marcu 2023 r.

Fakt, że zespół AI Muska nie ma nic wspólnego z OpenAI, musi być brany pod uwagę za każdym razem, gdy mówi, że nowoczesne modele sztucznej inteligencji mogą stwarzać ryzyko. On też nie miał problemów wdrażanie wersji beta Tesla Full Self-Driving na drogach publicznych, zasadniczo zamieniając zwykłych kierowców Tesli w beta testerów.

To też nie kończy się tutaj. Musk był również dość krytyczny wobec OpenAI na Twitterze, a Altman posunął się nawet do stwierdzenia, że ​​atakuje je, występując ostatnio w podcaście „On with Kara Swisher”.

W tej chwili wygląda na to, że Musk po prostu używa listu Future of Life, aby zatrzymać rozwój w OpenAI i każdej innej firmie nadrabiającej zaległości do GPT-4, aby dać swoim firmom szansę nadrobienia zaległości, zamiast faktycznie martwić się potencjalnymi zagrożeniami związanymi z modelami AI poza. Zwróć uwagę, że list zawiera również prośbę o wstrzymanie „treningu” systemów sztucznej inteligencji na sześć miesięcy, co można stosunkowo łatwo ominąć, aby w międzyczasie kontynuować ich rozwój.

Czy pauza jest naprawdę potrzebna?

Konieczność pauzy zależy od stanu modeli AI idących do przodu. List zdecydowanie ma nieco dramatyczny ton i nie ryzykujemy utraty kontroli nad naszą cywilizacją na rzecz sztucznej inteligencji, jak to otwarcie stwierdza. To mówi, Technologie sztucznej inteligencji stwarzają kilka zagrożeń.

Biorąc pod uwagę, że OpenAI i inne laboratoria AI mogą opracować lepsze kontrole bezpieczeństwa, przerwa przyniosłaby więcej szkody niż pożytku. Jednak sugestia zawarta w liście dotycząca zestawu wspólnych protokołów bezpieczeństwa, które są „rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych”, brzmi jak dobry pomysł.

Biorąc pod uwagę, że giganci technologiczni, tacy jak Google i Microsoft, inwestują miliardy w rozwój sztucznej inteligencji i integrację w swoich produktach, jest mało prawdopodobne, aby list wpłynął na obecne tempo rozwoju sztucznej inteligencji.

Sztuczna inteligencja zostanie

Dzięki technologicznym gigantom, którzy dalej integrują sztuczną inteligencję w swoich produktach i inwestują miliardy dolarów w badania i rozwój, sztuczna inteligencja pozostanie tutaj, niezależnie od tego, co mówi opozycja.

Ale wdrożenie środków bezpieczeństwa, aby zapobiec wypadnięciu tych technologii z torów i potencjalnemu przekształceniu się w narzędzia do wyrządzania szkód, nie jest złym pomysłem.