Sztuczna inteligencja nie jest gotowa, by nas zniszczyć… już.
Sztuczna inteligencja była tematem dyskusji od samego początku. Podczas gdy obawy, że sztuczna inteligencja podobna do Skynetu ożyje i przejmie ludzkość, są co najmniej irracjonalne, niektóre eksperymenty przyniosły niepokojące wyniki.
Jednym z takich eksperymentów jest problem maksymalizacji spinacza, eksperyment myślowy, który pokazuje, że wysoce inteligentna sztuczna inteligencja, nawet jeśli została zaprojektowana całkowicie bez złośliwości, może ostatecznie zniszczyć ludzkość.
Wyjaśnienie problemu maksymizera spinacza
Ten eksperyment myślowy, w ramach którego nawet całkowicie nieszkodliwa sztuczna inteligencja mogłaby ostatecznie unicestwić ludzkość, został najpierw nazwany Maksymizerem spinaczy, ponieważ spinacze zostały wybrane, aby pokazać co sztuczna inteligencja może zrobić, ponieważ stwarza niewielkie zagrożenie i nie powoduje emocjonalnego niepokoju w porównaniu z innymi obszarami, których dotyczy ten problem, takimi jak leczenie raka lub wygrywanie wojny.
Pierwszy eksperyment pojawił się w artykule szwedzkiego filozofa Nicka Bostroma z 2003 roku pt. Kwestie etyczne w zaawansowanej sztucznej inteligencji, który obejmował maksymalizator spinacza, aby pokazać egzystencjalne ryzyko, z którego może skorzystać wystarczająco zaawansowana sztuczna inteligencja.
Problem przedstawiała sztuczna inteligencja, której jedynym celem było wykonanie jak największej liczby spinaczy. Wystarczająco inteligentna sztuczna inteligencja prędzej czy później zda sobie sprawę, że ludzie stanowią wyzwanie dla jej celu z trzech różnych powodów.
- Ludzie mogliby wyłączyć sztuczną inteligencję.
- Ludzie mogą zmienić swoje cele.
- Ludzie są zbudowani z atomów, które można zamienić w spinacze do papieru.
We wszystkich trzech przykładach we wszechświecie byłoby mniej spinaczy do papieru. Dlatego wystarczająco inteligentna sztuczna inteligencja, której jedynym celem jest zrobienie jak największej liczby spinaczy przejąłby całą materię i energię w zasięgu ręki i nie pozwoliłby się wyłączyć lub zmienione. Jak się zapewne domyślasz, jest to o wiele bardziej niebezpieczne niż przestępcy używają ChatGPT do włamania się na twoje konto bankowe lub komputer.
Sztuczna inteligencja nie jest wrogo nastawiona do ludzi; jest po prostu obojętny. Sztuczna inteligencja, której zależy tylko na maksymalizacji liczby spinaczy, zniszczyłaby zatem ludzkość i zasadniczo przekształciła ją w spinacze, aby osiągnąć swój cel.
W jaki sposób problem maksymizera spinacza odnosi się do sztucznej inteligencji?
Badania i eksperymenty wspominają o problemie maksymalizacji spinacza, wszystkie wspominają o hipotetycznym, niezwykle potężnym optymalizatorze lub wysoce inteligentnym agencie jako stronie działającej tutaj. Mimo to problem dotyczy sztucznej inteligencji w takim samym stopniu, w jakim idealnie pasuje do tej roli.
Pomysł maksymalizatora spinacza został stworzony, aby pokazać niektóre niebezpieczeństwa zaawansowanej sztucznej inteligencji. Ogólnie rzecz biorąc, przedstawia dwa problemy.
- Teza o ortogonalności: Teza o ortogonalności to pogląd, że inteligencja i motywacja nie są od siebie współzależne. Oznacza to, że sztuczna inteligencja o wysokim poziomie inteligencji ogólnej może nie dojść do takich samych wniosków moralnych, jak ludzie.
- Zbieżność instrumentalna: Konwergencja instrumentalna jest definiowana jako tendencja większości istot wystarczająco inteligentnych (oba ludzkie i nie-ludzkie) do dążenia do podobnych celów cząstkowych, nawet jeśli ich ostateczny cel może być całkowity różny. W przypadku problemu maksymalizacji spinacza oznacza to, że sztuczna inteligencja przejmie kontrolę nad każdym zasobów naturalnych i unicestwiając ludzkość tylko po to, by osiągnąć swój cel, jakim jest tworzenie coraz większej ilości spinacze.
Większym problemem podkreślonym przez maksymalizator spinacza jest zbieżność instrumentalna. Można to również podkreślić za pomocą hipotezy Riemanna, w którym to przypadku sztuczna inteligencja zaprojektowana do rozwiązania tej hipotezy może bardzo dobrze zdecydować się na przejęcie wszystkich masy Ziemi i przekształcić ją w komputronium (najwydajniejsze możliwe procesory komputerowe), aby zbudować superkomputery, aby rozwiązać problem i osiągnąć jego bramka.
Sam Bostrom podkreślił, że nie wierzy, aby problem maksymalizacji spinaczy kiedykolwiek był prawdziwym problemem, ale jego intencją było ilustrują niebezpieczeństwa związane z tworzeniem superinteligentnych maszyn bez wiedzy, jak je kontrolować lub programować, aby nie były egzystencjalnie ryzykowne dla człowieka istoty. Nowoczesne systemy AI, takie jak ChatGPT, również mają problemy, ale daleko im do superinteligentnych systemów sztucznej inteligencji, o których mówi się w problemie maksymalizacji spinacza, więc nie ma jeszcze powodu do paniki.
Zaawansowane systemy sztucznej inteligencji wymagają doskonałej kontroli
Problem maksymalizacji spinacza zawsze prowadzi do tego samego wniosku i uwydatnia problemy związane z zarządzaniem wysoce inteligentnym i potężnym systemem, któremu brakuje ludzkich wartości.
Chociaż użycie spinaczy biurowych może być najpopularniejszą metodą zilustrowania problemu, dotyczy to dowolnej liczby zadań, które może dać sztucznej inteligencji eliminację raka, wygrywanie wojen, sadzenie większej liczby drzew lub jakiekolwiek inne zadanie, bez względu na to, jak pozornie głupi.