Dzięki nowoczesnym modelom językowym sztucznej inteligencji, takim jak ChatGPT i Microsoft Bing Chat, które falują na całym świecie, wiele osób martwi się o przejęcie świata przez sztuczną inteligencję.

Chociaż w dającej się przewidzieć przyszłości nie będziemy wpadać na SkyNet, sztuczna inteligencja staje się lepsza od ludzi w kilku rzeczach. W tym miejscu pojawia się problem kontroli AI.

Wyjaśnienie problemu sterowania AI

Problem kontroli AI to pomysł, że sztuczna inteligencja ostatecznie stanie się lepsza w podejmowaniu decyzji niż ludzie. Zgodnie z tą teorią, jeśli ludzie nie skonfigurują wszystkiego odpowiednio wcześniej, nie będziemy mieli szansy naprawić tego później, co oznacza, że ​​sztuczna inteligencja będzie miała skuteczną kontrolę.

Bieżące badania nad modelami sztucznej inteligencji i uczenia maszynowego (ML) dzielą co najmniej lata od przekroczenia ludzkich możliwości. Można jednak sądzić, że biorąc pod uwagę obecny postęp, sztuczna inteligencja przewyższy człowieka zarówno pod względem inteligencji, jak i wydajności.

instagram viewer

Nie oznacza to, że modele AI i ML nie mają swoich ograniczeń. Związani są przecież prawami fizyki i złożonością obliczeniową, a także mocą obliczeniową urządzeń obsługujących te systemy. Można jednak bezpiecznie założyć, że te ograniczenia znacznie przekraczają ludzkie możliwości.

Oznacza to, że superinteligentny Systemy sztucznej inteligencji mogą stanowić poważne zagrożenie jeśli nie są odpowiednio zaprojektowane z zabezpieczeniami w celu sprawdzenia potencjalnie nieuczciwego zachowania. Takie systemy należy budować od podstaw, aby szanować ludzkie wartości i kontrolować ich moc. To właśnie oznacza problem z kontrolą, kiedy mówi, że wszystko musi być ustawione poprawnie.

Gdyby system sztucznej inteligencji przewyższył ludzką inteligencję bez odpowiednich zabezpieczeń, wynik mógłby być katastrofalny. Takie systemy mogłyby przejąć kontrolę nad zasobami fizycznymi, ponieważ wiele zadań wykonuje się lepiej lub wydajniej. Ponieważ systemy sztucznej inteligencji są zaprojektowane tak, aby osiągnąć maksymalną wydajność, utrata kontroli może prowadzić do poważnych konsekwencji.

Kiedy ma zastosowanie problem kontroli AI?

Główny problem polega na tym, że im lepszy staje się system sztucznej inteligencji, tym trudniej jest ludzkiemu nadzorcy monitorować technologię, aby zapewnić łatwe przejęcie kontroli ręcznej w przypadku awarii systemu. Ponadto ludzka skłonność do polegania na zautomatyzowanym systemie jest większa, gdy system działa niezawodnie przez większość czasu.

Świetnym tego przykładem jest tzw Pakiet w pełni autonomicznej jazdy Tesli (FSD).. Chociaż samochód może sam prowadzić, wymaga trzymania rąk na kierownicy przez człowieka, gotowego do przejęcia kontroli nad samochodem w przypadku awarii systemu. Jednak w miarę jak te systemy sztucznej inteligencji stają się coraz bardziej niezawodne, uwaga nawet najbardziej uważnego człowieka zacznie się zmieniać, a zależność od systemu autonomicznego wzrośnie.

Co się dzieje, gdy samochody zaczynają jechać z prędkością, za którą ludzie nie nadążają? Skończy się na tym, że oddamy kontrolę autonomicznym systemom samochodu, co oznacza, że ​​system sztucznej inteligencji będzie kontrolował twoje życie, przynajmniej do momentu dotarcia do celu.

Czy można rozwiązać problem kontroli AI?

Istnieją dwie odpowiedzi na pytanie, czy problem kontroli AI można rozwiązać. Po pierwsze, jeśli zinterpretujemy to pytanie dosłownie, problemu sterowania nie da się rozwiązać. Nic nie możemy zrobić, co bezpośrednio dotyczyłoby ludzkiej skłonności do polegania na zautomatyzowanym systemie, który przez większość czasu działa niezawodnie i wydajniej.

Jeśli jednak ta tendencja zostanie uwzględniona jako cecha takich systemów, możemy opracować sposoby obejścia problemu sterowania. Na przykład Algorytmiczne podejmowanie decyzji i problem sterowania artykuł badawczy sugeruje trzy różne metody radzenia sobie z kłopotliwą sytuacją:

  • Korzystanie z mniej niezawodnych systemów wymaga aktywnego zaangażowania człowieka w system, ponieważ mniej niezawodne systemy nie stanowią problemu ze sterowaniem.
  • Czekać, aż system przekroczy ludzką wydajność i niezawodność przed wdrożeniem w świecie rzeczywistym.
  • Zaimplementować tylko częściową automatyzację z wykorzystaniem dekompozycji zadań. Oznacza to, że zautomatyzowane są tylko te części systemu, które nie wymagają człowieka do wykonania ważnego zadania. Nazywa się to dynamicznym/komplementarnym podejściem do alokacji funkcji (DCAF).

Podejście DCAF zawsze stawia człowieka na czele zautomatyzowanego systemu, zapewniając, że jego dane wejściowe kontrolują najważniejsze części procesu decyzyjnego systemu. Jeśli system jest wystarczająco angażujący, aby operator mógł stale zwracać uwagę, problem sterowania można rozwiązać.

Czy kiedykolwiek będziemy w stanie naprawdę kontrolować sztuczną inteligencję?

W miarę jak systemy sztucznej inteligencji stają się coraz bardziej zaawansowane, zdolne i niezawodne, będziemy nadal przekazywać im coraz więcej zadań. Jednak problem kontroli AI można rozwiązać za pomocą odpowiednich środków ostrożności i zabezpieczeń.

Sztuczna inteligencja już zmienia dla nas świat, głównie na lepsze. Dopóki technologia znajduje się pod ludzkim nadzorem, nie powinniśmy się niczym martwić.