Eksperci uważają, że sztuczna inteligencja zakończy ludzkość taką, jaką znamy, więc co się robi, aby temu zapobiec?

Po raz kolejny grupa wiodących badaczy sztucznej inteligencji i firm technologicznych ostrzegła, że ​​obecny szybki rozwój sztucznej inteligencji może oznaczać katastrofę dla ludzkości.

Zagrożenia obejmują konflikty nuklearne, choroby, dezinformację i uciekającą sztuczną inteligencję bez nadzoru, z których wszystkie stanowią bezpośrednie zagrożenie dla przetrwania ludzkości.

Ale nie będzie stracone, że wiele z tych ostrzeżeń pochodzi od tych samych osób, które kierują rozwojem sztucznej inteligencji i wdrażają narzędzia i programy sztucznej inteligencji w swoich firmach.

Dlaczego firmy technologiczne i naukowcy zajmujący się sztuczną inteligencją ostrzegają przed ryzykiem związanym ze sztuczną inteligencją?

30 maja 2023 r. ponad 350 badaczy, programistów i inżynierów AI wydało wspólnie podpisane oświadczenie ostrzegające przed zagrożeniem ludzkości ze strony sztucznej inteligencji.

instagram viewer

Zmniejszenie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna.

Sygnatariusze ww Oświadczenie Safe.ai w tym Sam Altman z OpenAI, Demis Hassabis z Google DeepMind i Dario Amodei z Anthropic wraz z Turingiem Zdobywcy nagród Geoffrey Hinton i Yoshua Bengio (chociaż Yann LeCun, który również zdobył tę samą nagrodę, zaniedbał podpisanie). Lista jest prawie taka, kto jest kim w świecie rozwoju sztucznej inteligencji — ludzie wiodący w dziedzinie sztucznej inteligencji — a jednak wszyscy są tutaj, ostrzegając, że sztuczna inteligencja może oznaczać katastrofę dla ludzkości.

Jest to krótkie oświadczenie, które wyjaśnia zagrożenia, w szczególności przytaczając dwa kluczowe obszary, które mogą zagrozić światu, jaki znamy: wojnę nuklearną i globalne problemy zdrowotne. Podczas gdy groźba konfliktu nuklearnego jest zmartwieniem, ryzyko pandemii jest dla większości bardziej namacalnym zagrożeniem.

Jednak nie tylko globalna pandemia może powodować problemy zdrowotne związane z AI. Opiekun zgłasza kilka innych problemów zdrowotnych AI, które mogą mieć wpływ na ludzi, jeśli nie zostaną sprawdzone przed powszechnym użyciem. Jeden przykład dotyczył używania pulsoksymetrów zasilanych sztuczną inteligencją, które „przeszacowywały poziom tlenu we krwi u pacjentów o ciemniejszej skórze, co skutkowało niedostatecznym leczeniem ich niedotlenienia”.

Co więcej, nie po raz pierwszy grupa liderów technologicznych wzywa do wstrzymania lub poważnej ponownej oceny rozwoju sztucznej inteligencji. w marcu 2023 r. Elon Musk i inni badacze AI podpisali podobne wezwanie do działania zażądanie moratorium na rozwój sztucznej inteligencji do czasu wprowadzenia większej liczby regulacji, które pomogą pokierować procesem.

Jakie jest ryzyko AI?

Większość zagrożeń związanych ze sztuczną inteligencją, przynajmniej w tym kontekście, wiąże się z rozwojem niekontrolowanej technologii sztucznej inteligencji która przekracza możliwości ludzi, w której ostatecznie zwraca się przeciwko swojemu stwórcy i unicestwia życie, jakie znamy To. To historia opisywana niezliczoną ilość razy w literaturze science-fiction, ale rzeczywistość jest teraz bliższa, niż nam się wydaje.

Duże modele językowe (które stanowią podstawę narzędzi takich jak ChatGPT) drastycznie zwiększają swoje możliwości. Jednakże, narzędzia takie jak ChatGPT mają wiele problemów, takie jak nieodłączne uprzedzenia, obawy dotyczące prywatności i halucynacje AI, nie mówiąc już o możliwości złamania więzienia w celu działania poza granicami zaprogramowanych warunków.

Ponieważ duże modele językowe rosną i mają więcej punktów danych, do których można się odwołać, a także dostęp do Internetu i więcej zrozumienia bieżących wydarzeń, badacze sztucznej inteligencji obawiają się, że pewnego dnia, jak powiedział dyrektor generalny OpenAI, Sam Altman, „pójdzie całkiem zło."

W jaki sposób rządy regulują rozwój sztucznej inteligencji, aby powstrzymać ryzyko?

Regulacje dotyczące sztucznej inteligencji mają kluczowe znaczenie dla zapobiegania zagrożeniom. Na początku maja 2023 r. Sam Altman wezwał do większej regulacji AI, stwierdzając, że „interwencja regulacyjna rządów będzie miała kluczowe znaczenie dla złagodzenia ryzyka związanego z coraz potężniejszymi modelami”.

A później Unia Europejska ogłosiła ustawę o AI, rozporządzenie mające na celu zapewnienie znacznie silniejszych ram dla rozwoju sztucznej inteligencji w całej UE (z wieloma regulacjami rozlewającymi się na inne jurysdykcje). Altman początkowo zagroził, że wyciągnie OpenAI z UE, ale potem wycofał się z tej groźby i zgodził się, że firma zastosuje się do rozporządzenia w sprawie sztucznej inteligencji, o które wcześniej prosił.

Niezależnie od tego jasne jest, że regulacja rozwoju i zastosowań sztucznej inteligencji jest ważna.

Czy sztuczna inteligencja zakończy ludzkość?

Ponieważ znaczna część debaty na ten temat opiera się na hipotezach dotyczących mocy przyszłych wersji sztucznej inteligencji, istnieją problemy dotyczące długowieczności i siły, jaką może mieć każda regulacja dotycząca sztucznej inteligencji. Jak najlepiej uregulować branżę, która już porusza się z prędkością tysiąca mil na minutę, a przełomy w rozwoju zdarzają się codziennie?

Co więcej, nadal istnieją pewne wątpliwości co do ogólnych możliwości sztucznej inteligencji i tego, gdzie się ona skończy. Podczas gdy ci, którzy obawiają się najgorszego, wskazują na to, że sztuczna inteligencja staje się ludzkim panem, inni wskazują na fakt, że obecne wersje sztucznej inteligencji nie radzą sobie nawet z podstawowymi zadaniami matematycznymi, a samochody w pełni autonomiczne wciąż są wyłączony.

Trudno nie zgodzić się z tymi, którzy patrzą w przyszłość. Wielu ludzi, którzy najgłośniej krzyczą o problemach, jakie może stwarzać sztuczna inteligencja, siedzi za kierownicą i patrzy, dokąd możemy zmierzać. Jeśli to oni domagają się regulacji AI, aby chronić nas przed potencjalnie przerażającą przyszłością, być może nadszedł czas, aby ich wysłuchać.