Sztuczna inteligencja (AI) nie osiągnęła jeszcze poziomu ludzkiego. Jednak w miarę jak technologia coraz bardziej z roku na rok zmniejsza tę lukę, pojawiło się wiele problemów etycznych.
Jedno ważne pytanie brzmi: jak podobna będzie sztuczna inteligencja do istot ludzkich? Czy będą myśleć za siebie, czy będą mieć pragnienia i emocje? Czy powinni mieć takie prawa jak ludzie? Czy powinni być zmuszani do pracy, czy ponosić odpowiedzialność, jeśli coś pójdzie nie tak?
W tym artykule zagłębimy się w te i inne pytania.
Etyka AI: dlaczego warto o niej myśleć
Sztuczna inteligencja i etyka maszyn to dwie powiązane dziedziny, które zyskują coraz większą popularność. Dotyczą one kilku ważnych aspektów technologii, w tym sposobu, w jaki projektujemy, używamy i traktujemy maszyny. Większość z tych kwestii dotyczy kwestii bezpieczeństwa w odniesieniu do ludzi.
Jednak etyka AI zaczyna wychodzić poza te fundamentalne kwestie i wkraczać na bardziej kontrowersyjne terytorium. Wyobraź sobie, że w ciągu następnych kilku dekad rozwinie się superinteligentna sztuczna inteligencja, która jest potencjalnie świadoma i wyraża pragnienia, uczucia lub może doświadczać cierpienia. Ponieważ nie jesteśmy nawet pewni, czym jest ludzka świadomość ani jak powstaje, nie jest to tak daleko idąca propozycja, jak się początkowo wydaje.
Jak podeszlibyśmy do definiowania i traktowania takiej sztucznej inteligencji? A jakie są niektóre problemy etyczne, z którymi borykamy się teraz przy naszym obecnym poziomie sztucznej inteligencji?
Przyjrzyjmy się kilku dylematom etycznym, przed którymi stoimy.
Czy AI powinna otrzymać obywatelstwo?
W 2017 r. rząd Arabii Saudyjskiej przyznał Sophii pełne obywatelstwo: jednemu z najbardziej realistycznych robotów na świecie opartych na sztucznej inteligencji. Sophia może brać udział w rozmowie i jest w stanie naśladować 62 mimikę ludzkich twarzy. Sophia jest pierwszą nie-człowiekiem, która ma paszport i pierwszą, która ma kartę kredytową.
Decyzja o uczynieniu Sophii obywatelką była kontrowersyjna. Niektórzy uważają to za krok naprzód. Uważają, że ważne jest, aby ludzie i organy regulacyjne zaczęli zwracać większą uwagę na kwestie w tym obszarze. Inni uważają to za obrazę godności ludzkiej, twierdząc, że sztuczna inteligencja nie jest jeszcze bliska bycia człowiekiem, a społeczeństwo jako całość nie jest gotowe na obywateli-robotów.
Debata staje się gorąca ze względu na prawa i obowiązki, jakie przysługują obywatelom. Obejmują one możliwość głosowania, płacenia podatków, zawierania małżeństw i posiadania dzieci. Jeśli Sophia może głosować, kto faktycznie głosuje? Czy przy obecnym stanie sztucznej inteligencji to raczej jej twórca głosuje? Inną przejmującą krytyką jest to, że Sophia otrzymała więcej praw niż kobiety i pracownicy migrujący w Arabii Saudyjskiej.
AI i IP: czy powinni posiadać prawa do tego, co tworzą?
Dyskusje dotyczące własności intelektualnej (IP) i obawy dotyczące prywatności osiągnęły najwyższy poziom w historii, a teraz pojawia się kolejny problem. Sztuczna inteligencja jest coraz częściej wykorzystywana do opracowywania treści, tworzenia pomysłów i wykonywania innych działań podlegających prawom własności intelektualnej. Na przykład The Washington Post wydał Heliograf w 2016 roku; reporter AI, który w pierwszym roku opracował prawie tysiąc artykułów. Niektóre branże również wykorzystują sztuczną inteligencję do przeszukiwania ogromnych ilości danych i opracowywania nowych produktów, na przykład przemysł farmaceutyczny.
Obecnie sztuczna inteligencja jest uważana za narzędzie; wszystkie prawa własności intelektualnej i prawa przysługują jej właścicielowi. Jednak UE wcześniej rozważała stworzenie trzeciego podmiotu, „osobowości elektronicznej”, która stałaby się podmiotem prawnym w świetle przepisów dotyczących własności intelektualnej.
Niektórzy twierdzą, że bez przyznania własności intelektualnej właścicielowi maszyny nie będzie zachęty do budowania „kreatywnej” sztucznej inteligencji. Gdyby IP trafiło do AI, po co ktoś miałby je rozwijać? Z tego powodu uważają, że zabraknie innowacji.
Sztuczna inteligencja i przyszłość pracy
Rola AI w pracy to trochę zagadka. W ostatnich latach widzieliśmy kontrowersyjne wykorzystanie AI do zatrudniania i zwalniania algorytmów, w których sztuczna inteligencja była nieumyślnie nastawione na określone dane demograficzne. Sztuczna inteligencja stopniowo zastępuje również coraz wyższe poziomy pracy ludzkiej — najpierw pracę fizyczną, a teraz pracę umysłową wyższego rzędu.
Co należy z tym zrobić? A co się stanie, jeśli rozwinie się jakaś forma świadomej sztucznej inteligencji? Czy powinien być zmuszony do pracy? Wynagrodzenie za swoją pracę? Przyznane prawa pracownicze? I tak dalej.
W jednym z odcinków Black Mirror (program znany z zadzierać z naszymi głowami), dziewczyna o imieniu Greta tworzy cyfrowy klon swojej świadomości. Klonowi dowiaduje się, że jego celem jest wykonywanie obowiązków za życie Grety. Ale dzięki świadomości Grety klon uważa się za Gretę. Tak więc, kiedy klon odmawia bycia niewolnikiem, jego twórcy torturują go, aby uległ. Wreszcie klon idzie do pracy dla Grety.
Czy powinniśmy zapobiegawczo przyznać pewne prawa AI w przypadku, gdy uważają się za ludzi lub doświadczają cierpienia?
Aby pójść o krok dalej, zastanówmy się, czy sztuczną inteligencję należy swobodnie wyłączać, czy likwidować. Obecnie, gdy coś pójdzie nie tak, jesteśmy w stanie po prostu wyciągnąć wtyczkę i wyłączyć AI. Ale jeśli sztuczna inteligencja miałaby prawa i nie byłoby to już możliwe, co byłoby możliwe?
Znanym przykładem nieprawidłowego działania superinteligentnej sztucznej inteligencji jest maksymalizacja spinacza do papieru. Jest to sztuczna inteligencja, która została zaprojektowana w celu stworzenia maksymalnej możliwej liczby spinaczy. Biorąc pod uwagę, że sztuczna inteligencja jest wystarczająco potężna, można sobie wyobrazić, że może zdecydować się na przekształcenie ludzi, a potem wszystkiego, w spinacze do papieru.
Czy sztuczna inteligencja powinna być rozliczana?
Sztuczna inteligencja jest już odpowiedzialna za wiele decyzji, które wpływają na ludzkie życie. W rzeczywistości sztuczna inteligencja jest już wykorzystywana w wielu obszarach, które bezpośrednio wpływają na prawa człowieka, co jest niepokojące, biorąc pod uwagę, jak stronniczych wydaje się wiele algorytmów sztucznej inteligencji.
Sztuczna inteligencja jest na przykład wykorzystywana przez duże firmy do decydowania, kogo należy zatrudnić do pracy. Jest również używany w niektórych krajach do określenia, kto powinien otrzymać zasiłek. Co bardziej niepokojące, jest on używany przez policję i systemy sądowe do ustalenia wyroku dla oskarżonych. I to nie wszystko.
Co się dzieje, gdy sztuczna inteligencja popełnia błędy? Kto jest rozliczany — ci, którzy z niego korzystają? Twórcy Ewentualnie, czy sama sztuczna inteligencja powinna zostać ukarana (a jeśli tak, to jak by to działało)?
AI i ludzkość
AI nigdy nie będzie człowiekiem. Ale może być świadomy, odczuwać cierpienie lub mieć pragnienia i pragnienia. Gdyby taka sztuczna inteligencja została opracowana, czy byłoby nieetyczne zmuszanie jej do działania, swobodne jej likwidowanie lub robienie z nią rzeczy, które powodują jej cierpienie?
Chociaż sztuczna inteligencja jest wciąż w powijakach, jest już wykorzystywana do rzeczy, które bezpośrednio wpływają na ludzkie życie, czasami drastycznie. Należy podjąć decyzje dotyczące tego, jak regulować oprogramowanie, które jest najlepsze dla ludzkiego życia, a życie sztucznej inteligencji powinno kiedykolwiek nastąpić.
Ustawmy sprawę wprost na kilka powszechnych fałszów dotyczących sztucznej inteligencji.
Czytaj dalej
- Wyjaśnienie technologii
- Sztuczna inteligencja
- Futurologia
- Technologia
Jake Harfield jest niezależnym pisarzem mieszkającym w Perth w Australii. Kiedy nie pisze, zwykle jest w buszu i fotografuje lokalną przyrodę. Możesz go odwiedzić na www.jakeharfield.com
Zapisz się do naszego newslettera
Dołącz do naszego newslettera, aby otrzymywać porady techniczne, recenzje, bezpłatne e-booki i ekskluzywne oferty!
Kliknij tutaj, aby zasubskrybować