Pomysł, że technologie AI muszą być uregulowane, jest powszechnym przekonaniem. Większość rządów, twórców produktów AI, a nawet zwykłych użytkowników produktów AI zgadza się z tym. Niestety, najlepszym sposobem na uregulowanie tej szybko rozwijającej się dziedziny jest nierozwiązana zagadka.
Pozostawione bez kontroli technologie sztucznej inteligencji mogą negatywnie zakłócić nasz styl życia i zagrozić naszej egzystencji. Ale w jaki sposób rządy mogą poruszać się po labiryncie wyzwań związanych z tą szybko rozwijającą się dziedziną?
1. Regulamin prywatności i ochrony danych
Jednym z głównych problemów związanych z technologiami sztucznej inteligencji jest prywatność i bezpieczeństwo danych. Systemy sztucznej inteligencji to maszyny żądne danych. Potrzebują danych, aby działać, więcej danych, aby działać wydajnie, i jeszcze więcej danych, aby je ulepszać. Chociaż nie stanowi to problemu, sposób pozyskiwania tych danych, ich charakter oraz sposób ich przetwarzania i przechowywania to jeden z największych tematów do dyskusji wokół przepisów dotyczących sztucznej inteligencji.
Biorąc to pod uwagę, logiczną drogą do podjęcia jest wprowadzenie surowych przepisów dotyczących prywatności danych, które regulują dane gromadzenie, przechowywanie i przetwarzanie, a także prawa osób, których dane są wykorzystywane, do dostępu i kontroli ich dane. Kwestie, które te przepisy prawdopodobnie rozwiązałyby, to:
- Jakiego rodzaju dane mogą być gromadzone?
- Czy niektóre prywatne dane powinny być uważane za tabu w AI?
- W jaki sposób firmy zajmujące się sztuczną inteligencją powinny obchodzić się z wrażliwymi danymi osobowymi, takimi jak dokumentacja medyczna lub dane biometryczne?
- Czy firmy zajmujące się sztuczną inteligencją powinny być zobowiązane do wdrożenia mechanizmów umożliwiających osobom fizycznym łatwe żądanie usunięcia lub poprawienia ich danych osobowych?
- Jakie konsekwencje ponoszą firmy zajmujące się sztuczną inteligencją, które nie przestrzegają przepisów dotyczących prywatności danych? W jaki sposób należy monitorować zgodność i jak zapewnić egzekwowanie?
- Być może najważniejsze, jaki standard powinny wdrożyć firmy AI, aby zapewnić bezpieczeństwo wrażliwej natury posiadanych przez nie informacji?
Te pytania i kilka innych stanowiły sedno dlaczego ChatGPT został tymczasowo zbanowany we Włoszech. Jeśli te obawy nie zostaną rozwiązane, przestrzeń sztucznej inteligencji może stać się dzikim zachodnim obszarem prywatności danych, a włoski zakaz może okazać się szablonem dla zakazów w innych krajach na całym świecie.
2. Opracowanie ram etycznej sztucznej inteligencji
Firmy zajmujące się sztuczną inteligencją często chwalą się swoim zaangażowaniem w przestrzeganie wytycznych etycznych przy opracowywaniu systemów sztucznej inteligencji. Przynajmniej na papierze wszyscy są zwolennikami odpowiedzialnego rozwoju sztucznej inteligencji. W mediach dyrektorzy Google podkreślali, jak firma poważnie traktuje bezpieczeństwo i etykę sztucznej inteligencji. Podobnie „Bezpieczna i etyczna sztuczna inteligencja” to mantra prezesa OpenAI, Sama Altmana. Te są godne pochwały.
Ale kto ustala zasady? Kto decyduje, które wytyczne etyczne AI są wystarczająco dobre? Kto decyduje o tym, jak wygląda bezpieczny rozwój AI? Obecnie wydaje się, że każda firma zajmująca się sztuczną inteligencją ma własne podejście do odpowiedzialnego i etycznego rozwoju sztucznej inteligencji. OpenAI, Anthropic, Google, Meta, Microsoft, wszyscy. Samo poleganie na firmach zajmujących się sztuczną inteligencją, aby postępowały właściwie, jest niebezpieczne.
The Konsekwencje niekontrolowanej przestrzeni AI mogą być katastrofalne. Pozwalanie poszczególnym firmom decydować, jakie wytyczne etyczne przyjąć, a które odrzucić, przypomina lunatykowanie w apokalipsie AI. Rozwiązanie? Jasne ramy etyczne AI, które zapewniają:
- Systemy AI nie stawiają w niesprawiedliwy sposób w niekorzystnej sytuacji ani nie dyskryminują jednostek lub określonych grup ze względu na rasę, płeć lub status społeczno-ekonomiczny.
- Systemy sztucznej inteligencji są bezpieczne i niezawodne oraz minimalizują ryzyko niezamierzonych konsekwencji lub szkodliwego zachowania.
- Systemy sztucznej inteligencji są tworzone z myślą o szerszym społecznym wpływie technologii sztucznej inteligencji.
- Aby ludzie zachowali ostateczną kontrolę nad systemami sztucznej inteligencji i podejmowaniem decyzji w przejrzysty sposób.
- Systemy sztucznej inteligencji są celowo ograniczone w sposób korzystny dla ludzi.
3. Dedykowana agencja regulacyjna
Ze względu na jej potencjalny wpływ na ludzką cywilizację, dyskusja na temat bezpieczeństwa sztucznej inteligencji zwykle toczy się równolegle do ryzyka kryzysu zdrowotnego lub katastrofy nuklearnej. Unikanie potencjalnych incydentów jądrowych wymaga specjalnej agencji, takiej jak amerykańska NRC (Komisja Dozoru Jądrowego). Uniknięcie ryzyka niebezpiecznych kryzysów zdrowotnych wymaga powołania FDA (Food and Drug Administration)
Podobnie, aby zapewnić, że w przestrzeni sztucznej inteligencji nic nie pójdzie nie tak, potrzebna jest dedykowana agencja, podobna do FDA i NRC, ponieważ sztuczna inteligencja nadal dokonuje agresywnych inwazji we wszystkich obszarach naszego życia. Niestety, kwestia krajowych przepisów dotyczących sztucznej inteligencji jest trudna. Praca każdej wyspecjalizowanej agencji regulacyjnej będzie prawdopodobnie boleśnie trudna bez współpracy transgranicznej. Podobnie jak amerykańska NRC (Komisja Dozoru Jądrowego) musi współpracować z Międzynarodową Agencją Energii Atomowej Agency (MAEA), aby działać jak najlepiej, każda dedykowana krajowa agencja regulacyjna AI potrzebowałaby również międzynarodowego odpowiednika.
Taka agencja byłaby odpowiedzialna za:
- Opracowanie regulaminu AI
- Zapewnienie zgodności i egzekwowania
- Nadzorowanie procesu oceny etycznej projektów AI
- Współpraca i współpraca międzynarodowa w zakresie bezpieczeństwa i etyki sztucznej inteligencji
4. Rozwiązywanie problemów związanych z prawami autorskimi i własnością intelektualną
Istniejące prawa autorskie i ramy prawne kruszą się w obliczu sztucznej inteligencji. Sposób, w jaki zaprojektowane są narzędzia sztucznej inteligencji, zwłaszcza generatywne narzędzia sztucznej inteligencji, sprawia, że wydają się publicznie popieraną maszyną do naruszania praw autorskich, z którą nie można nic zrobić.
Jak? Cóż, wiele dzisiejszych systemów sztucznej inteligencji jest szkolonych przy użyciu materiałów chronionych prawem autorskim. Wiesz, artykuły chronione prawem autorskim, piosenki chronione prawem autorskim, obrazy chronione prawem autorskim itp. Tak lubią narzędzia ChatGPT, Bing AI i Google Bard mogą robić niesamowite rzeczy, które robią.
Chociaż systemy te wyraźnie wykorzystują własność intelektualną ludzi, sposób, w jaki robią to systemy sztucznej inteligencji nie różni się niczym od człowieka czytającego książkę chronioną prawem autorskim, słuchającego utworów chronionych prawem autorskim lub przeglądającego chronione prawem autorskim obrazy.
Możesz przeczytać książkę chronioną prawem autorskim, dowiedzieć się z niej nowych faktów i wykorzystać te fakty jako podstawę dla własnej książki. Możesz także posłuchać utworu chronionego prawami autorskimi, aby zainspirować się do stworzenia własnej muzyki. W obu przypadkach użyłeś materiałów chronionych prawem autorskim, ale nie musi to oznaczać, że produkt pochodny narusza prawa autorskie oryginału.
Chociaż jest to logiczne wyjaśnienie, aby wyjaśnić bałagan, jaki sztuczna inteligencja robi z prawami autorskimi, nadal boli właścicieli praw autorskich i własności intelektualnej. Mając to na uwadze, niezbędne są regulacje, które:
- Jasno zdefiniuj odpowiedzialność i obowiązki wszystkich stron zaangażowanych w cykl życia systemu AI. Obejmuje to wyjaśnienie ról każdej ze stron, od programistów sztucznej inteligencji po użytkowników końcowych, aby zapewnić odpowiedzialność Strony ponoszą odpowiedzialność za wszelkie naruszenia praw autorskich lub własności intelektualnej popełnione przez AI systemy.
- Wzmocnij istniejące ramy praw autorskich i być może wprowadź prawa autorskie dotyczące sztucznej inteligencji.
- Aby zapewnić innowacyjność w przestrzeni sztucznej inteligencji, jednocześnie chroniąc prawa oryginalnych twórców, sztuczna inteligencja przepisy powinny na nowo zdefiniować pojęcia dozwolonego użytku i pracy transformacyjnej w kontekście Treść generowana przez sztuczną inteligencję. Potrzebne są jaśniejsze definicje i wytyczne, aby zapewnić, że przestrzeń sztucznej inteligencji może być nadal ulepszana przy jednoczesnym poszanowaniu granic praw autorskich. Niezbędne jest znalezienie równowagi między innowacjami a zachowaniem praw twórców treści.
- Jasne ścieżki współpracy z posiadaczami praw. Jeśli systemy sztucznej inteligencji i tak mają wykorzystywać własność intelektualną ludzi, powinny istnieć jasne ścieżki lub ramy dla twórców sztucznej inteligencji i właścicieli praw do współpracy, zwłaszcza w zakresie rekompensat finansowych, jeśli jest to praca pochodna takich własności intelektualnych skomercjalizowane.
Rozporządzenie AI to desperacko potrzebna poprawka
Podczas gdy sztuczna inteligencja okazała się obiecującym rozwiązaniem wielu naszych problemów społecznych, sama sztuczna inteligencja szybko staje się problemem wymagającym pilnej naprawy. Nadszedł czas, aby zrobić krok wstecz, zastanowić się i wprowadzić niezbędne poprawki, aby zapewnić pozytywny wpływ sztucznej inteligencji na społeczeństwo. Desperacko potrzebujemy pilnej rekalibracji naszego podejścia do budowania i używania systemów AI.