Tylko w ciągu ostatnich kilku lat możliwości sztucznej inteligencji znacznie się rozwinęły. Dziś możemy wykorzystywać sztuczną inteligencję do tworzenia dzieł sztuki, pisania historii, poznawania świata i nie tylko. Ale czy to wszystko dzieje się trochę za wcześnie? Czy sztuczna inteligencja rozwija się zbyt szybko i jakie są oznaki, by to sugerować?

Dlaczego ludzie obawiają się sztucznej inteligencji?

Pod koniec marca 2023 r. Instytut Future of Life opublikował w Internecie dokument pt „Wstrzymaj gigantyczne eksperymenty AI: list otwarty”. Dokument zawierał argumenty przeciwko rozwojowi sztucznej inteligencji wykraczającej poza wyrafinowanie GPT-4, najnowszej iteracji OpenAI opartego na sztucznej inteligencji chatbota.

W liście napisano, że „systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości” oraz że „potężne systemy sztucznej inteligencji powinny być rozwijane tylko wtedy, gdy mamy pewność, że ich skutki będą pozytywne, a związane z nimi ryzyko będzie do opanowania."

Szereg wybitnych postaci w dziedzinie technologii, w tym Steve Wozniak i Elon Musk podpisał list i chce wstrzymać rozwój sztucznej inteligencji. Ten apel o wstrzymanie rozwoju sztucznej inteligencji podał w wątpliwość, jak niebezpieczna staje się sztuczna inteligencja i zagrożenia, jakie stwarza dla życia ludzkiego.

Jakie więc oznaki wskazują, że sztuczna inteligencja działa zbyt szybko?

1. Rywalizacja z ludźmi

Widzieliśmy już, jak technologia zastępuje pracowników ludzkich w niezliczonych scenariuszach. Gdy idziesz do restauracji typu fast food, możesz teraz złożyć zamówienie za pomocą ekranu komputera, a gdy chcesz kupić artykuły spożywcze, możesz przejść do kasy za pomocą zautomatyzowanego systemu. Może to być szybka i wygodna opcja, ale ponieważ automatyzacja staje się coraz bardziej widoczna w różnych branżach, zapotrzebowanie na pracowników spada.

Tutaj zaczyna się problem. Oczywiście ludzie muszą pracować, aby się utrzymać, ale rozwój automatyzacji znacznie to utrudnia. Dotyczy to zwłaszcza pracowników płacy minimalnej, takich jak pracownicy usług gastronomicznych, produkcji i handlu detalicznego. Podstawowe zadania, takie jak sprawdzanie zamówień, odbieranie ładunków i sprzątanie, mogą być wykonywane przez maszyny. Integracja sztucznej inteligencji oznacza, że ​​wkrótce możemy nie potrzebować już operatorów do tej technologii.

Poinformował o tym m.in FormStack że 76% firm wykorzystuje automatyzację do standaryzacji lub automatyzacji codziennych przepływów pracy. I z Zapier raportowanie, że 94% pracowników stwierdziło, że ich praca wiąże się z powtarzalnymi i czasochłonnymi zadaniami, Automatyzacja oparta na sztucznej inteligencji może bardzo łatwo stać się większością globalnej siły roboczej na całym świecie branże.

2. Zachęcanie do lenistwa ludzkiego

Jedną z kluczowych zalet sztucznej inteligencji jest to, że może uprościć tak wiele zadań. Ale ta wygoda bardzo łatwo może ustąpić miejsca lenistwu. A w niektórych przypadkach już to zrobił.

Weźmy na przykład ChatGPT. Możesz używać ChatGPT do robienia różnych rzeczy jak pisanie esejów, wyszukiwanie tematów, wymyślanie dowcipów, tłumaczenie tekstu i wiele więcej. Posiadanie usługi, która może szybko wykonać dla Ciebie zadania, jest świetne, ale prowadzi nas również do samozadowolenia. Ograniczanie wysiłków i kreatywności w ten sposób z pewnością może mieć negatywny wpływ na całą ludzkość, co jest kluczowym powodem, dla którego tak wiele osób martwi się sztuczną inteligencją.

W dzisiejszych czasach jesteśmy tak przyzwyczajeni do usług opartych na sztucznej inteligencji, że naturalnie pokładaliśmy w nich duże zaufanie. Na przykład wirtualny asystent Microsoftu, Cortana, wykorzystuje uczenie maszynowe i sztuczną inteligencję do wykonywania poleceń użytkowników. Wielu innych wirtualnych asystentów, w tym Siri firmy Apple, również wykorzystuje sztuczną inteligencję do działania.

Zaufanie do tej technologii może być bezpieczne, ale tak naprawdę nic nie wiadomo, zwłaszcza biorąc pod uwagę, że sztuczna inteligencja jest wciąż na bardzo zaawansowanym etapie.

3. Rozpowszechnianie fałszywych informacji

Źródło zdjęcia: Głęboki hołd/Flickr

W kręgach głównego nurtu sztuczna inteligencja zyskała rozgłos dzięki swojej zdolności do tworzenia dzieł sztuki, obrazów i filmów. Usługi oparte na sztucznej inteligencji mogą być wykorzystywane nie tylko do tworzenia sztuki, ale mogą również tworzyć szczególnie kontrowersyjną formę mediów zwaną deepfake. Deepfake to filmy przedstawiające twarz osoby nałożoną na ciało innej osoby.

Brzmi to całkiem zabawnie, ale bardzo łatwo można go niewłaściwie wykorzystać.

Istnieją już tysiące filmów, na których celebryci i politycy wydają się mówić niewiarygodnie sprośne i nieodpowiednie rzeczy za pomocą deepfake'ów. Podczas gdy niektóre deepfakes są bardzo łatwe do zidentyfikowania, niektóre są tak wyrafinowane, że trudno jest stwierdzić, czy są prawdziwe, czy nie. Kiedy tak się dzieje, ludzie mogą założyć, że osoba publiczna powiedziała coś, czego w rzeczywistości nigdy nie powiedział.

Na tej podstawie ludzie będą wydawać opinie na temat tych filmów, przyczyniając się w ten sposób do rozpowszechniania dezinformacji w Internecie.

Co więcej, chatboty oparte na sztucznej inteligencji mogą również przekazywać użytkownikom fałszywe informacje. Chatboty, takie jak ChatGPT, Boost. AI i Drift mogą dostarczyć użytkownikom wielu informacji, ale te informacje nie zawsze są dokładne. Jak omówiono przez Opiekun, chatboty AI nie są w żaden sposób zobowiązane do dostarczania prawdziwych informacji, co oznacza, że ​​fałszywe wiadomości mogą bardzo łatwo prześlizgnąć się przez szczeliny i dotrzeć do Ciebie.

4. Tworzenie złośliwego oprogramowania

Na początku 2023 roku zaczęły krążyć wiadomości złośliwi aktorzy tworzący złośliwe oprogramowanie za pomocą ChatGPT. W tym przypadku firma analityczna Check Point Research odkryła, że ​​osoby dyskutowały o korzyściach płynących z używania ChatGPT do tworzenia złośliwego oprogramowania na forum hakerskim. Autor wpisu na forum udostępnił narzędzie do kradzieży informacji, które napisali w Pythonie przy użyciu ChatGPT, zachęcając inne złośliwe podmioty do tworzenia złośliwego oprogramowania przy użyciu chatbota.

Programy złośliwego oprogramowania muszą zostać zakodowane, co może być czasochłonne, zwłaszcza jeśli twórca nie korzysta z szablonu z wcześniej istniejącego programu.

Korzystając z ChatGPT, złośliwi aktorzy mogą nie tylko usprawnić proces tworzenia złośliwego oprogramowania, ale osoby mniej obeznane z technologią mogą tworzyć złośliwe oprogramowanie. Wraz z postępem wyrafinowania sztucznej inteligencji możliwe może być stworzenie niezwykle wyrafinowanego złośliwego oprogramowania, które może ominąć wykrywanie antywirusowe, uwierzytelnianie, zapory ogniowe i inne środki ochronne.

5. Brak regulacji

Częstym problemem w branży technologicznej jest brak regulacji dotyczących nowszych usług, takich jak platformy oparte na blockchain i produkty AI. Brak regulacji może być przez niektórych uważany za dobrą rzecz, ale może również ustąpić miejsca nielegalnym praktykom.

Brak regulacji może nie tylko doprowadzić do wzrostu liczby oszustw i cyberprzestępstw opartych na sztucznej inteligencji, ale sposób, w jaki naukowcy opracowują technologie sztucznej inteligencji, może również zacząć przekraczać poważne granice. W przypadku sztucznej inteligencji należy wziąć pod uwagę kwestie etyczne. Czy system może stać się zbyt świadomy? Jakiego rodzaju wpływ sztucznej inteligencji na ludzkie życie? Czy powinniśmy wykorzystywać sztuczną inteligencję w ten sposób? Lista pytań jest długa.

Bez regulacji niektóre firmy mogą zacząć przekraczać granice moralne, co z kolei może być bardzo złą wiadomością dla ogółu społeczeństwa.

Sztuczna inteligencja porusza się w szybkim tempie i z pewnością stwarza ryzyko

Nie można zaprzeczyć, że potencjał sztucznej inteligencji jest ogromny, ale należy go odpowiednio wykorzystać, aby zmniejszyć ryzyko wymknięcia się spod kontroli. Widzieliśmy już złośliwie wykorzystywaną sztuczną inteligencję, więc nie wiadomo, jak ten problem może się rozwinąć w miarę dalszego rozwoju sytuacji. Czas pokaże, czy sztuczna inteligencja stanie się błogosławieństwem, czy przekleństwem w naszym świecie, a sposób, w jaki jest teraz traktowany, z pewnością odegra rolę w tym wyniku.