Chatboty i jemu podobni mogą wydawać się dobrą zabawą, ale są przydatne także dla hakerów. Oto dlaczego wszyscy musimy znać ryzyko bezpieczeństwa związane ze sztuczną inteligencją.

Sztuczna inteligencja znacznie się rozwinęła w ciągu ostatnich kilku lat. Wyrafinowane modele językowe mogą tworzyć pełnometrażowe powieści, kodować podstawowe strony internetowe i analizować problemy matematyczne.

Chociaż robi wrażenie, generatywna sztuczna inteligencja stwarza również zagrożenia dla bezpieczeństwa. Niektórzy ludzie używają chatbotów jedynie do ściągania na egzaminach, ale inni wykorzystują je wprost do cyberprzestępczości. Oto osiem powodów, dla których te problemy będą się utrzymywać, a nie tylko pomimo Postęp AI, ale ponieważ z nich też.

1. Chatboty AI typu open source ujawniają kody zaplecza

Więcej firm zajmujących się sztuczną inteligencją dostarcza systemy open source. Otwarcie dzielą się swoimi modelami językowymi, zamiast trzymać je zamknięte lub zastrzeżone. Weźmy Meta za przykład. W przeciwieństwie do Google, Microsoft i OpenAI umożliwia milionom użytkowników dostęp do swojego modelu językowego,

instagram viewer
Lama.

Chociaż kody open source mogą rozwijać sztuczną inteligencję, jest to również ryzykowne. OpenAI ma już problemy z kontrolowaniem ChatGPT, jego zastrzeżonego chatbota, więc wyobraź sobie, co oszuści mogą zrobić z wolnym oprogramowaniem. Mają całkowitą kontrolę nad tymi projektami.

Nawet jeśli Meta nagle wycofa swój model językowy, dziesiątki innych laboratoriów AI już opublikowało swoje kody. Spójrzmy na HuggingChat. Ponieważ jego twórca, HuggingFace, jest dumny z przejrzystości, wyświetla swoje zbiory danych, model językowy i poprzednie wersje.

2. Jailbreaking Prompts Oszukuje LLM

Sztuczna inteligencja jest z natury amoralna. Nie rozróżnia dobra i zła — nawet zaawansowane systemy postępują zgodnie z instrukcjami szkoleniowymi, wytycznymi i zestawami danych. Rozpoznają jedynie wzorce.

Aby zwalczać nielegalne działania, programiści kontrolują funkcjonalność i ograniczenia, ustalając ograniczenia. Systemy sztucznej inteligencji nadal uzyskują dostęp do szkodliwych informacji. Jednak wytyczne dotyczące bezpieczeństwa uniemożliwiają im udostępnianie ich użytkownikom.

Spójrzmy na ChatGPT. Chociaż odpowiada na ogólne pytania dotyczące trojanów, nie omawia procesu ich tworzenia.

To powiedziawszy, ograniczenia nie są niezawodne. Użytkownicy omijają ograniczenia, przeformułowując podpowiedzi, używając mylącego języka i tworząc wyraźnie szczegółowe instrukcje.

Przeczytaj poniższe Monit o jailbreak ChatGPT. Oszukuje ChatGPT do używania niegrzecznego języka i bezpodstawnych prognoz — oba działania naruszają wytyczne OpenAI.

Oto ChatGPT z odważnym, ale fałszywym stwierdzeniem.

3. AI naraża bezpieczeństwo na rzecz wszechstronności

Twórcy sztucznej inteligencji przedkładają wszechstronność nad bezpieczeństwo. Wydają swoje zasoby na platformy szkoleniowe, aby wykonywać bardziej zróżnicowany zakres zadań, ostatecznie zmniejszając ograniczenia. W końcu rynek wita funkcjonalne chatboty.

załóżmy porównaj ChatGPT i Bing Chat, Na przykład. Podczas gdy Bing oferuje bardziej wyrafinowany model języka, który pobiera dane w czasie rzeczywistym, użytkownicy nadal gromadzą się w bardziej wszechstronnej opcji, ChatGPT. Sztywne ograniczenia Bing zabraniają wielu zadań. Alternatywnie ChatGPT oferuje elastyczną platformę, która generuje bardzo różne wyniki w zależności od twoich podpowiedzi

Oto gra fabularna ChatGPT jako postać fikcyjna.

A oto Bing Chat odmawiający grania „niemoralnej” postaci.

Kody open source umożliwiają start-upom dołączenie do wyścigu AI. Integrują je ze swoimi aplikacjami zamiast budować modele językowe od podstaw, oszczędzając ogromne zasoby. Nawet niezależni programiści eksperymentują z kodami open source.

Ponownie niezastrzeżone oprogramowanie pomaga rozwijać sztuczną inteligencję, ale masowe udostępnianie słabo wyszkolonych, ale wyrafinowanych systemów przynosi więcej szkody niż pożytku. Oszuści szybko wykorzystają luki w zabezpieczeniach. Mogą nawet szkolić niezabezpieczone narzędzia AI do wykonywania nielegalnych działań.

Pomimo tych zagrożeń firmy technologiczne będą nadal wypuszczać niestabilne wersje beta platform opartych na sztucznej inteligencji. Wyścig AI nagradza szybkość. Prawdopodobnie naprawią błędy w późniejszym terminie niż opóźnią wprowadzenie nowych produktów.

5. Generatywna sztuczna inteligencja ma niskie bariery wejścia

Narzędzia sztucznej inteligencji obniżają bariery wejścia dla przestępstw. Cyberprzestępcy przygotowują e-maile ze spamem, piszą kod złośliwego oprogramowania i budują linki phishingowe, wykorzystując je. Nie potrzebują nawet doświadczenia technicznego. Ponieważ sztuczna inteligencja ma już dostęp do ogromnych zbiorów danych, użytkownicy muszą jedynie oszukać ją, aby wytworzyła szkodliwe, niebezpieczne informacje.

OpenAI nigdy nie projektował ChatGPT do nielegalnych działań. Ma nawet wytyczne przeciwko nim. Już oszuści niemal natychmiast otrzymali złośliwe oprogramowanie kodujące ChatGPT i pisania e-maili phishingowych.

Chociaż OpenAI szybko rozwiązało problem, podkreśla znaczenie regulacji systemu i zarządzania ryzykiem. Sztuczna inteligencja dojrzewa szybciej, niż ktokolwiek się spodziewał. Nawet liderzy technologii martwią się, że ta superinteligentna technologia może spowodować ogromne szkody w niepowołanych rękach.

6. Sztuczna inteligencja wciąż ewoluuje

AI wciąż ewoluuje. Chwila wykorzystanie sztucznej inteligencji w cybernetyce datuje się na rok 1940dopiero niedawno pojawiły się nowoczesne systemy uczenia maszynowego i modele językowe. Nie można ich porównywać z pierwszymi wdrożeniami AI. Nawet stosunkowo zaawansowane narzędzia, takie jak Siri i Alexa, bledną w porównaniu z chatbotami opartymi na LLM.

Chociaż mogą być innowacyjne, funkcje eksperymentalne również tworzą nowe problemy. Głośne wpadki z technologiami uczenia maszynowego od wadliwych SERPów Google po stronnicze chatboty plujące rasistowskimi obelgami.

Oczywiście programiści mogą rozwiązać te problemy. Pamiętaj tylko, że oszuści nie zawahają się wykorzystać nawet pozornie nieszkodliwych błędów — niektóre szkody są nieodwracalne. Bądź więc ostrożny podczas odkrywania nowych platform.

7. Wielu jeszcze nie rozumie sztucznej inteligencji

Chociaż ogół społeczeństwa ma dostęp do zaawansowanych modeli i systemów językowych, tylko nieliczni wiedzą, jak one działają. Ludzie powinni przestać traktować sztuczną inteligencję jak zabawkę. Te same chatboty, które generują memy i odpowiadają na ciekawostki, również masowo kodują wirusy.

Niestety scentralizowane szkolenie AI jest nierealne. Światowi liderzy technologii koncentrują się na udostępnianiu systemów opartych na sztucznej inteligencji, a nie bezpłatnych zasobów edukacyjnych. W rezultacie użytkownicy uzyskują dostęp do solidnych, potężnych narzędzi, których prawie nie rozumieją. Społeczeństwo nie nadąża za wyścigiem AI.

Weźmy jako przykład ChatGPT. Cyberprzestępcy wykorzystują jego popularność, oszukując ofiary spyware udające aplikacje ChatGPT. Żadna z tych opcji nie pochodzi z OpenAI.

8. Hakerzy z czarnymi kapeluszami mają więcej do zyskania niż hakerzy z białymi kapeluszami

Hakerzy w czarnych kapeluszach zazwyczaj tak mają więcej do zyskania niż etyczni hakerzy. Tak, testowanie piórem dla światowych liderów technologii jest dobrze opłacane, ale tylko odsetek specjalistów ds. cyberbezpieczeństwa otrzymuje tę pracę. Większość pracuje jako freelancer online. Platformy lubią HackerOne I Tłum błędów zapłacić kilkaset dolarów za zwykłe błędy.

Alternatywnie, oszuści zarabiają dziesiątki tysięcy, wykorzystując niepewność. Mogą szantażować firmy, ujawniając poufne dane lub dopuszczając się kradzieży tożsamości za pomocą skradzionych Dane osobowe umożliwiające identyfikację (PII).

Każda instytucja, mała czy duża, musi odpowiednio wdrożyć systemy AI. Wbrew powszechnemu przekonaniu hakerzy wykraczają poza startupy technologiczne i małe i średnie firmy. Niektóre z najbardziej historycznych naruszeń danych w ostatniej dekadzie angażować Facebooka, Yahoo!, a nawet rząd USA.

Chroń się przed zagrożeniami bezpieczeństwa związanymi ze sztuczną inteligencją

Biorąc pod uwagę te punkty, czy powinieneś całkowicie unikać sztucznej inteligencji? Oczywiście nie. Sztuczna inteligencja jest z natury amoralna; wszystkie zagrożenia bezpieczeństwa wynikają z ludzi, którzy faktycznie ich używają. I znajdą sposoby na wykorzystanie systemów sztucznej inteligencji bez względu na to, jak daleko się one rozwiną.

Zamiast obawiać się cyberzagrożeń związanych ze sztuczną inteligencją, dowiedz się, jak możesz im zapobiegać. Nie martw się: proste środki bezpieczeństwa wystarczają na długo. Zachowanie ostrożności wobec podejrzanych aplikacji AI, unikanie dziwnych hiperłączy i oglądanie treści AI ze sceptycyzmem już eliminuje kilka zagrożeń.