Chatboty AI mogą mieć halucynacje, udzielając z pewnością niepoprawnych odpowiedzi – co hakerzy mogą wykorzystać. Oto jak hakerzy zamieniają halucynacje w broń.

Sztuczna inteligencja modelu dużego języka jest niedoskonała i czasami generuje fałszywe informacje. Te przypadki, zwane halucynacjami, mogą stanowić cyberzagrożenie dla firm i indywidualnych entuzjastów sztucznej inteligencji.

Na szczęście możesz zwiększyć obronę przed halucynacjami AI dzięki zwiększonej świadomości i zdrowemu drugiemu zgadywaniu.

Dlaczego sztuczna inteligencja ma halucynacje?

Nie ma zgody co do tego, dlaczego modele AI mają halucynacje, chociaż istnieje kilka prawdopodobnych domysłów.

Sztuczna inteligencja jest szkolona na podstawie ogromnych zbiorów danych, często zawierających wady, takie jak luki myślowe, wariancja istotności treści lub szkodliwe uprzedzenia. Każde szkolenie z tych niekompletnych lub nieodpowiednich zestawów danych może być źródłem halucynacji, nawet jeśli późniejsze iteracje zestawu danych otrzymały opiekę naukowców zajmujących się danymi.

instagram viewer

Z biegiem czasu analitycy danych mogą zwiększać dokładność informacji i wprowadzać dodatkową wiedzę w celu obsadzenia wakatów i zminimalizowania potencjału halucynacji. Nadzorcy mogą błędnie oznakować dane. Kod programowania może zawierać błędy. Naprawa tych elementów jest niezbędna, ponieważ modele AI rozwijają się w oparciu o algorytmy uczenia maszynowego.

Algorytmy te wykorzystują dane do podejmowania decyzji. Rozszerzeniem tego jest sieć neuronowa sztucznej inteligencji, która tworzy nowe decyzje z doświadczenia uczenia maszynowego do przypominają oryginalność ludzkich umysłów dokładniej. Sieci te zawierają transformatory, które analizują relacje między odległymi punktami danych. Kiedy transformatory psują się, mogą wystąpić halucynacje.

Jak halucynacje AI stwarzają możliwości hakerom

Niestety, nie jest powszechnie wiadomo, że sztuczna inteligencja ma halucynacje, a sztuczna inteligencja brzmi pewnie, nawet jeśli jest całkowicie błędna. Wszystko to przyczynia się do tego, że użytkownicy są bardziej zadowoleni z AI i bardziej ufają jej, a cyberprzestępcy polegają na tym zachowaniu użytkownika, aby skłonić ich do pobrania lub przeprowadzenia ataków.

Na przykład model sztucznej inteligencji może wywołać halucynacje fałszywej biblioteki kodu i zalecić użytkownikom pobranie tej biblioteki. Jest prawdopodobne, że model będzie nadal polecał tę samą halucynacyjną bibliotekę wielu użytkownikom, którzy zadają podobne pytanie. Jeśli hakerzy odkryją tę halucynację, mogą stworzyć prawdziwą wersję wyimaginowanej biblioteki — ale wypełnioną niebezpiecznym kodem i złośliwym oprogramowaniem. Teraz, gdy sztuczna inteligencja nadal poleca bibliotekę kodów, nieświadomi użytkownicy będą pobierać kod hakerów.

Przenoszenie szkodliwego kodu i programów za pomocą halucynacji sztucznej inteligencji to kolejny krok cyberprzestępców, co nie jest zaskoczeniem. Hakerzy niekoniecznie tworzą niezliczone nowe cyberzagrożenia — po prostu szukają nowych sposobów ich dostarczania bez podejrzeń. Halucynacje sztucznej inteligencji żerują na tej samej ludzkiej naiwności, która polega na klikaniu linków w wiadomościach e-mail (dlatego właśnie używaj narzędzi do sprawdzania linków, aby weryfikować adresy URL).

Hakerzy mogą również przenieść go na wyższy poziom. Jeśli szukasz pomocy w zakresie kodowania i pobierzesz fałszywy, złośliwy kod, cyberprzestępca może również sprawić, że kod będzie faktycznie działał, a szkodliwy program będzie działał w tle. To, że działa tak, jak się spodziewasz, nie oznacza, że ​​nie jest niebezpieczne.

Brak edukacji może zachęcić Cię do pobierania rekomendacji generowanych przez sztuczną inteligencję ze względu na zachowanie autopilota online. Każdy sektor znajduje się pod presją kulturową, aby przyjąć sztuczną inteligencję w swoich praktykach biznesowych. Niezliczone organizacje i branże odległe od technologii bawią się narzędziami sztucznej inteligencji z niewielkim doświadczeniem i jeszcze bardziej ograniczonym cyberbezpieczeństwem, aby tylko zachować konkurencyjność.

Jak zachować bezpieczeństwo przed uzbrojonymi halucynacjami AI

Postęp jest na horyzoncie. Tworzenie złośliwego oprogramowania za pomocą generatywnej sztucznej inteligencji było łatwe, zanim firmy dostosowały zbiory danych i warunki, aby zapobiec nieetycznym generacjom. Znając społeczne, techniczne i osobiste słabości, które możesz mieć przeciwko niebezpiecznym halucynacjom AI, jakie są sposoby na zachowanie bezpieczeństwa?

Każdy w branży może pracować nad udoskonalaniem technologii sieci neuronowych i weryfikacją bibliotek. Muszą istnieć mechanizmy kontroli i równowagi, zanim odpowiedzi dotrą do użytkowników końcowych. Chociaż jest to niezbędny postęp w branży, masz również do odegrania rolę w ochronie siebie i innych przed generatywnymi zagrożeniami AI.

Przeciętni użytkownicy może ćwiczyć wykrywanie halucynacji AI z tymi strategiami:

  • Wyszukiwanie błędów ortograficznych i gramatycznych.
  • Widzenie, kiedy kontekst zapytania nie pokrywa się z kontekstem odpowiedzi.
  • Uznanie, kiedy obrazy komputerowe nie pasują do tego, jak ludzkie oczy widziałyby tę koncepcję.

Zawsze zachowuj ostrożność podczas pobierania treści z Internetu, nawet jeśli jest to zalecane przez sztuczną inteligencję. Jeśli sztuczna inteligencja zaleca pobieranie kodu, nie rób tego na ślepo; sprawdź wszelkie recenzje, aby upewnić się, że kod jest zgodny z prawem i sprawdź, czy możesz znaleźć informacje o twórcy.

Najlepszą odpornością na ataki oparte na halucynacjach AI jest edukacja. Mówienie o swoich doświadczeniach i czytanie, jak inni wywołali złośliwe halucynacje, czy to przez przypadek, czy celowe testy, jest nieocenione w nawigacji AI w przyszłości.

Zwiększanie bezpieczeństwa cybernetycznego AI

Musisz uważać, o co prosisz, rozmawiając z sztuczną inteligencją. Ogranicz potencjalne niebezpieczne skutki, starając się być jak najbardziej szczegółowym i kwestionując wszystko, co pojawia się na ekranie. Testuj kod w bezpiecznych środowiskach i weryfikuj inne pozornie godne zaufania informacje. Dodatkowo, współpraca z innymi, omawianie swoich doświadczeń i upraszczanie żargonu na temat sztucznej inteligencji halucynacje i zagrożenia cyberbezpieczeństwa mogą pomóc masom zachować większą czujność i odporność na nie hakerzy.