Sztuczną inteligencję można wykorzystać w dobrym lub złym celu. Oto tylko kilka sposobów, w jakie obecnie pomaga hakerom i oszustom.
Wielu entuzjastów technologii jest podekscytowanych potencjalnymi możliwościami sztucznej inteligencji, ale cyberprzestępcy również oczekują, że ta technologia pomoże im w ich wyczynach. Sztuczna inteligencja to fascynująca dziedzina, ale może też budzić niepokój. W jaki więc sposób sztuczna inteligencja może pomóc cyberprzestępcom?
1. Pisanie złośliwego oprogramowania
Sztuczna inteligencja to zaawansowany rodzaj technologii, więc dla niektórych może nie być zaskoczeniem, że można jej używać do tworzenia złośliwego oprogramowania. Złośliwe oprogramowanie to termin określający złośliwe programy używane (połączenie słów „złośliwe” i „oprogramowanie”) podczas hakowania i może przybierać różne formy. Ale aby używać złośliwego oprogramowania, należy je najpierw napisać.
Nie wszyscy cyberprzestępcy mają doświadczenie w programowaniu, a inni po prostu nie chcą spędzać czasu na pisaniu nowych programów. Tutaj z pomocą może przyjść sztuczna inteligencja.
Zauważono to na początku 2023 roku ChatGPT może być używany do pisania złośliwego oprogramowania za nielegalne ataki. Niezwykle popularny ChatGPT OpenAI jest napędzany przez infrastrukturę AI. Ten chatbot może robić wiele przydatnych rzeczy, ale jest również wykorzystywany przez nielegalne osoby.
W jednym konkretnym przypadku użytkownik opublikował post na forum hakerskim, twierdząc, że tak napisał złośliwy program oparty na Pythonie przy użyciu ChatGPT.
ChatGPT może skutecznie zautomatyzować proces pisania szkodliwych programów. Otwiera to drzwi początkującym cyberprzestępcom, którzy nie mają dużej wiedzy technicznej.
ChatGPT (lub przynajmniej jego najnowsza wersja) może pisać tylko podstawowe, a czasem błędne programy złośliwego oprogramowania, a nie wyrafinowany kod, który stwarza poważne zagrożenia. Nie oznacza to jednak, że sztuczna inteligencja nie może być wykorzystywana do tworzenia złośliwego oprogramowania. Biorąc pod uwagę, że obecny chatbot wykorzystujący sztuczną inteligencję może tworzyć podstawowe złośliwe programy, być może niedługo zobaczymy bardziej ohydne złośliwe oprogramowanie pochodzące z systemów sztucznej inteligencji.
2. Łamanie haseł
Hasła często stanowią jeden wiersz danych chroniący nasze konta i urządzenia. Nic więc dziwnego, że wielu cyberprzestępców próbuje złamać hasła, aby uzyskać dostęp do naszych prywatnych danych.
Łamanie haseł jest już popularne w cyberprzestępczości, a cyberprzestępcy mogą wykorzystać różne techniki, aby odkryć hasło celu. Różne techniki mają różne wskaźniki sukcesu, ale sztuczna inteligencja może znacznie zwiększyć szansę na złamanie hasła.
Koncepcja łamania haseł AI w żadnym wypadku nie jest science fiction. W rzeczywistości, ZDNet poinformowało, że eksperci ds. cyberbezpieczeństwa odkryli, że ponad połowę powszechnie używanych haseł można złamać w mniej niż minutę. Artykuł, o którym mowa a Raport Home Security Heroes, w którym stwierdzono, że napędzane sztuczną inteligencją narzędzie do łamania haseł o nazwie PassGAN może złamać 51 procent popularnych haseł w mniej niż minutę i 71 procent w mniej niż jeden dzień.
Liczby te pokazują, jak niebezpieczne może być łamanie haseł AI. Z możliwością złamania większości zwykłych haseł w mniej niż 24 godziny, nie wiadomo, co cyberprzestępca mógłby zrobić za pomocą takiego narzędzia.
3. Prowadzenie inżynierii społecznej
Taktyka cyberprzestępczości znany jako inżynieria społeczna co tydzień pochłania hordy ofiar i jest poważnym problemem w każdej części świata. Ta metoda wykorzystuje manipulację, aby skłonić ofiary do spełnienia żądań atakującego, często nawet nie zdając sobie sprawy, że są celem
Sztuczna inteligencja może pomóc w atakach socjotechnicznych, formułując treści wykorzystywane w złośliwej komunikacji, takiej jak e-maile i SMS-y phishingowe. Nawet przy obecnym poziomie zaawansowania sztucznej inteligencji nie byłoby trudno poprosić chatbota o sformułowanie przekonującego scenariusza, który cyberprzestępca mógłby następnie wykorzystać przeciwko swoim ofiarom. To zagrożenie nie pozostało niezauważone, a ludzie już są zaniepokojeni nadchodzącymi niebezpieczeństwami.
W tym sensie sztuczna inteligencja może również pomóc w nadaniu złośliwej komunikacji bardziej profesjonalnego i oficjalnego charakteru poprzez usuwanie błędów ortograficznych i gramatycznych. Często mówi się, że takie błędy mogą być oznakami złośliwych działań, więc cyberprzestępcom może pomóc bardziej przejrzyste i efektywne pisanie treści socjotechnicznych.
4. Znajdowanie luk w oprogramowaniu
Aby zhakować oprogramowanie, cyberprzestępcy często muszą znaleźć i wykorzystać lukę w zabezpieczeniach. Luki te często powstają w wyniku błędów w kodzie oprogramowania. Jeśli błąd nie zostanie naprawiony lub dana osoba nie aktualizuje regularnie swojego oprogramowania (co często eliminuje luki w zabezpieczeniach), luki w zabezpieczeniach mogą stanowić poważne zagrożenie.
Cyberprzestępcy o tym wiedzą i dlatego szukają luk. Istnieją już narzędzia, których można użyć do znalezienia luk w zabezpieczeniach, takie jak zestaw exploitów. Ale korzystając ze sztucznej inteligencji, złośliwy aktor może być w stanie wskazać znacznie więcej luk w zabezpieczeniach, z których niektóre mogą zostać wykorzystane do spowodowania wielu szkód.
Jednak ta aplikacja AI może być również pomocna dla dostawców cyberbezpieczeństwa pomoc w znalezieniu luk w zabezpieczeniach zanim zostaną wyeksploatowane. Możliwość szybkiego załatania luki może uniemożliwić szkodliwym podmiotom wykorzystanie jej, ogólnie łagodząc ataki.
5. Analiza skradzionych danych
Dane są cenne jak złoto. Dzisiaj, wrażliwe dane są sprzedawane na ciemnych rynkach internetowych w sposób ciągły, a niektórzy złośliwi aktorzy są gotowi zapłacić bardzo wysoką cenę, jeśli informacje są wystarczająco przydatne.
Ale aby te dane stały się dostępne na tych rynkach, najpierw muszą zostać skradzione. Dane z pewnością mogą zostać skradzione w niewielkich ilościach, zwłaszcza gdy atakujący atakuje pojedyncze ofiary. Jednak większe włamania mogą skutkować kradzieżą ogromnych baz danych. W tym momencie cyberprzestępca musi określić, które informacje w tej bazie danych są cenne.
Wykorzystując sztuczną inteligencję, proces wyróżniania cennych informacji można usprawnić, skracając czas dla złośliwego aktora, aby ustalić, co jest warte sprzedaży, lub, z drugiej strony, bezpośrednio eksploatować we własnym zakresie ręka. Podstawą sztucznej inteligencji jest uczenie się, więc pewnego dnia korzystanie z narzędzia opartego na sztucznej inteligencji do zbierania cennych i wrażliwych danych może stać się łatwe.
Sztuczna inteligencja jest obiecująca, ale stwarza również wiele zagrożeń
Podobnie jak w przypadku większości rodzajów technologii, sztuczna inteligencja była i będzie wykorzystywana przez cyberprzestępców. Ponieważ sztuczna inteligencja ma już pewne nielegalne możliwości, tak naprawdę nie wiadomo, w jaki sposób cyberprzestępcy będą mogli przeprowadzać ataki przy użyciu tej technologii w najbliższej przyszłości. Firmy zajmujące się cyberbezpieczeństwem mogą również w coraz większym stopniu współpracować z AI w celu zwalczania takich zagrożeń, ale czas pokaże, jak to się potoczy.