Kto jeszcze nie korzystał z ChatGPT? To zabawne, absolutnie fascynujące, jeśli interesujesz się sztuczną inteligencją, i bezpłatne (na razie).
Chociaż zwykle jest opisywany jako chatbot, ChatGPT to znacznie więcej. Może generować kopie, wyjaśniać złożone tematy, działać jako tłumacz, wymyślać dowcipy i pisać kod. Ale cyberprzestępcy mogą go również wykorzystać jako broń.
Jak działa ChatGPT i dlaczego jest atrakcyjny dla cyberprzestępców
ChatGPT (Generative Pre-trained Transformer) został opracowany przez laboratorium badawcze sztucznej inteligencji OpenAI i uruchomiony w listopadzie 2022 r. Jest to duży model językowy, który wykorzystuje kombinację nadzorowanych i wzmacniających technik uczenia maszynowego.
Co być może ważniejsze, ChatGPT jest stale dostrajany i szkolony przez użytkowników, którzy mogą głosować lub minusować jego odpowiedzi, czyniąc go tym bardziej dokładnym i potężnym, ponieważ samodzielnie gromadzi dane.
To właśnie odróżnia ChatGPT od innych chatbotów. A jeśli kiedykolwiek go używałeś, wiesz, że różnica jest natychmiast zauważalna: w przeciwieństwie do innych podobnych produktów, jest w stanie aktywnie uczestnicz w rozmowie i wykonuj złożone zadania z oszałamiającą dokładnością, jednocześnie dostarczając spójne i ludzkie odpowiedzi.
Gdyby pokazano ci krótki esej napisany przez człowieka i jeden napisany przez ChatGPT, prawdopodobnie miałbyś problem z ustaleniem, który jest który. Jako przykład, oto część tekstu wygenerowanego przez ChatGPT, gdy poproszono go o napisanie krótkiego eseju o The Catcher in the Rye.
Nie oznacza to, że ChatGPT nie ma swoich ograniczeń — z całą pewnością tak. Im częściej go używasz, tym bardziej zauważysz, że tak jest. Choć jest potężna, wciąż może zmagać się z elementarną logiką, popełniać błędy, dzielić się fałszem i wprowadzać w błąd informacji, błędnie interpretować instrukcje w komiczny sposób i zostać zmanipulowanym w celu narysowania niewłaściwego wniosek.
Ale siła ChatGPT nie polega na zdolności do rozmowy. Leży raczej w jego niemal nieograniczonej zdolności do masowego wykonywania zadań, wydajniej i znacznie szybciej niż człowiek. Dzięki odpowiednim wejściom i poleceniom oraz kilku kreatywnym obejściom ChatGPT można przekształcić w niepokojąco potężne narzędzie do automatyzacji.
Mając to na uwadze, nietrudno sobie wyobrazić, w jaki sposób cyberprzestępca mógłby wykorzystać ChatGPT jako broń. Wszystko polega na znalezieniu odpowiedniej metody, skalowaniu jej i sprawieniu, by sztuczna inteligencja wykonała jak najwięcej zadań jednocześnie, z wieloma kontami i na kilku urządzeniach, jeśli to konieczne.
5 rzeczy, które cyberprzestępcy mogą zrobić dzięki ChatGPT
Istnieje już kilka rzeczywistych przykładów wykorzystania ChatGPT przez cyberprzestępców, ale to nie wszystko niż prawdopodobne, że zostanie uzbrojony na wiele różnych sposobów lub będzie w pewnym momencie przyszły. Oto pięć rzeczy, które hakerzy mogą zrobić (i prawdopodobnie robią) z ChatGPT.
1. Napisz złośliwe oprogramowanie
Jeśli ChatGPT może pisać kod, może pisać złośliwe oprogramowanie. Żadnej niespodzianki. Ale to nie jest tylko czysto teoretyczna możliwość. W styczniu 2023 r. firma Check Point Research zajmująca się bezpieczeństwem cybernetycznym odkryła, że cyberprzestępcy już to robią używając ChatGPT do pisania złośliwego oprogramowania— i chwalenie się tym na podziemnych forach.
Odkryty przez firmę Check Point Research cyberprzestępca wykorzystał zaawansowanego chatbota w dość kreatywny sposób, aby odtworzyć złośliwe oprogramowanie oparte na języku Python, opisane w niektórych publikacjach badawczych. Kiedy badacze testowali szkodliwy program, cyberprzestępca mówił prawdę: jego złośliwe oprogramowanie generowane przez ChatGPT robiło dokładnie to, do czego zostało zaprojektowane.
2. Generuj e-maile phishingowe
Tak potężne, jak stały się filtry antyspamowe, niebezpieczne wiadomości phishingowe wciąż prześlizgują się przez szczeliny, a przeciętny człowiek niewiele może zrobić poza zgłoszeniem nadawcy swojemu dostawcy. Jednak zdolny cyberprzestępca może wiele zrobić, mając listę mailingową i dostęp do ChatGPT.
Dzięki odpowiednim poleceniom i sugestiom ChatGPT może generować przekonujące e-maile phishingowe, potencjalnie automatyzując proces dla atakującego i umożliwiając mu skalowanie operacji.
3. Twórz oszukańcze strony internetowe
Jeśli po prostu wyszukasz w Google termin „zbuduj stronę internetową za pomocą ChatGPT”, znajdziesz kilka samouczków wyjaśniających bardzo szczegółowo, jak to zrobić. Chociaż jest to dobra wiadomość dla każdego, kto chciałby stworzyć stronę internetową od podstaw, jest to również dobra wiadomość dla cyberprzestępców. Co powstrzymuje ich przed używaniem ChatGPT do tworzenia wielu witryn oszukańczych lub phishingowych stron docelowych?
Możliwości są prawie nieograniczone. Aktor zagrożeń może sklonować istniejącą witrynę internetową za pomocą ChatGPT, a następnie zmodyfikować ją, zbudować fałszywe witryny handlu elektronicznego, uruchomić strona z oszustwami typu scareware, i tak dalej.
4. Twórz treści spamowe
Aby założyć fałszywą stronę internetową, prowadzić oszukańczą stronę w mediach społecznościowych lub zbudować witrynę naśladowczą, potrzebujesz treści - dużo. I musi wyglądać jak najbardziej legalnie, aby oszustwo zadziałało. Dlaczego cyberprzestępca miałby zatrudniać twórców treści lub samodzielnie pisać posty na blogu, skoro może to zrobić za nich ChatGPT?
To prawda, że witryna z treściami generowanymi przez sztuczną inteligencję prawdopodobnie zostałaby dość szybko ukarana przez Google i nie pojawiłaby się w wynikach wyszukiwania, ale istnieje wiele różnych sposobów, za pomocą których haker może promować witrynę internetową, kierować do niej ruch i wyłudzać od ludzi pieniądze lub wykraść ich dane osobowe.
5. Rozpowszechniaj dezinformację i fałszywe wiadomości
Dezinformacja w internecie stała się w ostatnich latach poważnym problemem. Fałszywe wiadomości rozprzestrzeniają się lotem błyskawicy w mediach społecznościowych, a ludzie, którzy nie wiedzą nic lepszego, często dają się nabrać na wprowadzające w błąd — a czasem dosłownie zmyślone — historie. Może to mieć tragiczne konsekwencje w prawdziwym życiu i wydaje się, że nikt nie ma pojęcia, jak przestać rozpowszechnianie fałszywych wiadomości bez naruszania prawa do wolności słowa.
Narzędzia takie jak ChatGPT mogą zaostrzyć ten problem. Zagrożenia mające dostęp do oprogramowania, które jest w stanie codziennie generować tysiące fałszywych wiadomości i postów w mediach społecznościowych, wydaje się przepisem na katastrofę.
Nie wierz nam na słowo
Jeśli nie jesteś przekonany, zapytaliśmy ChatGPT, jak wykorzystałby go cyberprzestępca. Wydaje się, że zgadza się z sednem tego artykułu.
W niewłaściwych rękach ChatGPT staje się niebezpieczny
Można sobie tylko wyobrazić, do czego będzie zdolna sztuczna inteligencja za pięć, dziesięć lat. Na razie najlepiej zignorować szum i panikę i racjonalnie ocenić ChatGPT.
Jak każda technologia, ChatGPT nie jest z natury ani pomocny, ani szkodliwy. Pomimo pewnych niedociągnięć jest to zdecydowanie najbardziej wydajny chatbot, jaki kiedykolwiek udostępniono publicznie.