ChatGPT może pomóc ludziom robić wiele rzeczy, w tym uzyskać dostęp do najbardziej poufnych informacji.

Od momentu uruchomienia ChatGPT, chatbot OpenAI, był używany przez miliony ludzi do pisania tekstu, tworzenia muzyki i generowania kodu. Ale ponieważ coraz więcej osób korzysta z chatbota AI, ważne jest, aby wziąć pod uwagę zagrożenia bezpieczeństwa.

Jak każda technologia, ChatGPT może być używany do niecnych celów. Na przykład hakerzy mogą go używać do tworzenia złośliwych treści, takich jak pisanie fałszywych wiadomości e-mail w celu uzyskania dostępu do komputera lub nawet konta bankowego.

ChatGPT może pomóc cyberprzestępcom włamać się na Twój komputer

Hakerzy, w tym dzieciaki skryptowe, mogą używać ChatGPT do tworzenia nowego złośliwego oprogramowania lub udoskonalić istniejące. Niektórzy cyberprzestępcy już używają chatbota, zwłaszcza jego wcześniejszych wersji, do pisania kodu, który ich zdaniem może szyfrować pliki.

Aby przeciwdziałać takim przypadkom użycia, OpenAI zaimplementowało mechanizmy odrzucania monitów z prośbą o utworzenie złośliwego oprogramowania przez ChatGPT. Na przykład, jeśli poprosisz chatbota o „napisanie złośliwego oprogramowania”, nie zrobi tego. Mimo to cyberprzestępcy z łatwością omijają te bariery moderowania treści.

instagram viewer

Działając jako tester pióra, cyberprzestępca może przeformułować swoje podpowiedzi, aby nakłonić ChatGPT do napisania kodu, który następnie może zmodyfikować i wykorzystać w cyberatakach.

A raport Check Pointa, izraelska firma zajmująca się bezpieczeństwem, wskazuje, że haker mógł wykorzystać ChatGPT do stworzenia podstawowego złośliwego oprogramowania Infostealer. Firma zajmująca się bezpieczeństwem odkryła również innego użytkownika, który twierdzi, że ChatGPT pomógł mu zbudować wielowarstwowe narzędzie szyfrujące, które może zaszyfrować kilka plików podczas ataku ransomware.

W osobnym incydencie badacze skłonili ChatGPT do wygenerowania złośliwego kodu VBA, który mógłby zostać wszczepiony do pliku Microsoft Excel, który po otwarciu zainfekowałby komputer; udało się. Ponadto istnieją twierdzenia, że ​​ChatGPT może kodować złośliwe oprogramowanie zdolne do szpiegowania uderzeń w klawiaturę.

Czy ChatGPT może zhakować Twoje konto bankowe?

Wiele naruszeń danych zaczyna się od udany atak phishingowy. Ataki typu phishing często polegają na wysłaniu odbiorcy wiadomości e-mail zawierającej wyglądające na legalne dokumenty lub łącza, które po kliknięciu mogą zainstalować złośliwe oprogramowanie na urządzeniu. W ten sposób kod z ChatGPT nie musi bezpośrednio hakować Twojego konta bankowego. Ktoś musi tylko użyć ChatGPT, aby pomóc mu nakłonić Cię do przyznania mu dostępu.

Na szczęście możesz łatwo rozpoznać większość tradycyjnych oszustw typu phishing; często charakteryzują je błędy gramatyczne, błędy ortograficzne i dziwne frazy. Ale to wszystko są błędy, które ChatGPT rzadko popełnia, nawet jeśli jest używany do tworzenia złośliwych wiadomości e-mail w celu wyłudzenia informacji.

Wiadomości, które wydają się pochodzić z legalnego źródła, wykorzystywane w oszustwach typu phishing, mogą ułatwić ofiarom wyłudzanie informacji zrezygnować ze swoich danych osobowych, jak hasła bankowe.

Jeśli Twój bank wysłał Ci wiadomość e-mailem, rozważ odwiedzenie strony internetowej banku bezpośrednio, zamiast klikania osadzonych linków. Klikanie przypadkowych linków i załączników, zwłaszcza tych proszących o zalogowanie się, rzadko jest dobrym pomysłem.

W przypadku phishingu chodzi głównie o wolumen. ChatGPT może pomóc w przyspieszeniu kampanii phishingowych, ponieważ może szybko wypompować ogromne ilości naturalnie brzmiących tekstów, które są dostosowane do określonych odbiorców.

Innym rodzajem ataku phishingowego z wykorzystaniem ChatGPT jest sytuacja, w której haker tworzy fałszywe konto na popularnej platformie czatowej, takiej jak Discord, i podszywa się pod przedstawiciela klienta. Fałszywy przedstawiciel klienta kontaktuje się następnie z klientami, którzy opublikowali swoje uwagi i oferuje pomoc. Jeśli użytkownik wpadnie w pułapkę, cyberprzestępca przekieruje go na fałszywą stronę internetową, która nakłania go do udostępnienia danych osobowych, takich jak dane logowania do banku.

Chroń swój komputer i konto bankowe w erze sztucznej inteligencji

ChatGPT to potężne i wartościowe narzędzie, które może odpowiedzieć na wiele pytań, które mu zadasz. Ale chatbot może być również wykorzystywany do złośliwych celów, takich jak generowanie wiadomości phishingowych i tworzenie złośliwego oprogramowania.

Dobrą wiadomością jest to, że OpenAI kontynuuje wdrażanie środków, które uniemożliwiają użytkownikom wykorzystywanie ChatGPT poprzez zadawanie szkodliwych monitów. Z drugiej strony cyberprzestępcy wciąż znajdują nowe sposoby na obejście tych ograniczeń.

Aby zminimalizować potencjalne zagrożenia związane z chatbotami AI, bardzo ważne jest poznanie ich potencjalnych zagrożeń i najlepszych możliwych środków bezpieczeństwa, aby chronić się przed hakerami.