FraudGPT to model językowy dostosowany do pomocy przestępcom w oszukańczych działaniach. Dowiedz się, jak chronić się przed potencjalnymi zagrożeniami.

Rozwój sztucznej inteligencji (AI) to miecz obosieczny. Jak każda technologia transformacyjna, sztuczna inteligencja oferuje ogromny potencjał, ale także ogromne ryzyko. Pomimo zdecydowanego nacisku na uregulowanie sztucznej inteligencji, wydaje się, że cyberprzestępcy wyprzedzili konkurencję.

Nowe narzędzie w stylu ChatGPT, FraudGPT, zyskuje na popularności wśród cyberprzestępców, umożliwiając im automatyzację i lepszą realizację dużej części operacji oszustw. Ofiarą może stać się każdy, dlatego ważne jest, aby być na bieżąco. Oto wszystko, co do tej pory wiemy o FraudGPT.

Co to jest oszustwoGPT?

FraudGPT to narzędzie AI oparte na dużym modelu językowym, które jest szczególnie dopracowane, aby pomóc cyberprzestępcom popełniać cyberprzestępstwa. Oparte na subskrypcji narzędzie sztucznej inteligencji umożliwia cyberprzestępcom ułatwianie działań przestępczych, takich jak karty płatnicze, phishing i tworzenie złośliwego oprogramowania.

instagram viewer

Chociaż szczegóły dotyczące tego narzędzia są bardzo ograniczone, badacze z Netenrich, firmy zajmującej się badaniami nad bezpieczeństwem, odkryli kilka reklam w ciemnej sieci reklamujących to narzędzie. Według raport badawczy firmy Netenrich, opłaty abonamentowe wahają się od 200 USD miesięcznie do 1700 USD rocznie.

Aby lepiej zobrazować to narzędzie, możesz pomyśleć o FraudGPT jako o ChatGPT, ale o oszustwie. Ale jak dokładnie działa FraudGPT i jak wykorzystują go cyberprzestępcy?

Jak działa FraudGPT?

Źródło obrazu: Freepik

Zasadniczo FraudGPT nie różni się znacząco od żadnego narzędzia opartego na dużym modelu językowym. Innymi słowy, samo narzędzie jest interaktywnym interfejsem umożliwiającym przestępcom dostęp do specjalnego rodzaju modelu języka, który został dostosowany do popełniania cyberprzestępstw.

Nadal nie rozumiesz? Oto ogólne pojęcie o tym, o czym mówimy. We wczesnych dniach uruchomienia ChatGPT chatbot AI mógł być używany do niemal wszystkiego, w tym pomagania cyberprzestępcom w tworzeniu złośliwego oprogramowania. Było to możliwe, ponieważ bazowy model językowy ChatGPT został przeszkolony na zbiorze danych, który prawdopodobnie zawierał próbki szerokiego zakresu danych, w tym danych, które mogą pomóc w przedsięwzięciu przestępczym.

Duże modele językowe są zwykle karmione wszystkim, od dobrych rzeczy, takich jak teorie naukowe, informacje zdrowotne i polityka, do niezbyt dobrych, takich jak próbki kodu złośliwego oprogramowania, wiadomości z kart i kampanii phishingowych oraz inne materiały. Gdy mamy do czynienia z rodzajami zestawów danych potrzebnych do trenowania modeli językowych, takich jak te, które napędzają ChatGPT, jest prawie nieuniknione, że model będzie zawierał próbki niechcianych materiałów.

Pomimo zazwyczaj skrupulatnych wysiłków w celu wyeliminowania niechcianych materiałów w zbiorze danych, niektóre prześlizgują się, i zwykle są one jeszcze wystarczające, aby dać modelowi możliwość generowania materiałów ułatwiających cyberprzestępczość. Dlatego z prawicą szybka inżynieria, możesz uzyskać narzędzia, takie jak ChatGPT, Google Bard i Bing AI, które pomogą Ci pisać oszukańcze wiadomości e-mail lub złośliwe oprogramowanie komputerowe.

Jeśli narzędzia takie jak ChatGPT mogą pomóc cyberprzestępcom popełniać przestępstwa pomimo wszelkich starań, aby te chatboty AI były bezpieczne, pomyśl teraz o moc, jaką może przynieść narzędzie, takie jak FraudGPT, biorąc pod uwagę, że zostało specjalnie dostrojone do szkodliwych materiałów, aby było odpowiednie cyberprzestępczość. To tak, jakby zły bliźniak ChatGPT dostał sterydy.

Tak więc, aby użyć tego narzędzia, przestępcy mogą po prostu monitować chatbota, tak jak robią to w przypadku ChatGPT. Mogliby poprosić go, powiedzmy, o napisanie e-maila phishingowego dla Jane Doe, która pracuje w firmie ABC, lub może poprosić go o napisanie złośliwego oprogramowania przy użyciu C++ w celu kradzieży wszystkich plików PDF z komputera z systemem Windows 10. Przestępcy po prostu wymyśliliby złowrogą mechanizację i pozwolili chatbotowi wykonać ciężkie zadania.

Jak chronić się przed oszustwamiGPT?

Pomimo tego, że jest to nowy rodzaj narzędzia, zagrożenie stwarzane przez FraudGPT zasadniczo się nie różni. Można powiedzieć, że wprowadza większą automatyzację i efektywność do już ustalonych metod wykonywania cyberprzestępczości.

Przestępcy korzystający z tego narzędzia byliby w stanie, przynajmniej teoretycznie, pisać bardziej przekonujące e-maile phishingowe i lepiej planować oszustw i tworzenia skuteczniejszego złośliwego oprogramowania, ale w większości nadal polegają na ustalonych sposobach wykonywania swoich nikczemnych plany. W rezultacie nadal obowiązują ustalone sposoby ochrony:

  • Uważaj na niechciane wiadomości z prośbą o informacje lub nakłaniające do kliknięcia linków. Nie podawaj informacji ani nie klikaj łączy w tych wiadomościach, chyba że zweryfikujesz źródło.
  • Skontaktuj się bezpośrednio z firmami, korzystając z niezależnego, zweryfikowanego numeru, aby sprawdzić legalność. Nie wykorzystuj danych kontaktowych podanych w podejrzanych wiadomościach.
  • Używaj silnych, unikalnych haseł, które są trudne do złamania i korzystaj z uwierzytelniania dwuskładnikowego, jeśli jest dostępne dla wszystkich kont. Nigdy nie udostępniaj przesłanych Ci haseł ani kodów.
  • Regularnie sprawdzaj wyciągi z konta pod kątem podejrzanej aktywności.
  • Aktualizuj oprogramowanie i używaj narzędzi antywirusowych lub chroniących przed złośliwym oprogramowaniem.
  • Niszcz dokumenty zawierające dane osobowe lub informacje finansowe, gdy nie są już potrzebne.

Aby dowiedzieć się więcej o tym, jak się chronić, przeczytaj nasz przewodnik jak się chronić w dobie AI.

Bądź na bieżąco, aby się chronić

Pojawienie się narzędzi takich jak FraudGPT przypomina nam, że pomimo całego dobra, jakie sztuczna inteligencja może nam przynieść, nadal stanowi bardzo potężne narzędzie w rękach cyberprzestępców.

Ponieważ rządy i duże firmy zajmujące się sztuczną inteligencją biorą udział w szaleńczym wyścigu, aby wprowadzić lepsze sposoby regulowania sztucznej inteligencji, tak właśnie jest ważne jest, aby zdawać sobie sprawę z zagrożenia, jakie obecnie stwarza sztuczna inteligencja, i podjąć niezbędne środki ostrożności w celu ochrony się.