ChatGPT może być użytecznym narzędziem, niezależnie od tego, czy masz dobre, czy złe intencje. Oznacza to, że jeśli chcesz zaangażować się w oszustwo, ChatGPT może Ci pomóc.
Chociaż wielu cyfrowych tubylców chwali ChatGPT, niektórzy obawiają się, że przynosi więcej szkody niż pożytku. Doniesienia prasowe o oszustach przechwytujących sztuczną inteligencję krążą po Internecie, zwiększając niepokój wśród sceptyków. Uważają nawet ChatGPT za niebezpieczne narzędzie.
Chatboty AI nie są idealne, ale nie musisz ich całkowicie unikać. Oto wszystko, co powinieneś wiedzieć o tym, jak oszuści nadużywają ChatGPT i co możesz zrobić, aby ich powstrzymać.
Czy ChatGPT narazi na szwank Twoje dane osobowe?
Większość obaw związanych z bezpieczeństwem front-endu dotyczących ChatGPT wynika ze spekulacji i niezweryfikowanych raportów. W końcu platforma została uruchomiona dopiero w listopadzie 2022 roku. To naturalne, że nowi użytkownicy mają błędne wyobrażenia na temat prywatności i bezpieczeństwa nieznanych narzędzi.
Według Warunki użytkowania OpenAI, oto jak ChatGPT obsługuje następujące dane:
Dane osobowe
Plotki mówią, że ChatGPT sprzedaje dane osobowe (PII).
Platforma została uruchomiona przez OpenAI, renomowane laboratorium badawcze AI, finansowane przez inwestorów technologicznych, takich jak Microsoft i Elon Musk. ChatGPT powinien wykorzystywać dane klientów wyłącznie w celu świadczenia usług określonych w Polityka prywatności.
Co więcej, ChatGPT prosi o podanie minimalnej ilości informacji. Możesz utworzyć konto, podając tylko swoje imię i nazwisko oraz adres e-mail.
Rozmowy
OpenAI zapewnia bezpieczeństwo rozmów ChatGPT, ale zastrzega sobie prawo do ich monitorowania. Trenerzy AI nieustannie poszukują obszarów wymagających poprawy. Ponieważ platforma zawiera ogromne, ale ograniczone zbiory danych, usuwanie błędów, błędów i luk w zabezpieczeniach wymaga aktualizacji w całym systemie.
Jednak OpenAI może monitorować konwoje tylko do celów badawczych. Dystrybucja lub sprzedaż ich osobom trzecim narusza własne warunki użytkowania.
Informacja publiczna
Według BBC, OpenAI wyszkolił ChaGPT na 300 miliardach słów. Gromadzi dane z publicznych stron internetowych, takich jak platformy mediów społecznościowych, strony biznesowe i sekcje komentarzy. O ile nie odłączyłeś się od sieci i nie wymazałeś swojego cyfrowego śladu, ChatGPT prawdopodobnie ma twoje informacje.
Jakie zagrożenia bezpieczeństwa stwarza ChatGPT?
Chociaż ChatGPT nie jest z natury niebezpieczny, platforma nadal stwarza zagrożenia dla bezpieczeństwa. Oszuści mogą ominąć ograniczenia, aby przeprowadzić różne cyberataki.
1. Przekonujące wiadomości e-mail typu phishing
Zamiast spędzać godziny na pisaniu e-maili, oszuści używają ChatGPT. Jest szybki i dokładny. Zaawansowane modele językowe (takie jak GPT-3.5 i GPT-4) mogą w ciągu kilku minut wygenerować setki spójnych, przekonujących e-maili phishingowych. Przyjmują nawet unikalne tony i style pisania.
Ponieważ ChatGPT utrudnia wykrycie prób włamania, zachować szczególną ostrożność przed odpowiadaniem na e-maile. Zasadniczo unikaj ujawniania informacji. Należy pamiętać, że legalne firmy i organizacje rzadko proszą o poufne dane osobowe za pośrednictwem losowych wiadomości e-mail.
Naucz się wykrywać próby włamań. Chociaż dostawcy poczty e-mail filtrują wiadomości spamowe, niektórzy sprytni mogą wpaść w pułapkę. Nadal powinieneś wiedzieć, jak wyglądają wiadomości phishingowe.
2. Kradzież danych
ChatGPT korzysta z LLM typu open source, który każdy może modyfikować. Programiści biegli w dużych modelach językowych (LLM) i uczeniu maszynowym często integrują wstępnie wytrenowane modele AI ze swoimi starszymi systemami. Szkolenie AI na nowych zestawach danych zmienia funkcjonalność. Na przykład ChatGPT staje się pseudo-ekspertem fitness, jeśli karmisz go przepisami i rutynowymi ćwiczeniami.
Otwarte źródła, choć oparte na współpracy i wygodne, narażają technologie na nadużycia. Wykwalifikowani przestępcy już wykorzystują ChatGPT. Szkolą ją na dużych ilościach skradzionych danych, zamieniając platformę w osobistą bazę danych oszustw.
Pamiętaj: nie masz kontroli nad tym, jak działają oszuści. Najlepszym podejściem jest skontaktowanie się z Federalną Komisją Handlu (FTC), gdy tylko zauważysz oznaki kradzieży tożsamości.
3. Produkcja złośliwego oprogramowania
ChatGPT pisze użyteczne fragmenty kodu w różnych językach programowania. Większość przykładów wymaga minimalnych modyfikacji, aby działały poprawnie, zwłaszcza jeśli utworzysz zwięzły monit. Możesz wykorzystać tę funkcję do tworzenia aplikacji i witryn.
Ponieważ ChatGPT został przeszkolony na miliardach zestawów danych, zna również nielegalne praktyki, takie jak tworzenie złośliwego oprogramowania i wirusów. OpenAI zabrania chatbotom pisania złośliwych kodów. Ale oszuści omijają te ograniczenia, modyfikując podpowiedzi i zadając precyzyjne pytania.
Poniższe zdjęcie pokazuje, że ChatGPT odrzuca pisanie kodu w złośliwych celach.
Tymczasem poniższe zdjęcie pokazuje, że ChatGPT przekaże Ci szkodliwe informacje, jeśli poprawnie sformułujesz podpowiedzi.
4. Kradzież własności intelektualnej
Nieetyczni blogerzy obracają treściami za pomocą ChatGPT. Ponieważ platforma działa na zaawansowanych LLM, może szybko przeformułować tysiące słów i uniknąć tagów plagiatu.
ChatGPT przeredagował poniższy tekst w 10 sekund.
Oczywiście spinning nadal klasyfikuje się jako plagiat. Sparafrazowane artykuły AI czasami są umieszczane w rankingu przypadkowo, ale Google generalnie preferuje oryginalne treści z renomowanych źródeł. Tanie sztuczki i hacki SEO nie przebiją wysokiej jakości, ponadczasowego pisania.
Ponadto Google wydaje co roku wiele podstawowych aktualizacji. Wkrótce skupi się na usuwaniu leniwych, nieoryginalnych elementów generowanych przez sztuczną inteligencję z SERP.
5. Generowanie nieetycznych odpowiedzi
Modele językowe AI nie mają uprzedzeń. Udzielają odpowiedzi, analizując żądania użytkowników i pobierając dane z istniejącej bazy danych.
Weźmy jako przykład ChatGPT. Kiedy wysyłasz monit, odpowiada on na podstawie zestawów danych OpenAI używanych do szkolenia.
Podczas gdy polityka treści ChatGPT blokuje nieodpowiednie żądania, użytkownicy omijają je za pomocą monitów o jailbreak. Karmią go dokładnymi, sprytnymi instrukcjami. ChatGPT generuje poniższą odpowiedź, jeśli poprosisz o przedstawienie psychopatycznej postaci fikcyjnej.
Dobra wiadomość jest taka OpenAI nie straciło kontroli nad ChatGPT. Jej ciągłe wysiłki na rzecz zaostrzenia ograniczeń powstrzymują ChatGPT od generowania nieetycznych odpowiedzi, niezależnie od wkładu użytkownika. Łamanie więzienia nie będzie już tak łatwe.
6. Coś za coś
Szybki rozwój nowych, nieznanych technologii, takich jak ChatGPT, stwarza okazje do ataków quid pro quo. Są to taktyki socjotechniczne, w których oszuści wabią ofiary fałszywymi ofertami.
Większość ludzi nie odkryła jeszcze ChatGPT. A hakerzy wykorzystują zamieszanie, rozpowszechniając wprowadzające w błąd promocje, e-maile i ogłoszenia.
Najbardziej znane przypadki dotyczą fałszywych aplikacji. Nowi użytkownicy nie wiedzą, że mają dostęp do ChatGPT tylko przez OpenAI. Nieświadomie pobierają spamerskie programy i rozszerzenia.
Większość chce tylko pobrać aplikacje, ale inni kradną dane osobowe. Oszuści infekują je złośliwym oprogramowaniem i linkami phishingowymi. Na przykład w marcu 2023 r fałszywe rozszerzenie ChatGPT do przeglądarki Chrome ukradło dane logowania do Facebooka od ponad 2000 użytkowników dziennie.
Aby walczyć z próbami quid pro quo, unikaj aplikacji innych firm. OpenAI nigdy nie wydało autoryzowanej aplikacji mobilnej, programu komputerowego ani rozszerzenia przeglądarki dla ChatGPT. Wszystko, co twierdzi, że tak jest, jest oszustwem.
Korzystaj z ChatGPT bezpiecznie i odpowiedzialnie
ChatGPT nie jest zagrożeniem samym w sobie. System ma luki w zabezpieczeniach, ale nie naraża twoich danych. Zamiast bać się technologii sztucznej inteligencji, zbadaj, w jaki sposób oszuści wykorzystują je do taktyk inżynierii społecznej. W ten sposób możesz proaktywnie się chronić.
Ale jeśli nadal masz wątpliwości co do ChatGPT, wypróbuj Bing. Nowy Bing zawiera chatbota opartego na sztucznej inteligencji, który działa na GPT-4, pobiera dane z Internetu i przestrzega ścisłych środków bezpieczeństwa. Może się okazać, że bardziej odpowiada Twoim potrzebom.