Fałszywe wiadomości, deepfake, wprowadzające w błąd obrazy: wszystko to można stworzyć za pomocą sztucznej inteligencji. Oto jak sztuczna inteligencja oznacza rozprzestrzenianie się dezinformacji.

Sztuczna inteligencja (AI) odgrywa obecnie rolę w różnych aspektach naszego życia. W szczególności generatywne narzędzia sztucznej inteligencji, takie jak ChatGPT i inne, znacznie się rozwinęły. Oznacza to, że w przyszłości będzie mnóstwo treści generowanych przez sztuczną inteligencję.

Jednak generatywna sztuczna inteligencja wprowadza również ryzyko dezinformacji generowanej przez sztuczną inteligencję. Jego funkcje ułatwiają oportunistom rozpowszechnianie fałszywych informacji. Przyjrzyjmy się więc, w jaki sposób generatywna sztuczna inteligencja jest wykorzystywana do dezinformacji.

Potencjalne zagrożenia związane z generatywną sztuczną inteligencją w rozpowszechnianiu dezinformacji

Generatywna sztuczna inteligencja stwarza wiele zagrożeń dla ludzi, takich jak odbieranie pracy, większa inwigilacja i cyberataki. i

instagram viewer
problemy z bezpieczeństwem AI będą się jeszcze pogłębiać. Ale jest jeszcze jedno zmartwienie: ludzie mogą go używać do szerzenia kłamstw. Zwodnicze osoby mogą używać generatywnej sztucznej inteligencji do udostępniania fałszywych wiadomości za pomocą treści wizualnych, dźwiękowych lub tekstowych.

Fałszywe wiadomości można podzielić na trzy rodzaje:

  1. Mylna informacja: niezamierzone nieprawidłowe lub fałszywe informacje.
  2. Dezinformacja: celowe wykorzystanie manipulacyjnych lub wprowadzających w błąd informacji.
  3. Złe informacje: Wprowadzające w błąd wiadomości lub przesadzona wersja prawdy.

Gdy w połączeniu z technologią deepfake, generatywne narzędzia sztucznej inteligencji mogą sprawić, że treści, takie jak zdjęcia, filmy, klipy audio i dokumenty, będą wyglądały i brzmiały jak prawdziwe. Istnieje wiele możliwości tworzenia fałszywych treści, więc wiedząc jak chronić się przed filmami typu deepfake jest ważne.

Rozpowszechniacze fałszywych wiadomości mogą generować treści w dużych ilościach, ułatwiając ich rozpowszechnianie wśród mas za pośrednictwem mediów społecznościowych. Ukierunkowana dezinformacja może być wykorzystana do wpływania na kampanie polityczne, potencjalnie wpływając na wybory. Ponadto korzystanie z narzędzi AI do generowania tekstu i obrazów budzi obawy dotyczące praw autorskich Kongresowej Służby Badawczej: określenie własności treści generowanych przez te narzędzia staje się wyzwaniem.

W jaki sposób prawo zajmie się rozpowszechnianiem fałszywych wiadomości za pośrednictwem generatywnej sztucznej inteligencji? Kto poniesie odpowiedzialność za rozpowszechnianie fałszywych informacji – użytkownicy, programiści czy same narzędzia?

4 sposoby, na jakie można wykorzystać generatywną sztuczną inteligencję do szerzenia dezinformacji

Aby zachować bezpieczeństwo w Internecie, każdy musi zrozumieć ryzyko związane z generatywną sztuczną inteligencją w rozpowszechnianiu dezinformacji, ponieważ występuje ona w wielu różnych formach. Oto kilka sposobów, w jakie można go wykorzystać do manipulowania ludźmi.

1. Generowanie fałszywych treści online

Tworzenie fałszywych treści przy użyciu generatywnej sztucznej inteligencji to powszechna strategia stosowana przez tych, którzy rozpowszechniają fałszywe wiadomości. Używają popularnych generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT, DALL-E, Bard, Midjourney i inne, aby tworzyć różne rodzaje treści. Na przykład, ChatGPT może pomóc twórcom treści na wiele sposobów. Ale może również generować posty w mediach społecznościowych lub artykuły z wiadomościami, które mogą oszukiwać ludzi.

Aby to udowodnić, skłoniłem ChatGPT do napisania zmyślonego artykułu o aresztowaniu prezydenta USA Joe Bidena pod zarzutem korupcji. Poprosiliśmy również o załączenie oświadczeń odpowiednich władz, aby wyglądało to bardziej wiarygodnie.

Oto fikcyjny artykuł, który wymyślił ChatGPT:

Co zaskakujące, wynik był bardzo przekonujący. Zawierał nazwiska i wypowiedzi autorytatywnych postaci, aby artykuł był bardziej przekonujący. To pokazuje, jak każdy może wykorzystać takie narzędzia do generowania fałszywych wiadomości i łatwego rozpowszechniania ich w Internecie.

2. Używanie chatbotów do wpływania na opinie ludzi

Chatboty, które opierają się na generatywnych modelach sztucznej inteligencji, mogą stosować różne taktyki, aby wpływać na opinie ludzi, w tym:

  • Manipulacja emocjonalna: sztuczna inteligencja może wykorzystywać modele inteligencji emocjonalnej do wykorzystywania wyzwalaczy i uprzedzeń emocjonalnych w celu kształtowania perspektywy.
  • Komory echa i błąd potwierdzenia: Chatboty mogą wzmacniać istniejące przekonania, tworząc komory echa, które potwierdzają Twoje uprzedzenia. Jeśli masz już określony punkt widzenia, sztuczna inteligencja może go wzmocnić, przedstawiając informacje zgodne z Twoimi opiniami.
  • Społeczny dowód słuszności i efekt modowy: Sztuczna inteligencja może manipulować nastrojami społecznymi, generując społeczny dowód słuszności. Może to mieć poważne konsekwencje, ponieważ może prowadzić jednostki do dostosowywania się do popularnych opinii lub podążania za tłumem.
  • Ukierunkowana personalizacja: Chatboty mają dostęp do ogromnych ilości danych, które mogą gromadzić w celu tworzenia spersonalizowanych profili. Dzięki temu mogą dostosowywać treści w oparciu o Twoje preferencje. Dzięki ukierunkowanej personalizacji sztuczna inteligencja może przekonywać osoby lub dodatkowo wzmacniać ich opinie.

Wszystkie te przykłady ilustrują, w jaki sposób chatboty mogą być wykorzystywane do wprowadzania ludzi w błąd.

3. Tworzenie AI DeepFakes

Ktoś może używać deepfake'ów do tworzenia fałszywych filmów, na których osoba mówi lub robi rzeczy, których nigdy nie zrobiła. Mogą używać takich narzędzi do inżynierii społecznej lub prowadzenia kampanii oszczerstw przeciwko innym. Co więcej, w dzisiejszej kulturze memów deepfake może służyć jako narzędzie do cybernękania w mediach społecznościowych.

Ponadto przeciwnicy polityczni mogą używać fałszywych plików audio i wideo, aby zszargać reputację swoich przeciwników, manipulując nastrojami publicznymi za pomocą sztucznej inteligencji. Więc Deepfake generowane przez sztuczną inteligencję stwarzają liczne zagrożenia w przyszłości. Zgodnie z 2023 r Raport Reutera, rozwój technologii sztucznej inteligencji może wpłynąć na wybory w Ameryce w 2024 roku. Raport podkreśla dostępność narzędzi, takich jak Midjourney i DALL-E, które mogą łatwo tworzyć sfabrykowane treści i wpływać na zbiorowe opinie ludzi.

Kluczowe jest zatem, aby móc identyfikować filmy utworzone przez deepfake i odróżnić je od oryginałów.

4. Klonowanie ludzkich głosów

Generatywna sztuczna inteligencja wraz z technologią deepfake umożliwia manipulowanie czyjąś mową. Technologia Deepfake szybko się rozwija i oferuje różnorodne narzędzia, które mogą odtworzyć czyjś głos. Dzięki temu złośliwe osoby mogą podszywać się pod inne osoby i oszukiwać niczego niepodejrzewające osoby. Jednym z takich przykładów jest wykorzystanie muzyki deepfake.

Być może spotkałeś się z narzędziami takimi jak Przypomina AI, Perorować, Oszukać cięi inne, które mogą naśladować głosy celebrytów. Chociaż te narzędzia audio AI mogą być zabawne, stanowią poważne ryzyko. Oszuści mogą wykorzystywać techniki klonowania głosu do różnych oszukańczych programów, co powoduje straty finansowe.

Oszuści mogą wykorzystywać głębokie fałszywe głosy, aby podszywać się pod Twoich bliskich i dzwonić do Ciebie, udając, że są w niebezpieczeństwie. Dzięki syntetycznemu dźwiękowi, który brzmi przekonująco, mogą nakłonić Cię do pilnego wysłania pieniędzy, co prowadzi do tego, że staniesz się ofiarą ich oszustwa. Zdarzenie zgłoszone przez Washington Post w marcu 2023 r. jest tego przykładem: oszuści używali fałszywych głosów, aby przekonać ludzi, że ich wnuki są w więzieniu i potrzebują pieniędzy...

Jak wykrywać dezinformację rozpowszechnianą przez sztuczną inteligencję

Zwalczanie rozprzestrzeniania się dezinformacji, które umożliwia sztuczna inteligencja, jest palącym problemem w dzisiejszym świecie. Jak więc rozpoznać fałszywe informacje, które zostały stworzone przez sztuczną inteligencję?

  1. Podchodź do treści online ze sceptycyzmem. Jeśli napotkasz coś, co wydaje się być manipulacją lub niewiarygodne, zweryfikuj to poprzez kontrolę krzyżową.
  2. Zanim zaufasz artykułowi prasowemu lub postowi w mediach społecznościowych, upewnij się, że pochodzi on z renomowanego źródła.
  3. Uważaj na oznaki deepfake, takie jak nienaturalne mruganie lub ruchy twarzy, słaba jakość dźwięku, zniekształcone lub rozmyte obrazy oraz brak autentycznych emocji w mowie.
  4. Korzystaj ze stron internetowych służących do sprawdzania faktów, aby zweryfikować poprawność informacji.

Wykonując te kroki, możesz zidentyfikować i chronić się przed błędnymi informacjami opartymi na sztucznej inteligencji.

Uważaj na dezinformację rozpowszechnianą przez sztuczną inteligencję

Oprogramowanie generatywne odegrało kluczową rolę w rozwoju sztucznej inteligencji. Mimo to mogą być również znaczącym źródłem dezinformacji w społeczeństwie. Te przystępne cenowo narzędzia umożliwiły każdemu tworzenie różnego rodzaju treści przy użyciu zaawansowanych modeli AI; ich zdolność do generowania treści w dużych ilościach i włączania deepfake czyni je jeszcze bardziej niebezpiecznymi.

Ważne jest, abyś był świadomy wyzwań związanych z dezinformacją w erze sztucznej inteligencji. Zrozumienie, w jaki sposób sztuczna inteligencja może być wykorzystywana do rozpowszechniania fałszywych wiadomości, jest pierwszym krokiem do ochrony przed dezinformacją.