Sztuczna inteligencja (AI) może zmienić samą naturę naszego społeczeństwa. A jeśli narzędzia sztucznej inteligencji, którymi obecnie dysponujemy, są jakąkolwiek wskazówką tego, co ma nadejść, mamy na co czekać.
Mamy też na co uważać. Mianowicie uzbrojenie sztucznej inteligencji przez cyberprzestępców i inne podmioty stwarzające zagrożenie. Nie jest to problem teoretyczny i nawet generatory obrazów AI nie są odporne na nadużycia.
Czym są generatory obrazów AI? Jak oni pracują?
Jeśli kiedykolwiek korzystałeś z generatora obrazów AI, masz całkiem niezłe pojęcie, o co w tym wszystkim chodzi. Nawet jeśli nigdy go nie używałeś, najprawdopodobniej natknąłeś się na obrazy generowane przez sztuczną inteligencję w mediach społecznościowych i innych miejscach. Popularne dziś oprogramowanie działa na bardzo prostej zasadzie: użytkownik wpisuje tekst, a sztuczna inteligencja generuje obraz na podstawie tego tekstu.
To, co dzieje się pod maską, jest o wiele bardziej złożone. Sztuczna inteligencja stała się znacznie lepsza w ostatnich latach i większość generatory tekstu na obraz obecnie są tak zwane modele dyfuzyjne. Oznacza to, że są „szkoleni” przez długi czas na ogromnej liczbie tekstów i obrazów, co sprawia, że ich kreacje są tak imponujące i oszałamiająco realistyczne.
Tym, co czyni te narzędzia sztucznej inteligencji jeszcze bardziej imponującymi, jest fakt, że nie tylko modyfikują istniejące obrazy lub łączą tysiące obrazów w jeden, ale także tworzą nowe, oryginalne obrazy od podstaw. Im więcej osób korzysta z tych generatorów zamiany tekstu na obraz, tym więcej informacji otrzymują i tym lepsze stają się ich dzieła.
Niektóre z najbardziej znanych Generatory obrazów AI to Dream firmy WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor i Craiyon. Nowe pojawiają się na lewo i prawo, a giganci technologiczni – w tym Google – wypuszczają własne, więc możemy tylko spekulować, co przyniesie przyszłość.
4 sposoby, na jakie aktorzy zagrożeń wykorzystują generatory obrazów AI
Podobnie jak prawie wszystkie technologie, generatory obrazów AI mogą być wykorzystywane przez wrogich aktorów. W rzeczywistości są one już wykorzystywane do wszelkiego rodzaju niegodziwych celów. Ale jakiego dokładnie rodzaju oszustwa i cyberataki może dokonać przestępca za pomocą generatorów obrazów AI?
1. Inżynieria społeczna
Jedną z oczywistych rzeczy, które cyberprzestępcy mogą zrobić za pomocą generatorów obrazów AI, jest to, że angażować się w inżynierię społeczną; na przykład tworzyć fałszywe profile w mediach społecznościowych. Niektóre z tych programów mogą tworzyć niezwykle realistyczne obrazy, które wyglądają jak prawdziwe zdjęcia prawdziwych ludzi, a oszust może wykorzystać te fałszywe profile w mediach społecznościowych do łowienia sumów.
W przeciwieństwie do zdjęć prawdziwych ludzi, zdjęć wygenerowanych przez sztuczną inteligencję nie można wykryć za pomocą wyszukiwania wstecznego, a cyberprzestępca nie musi współpracować z ograniczoną liczbę zdjęć, aby oszukać swój cel — korzystając ze sztucznej inteligencji, mogą wygenerować tyle zdjęć, ile chcą, budując z nich przekonującą tożsamość online zadrapanie.
Istnieją jednak przykłady z życia wziętych cyberprzestępców wykorzystujących generatory obrazów AI do oszukiwania ludzi. w kwietniu 2022 r. TechTalks bloger Ben Dickinson otrzymał wiadomość e-mail od firmy prawniczej, w której twierdził, że wykorzystał zdjęcie bez pozwolenia. Prawnicy wysłali e-mailem zawiadomienie o naruszeniu praw autorskich DMCA, informując Dickinsona, że musi połączyć się z ich klientem lub usunąć obraz.
Dickinson przeszukał firmę prawniczą i znalazł oficjalną stronę internetową. Wszystko wydawało się całkowicie uzasadnione; strona zawierała nawet zdjęcia 18 prawników wraz z ich biografiami i referencjami. Ale nic z tego nie było prawdziwe. Wszystkie zdjęcia zostały wygenerowane przez sztuczną inteligencję, a rzekome powiadomienia o naruszeniu praw autorskich zostały wysłane przez kogoś, kto chce wyłudzić linki zwrotne od niczego niepodejrzewających blogerów, w ramach nieetycznej, czarnej kapelusz SEO (optymalizacja wyszukiwarek) strategia.
2. Oszustwa charytatywne
Kiedy niszczycielskie trzęsienia ziemi nawiedziły Turcję i Syrię w lutym 2023 r., miliony ludzi na całym świecie wyraziły solidarność z ofiarami, przekazując ubrania, żywność i pieniądze.
Według relacji z BBC, wykorzystali to oszuści, wykorzystując sztuczną inteligencję do tworzenia realistycznych obrazów i pozyskiwania datków. Jeden oszust pokazał wygenerowane przez sztuczną inteligencję obrazy ruin na TikTok Live, prosząc widzów o datki. Inny opublikował wygenerowany przez sztuczną inteligencję obraz greckiego strażaka ratującego ranne dziecko z ruin i poprosił swoich zwolenników o datki w bitcoinach.
Można sobie tylko wyobrazić, jakiego rodzaju oszustwa charytatywne będą przeprowadzać przestępcy z pomocą sztucznej inteligencji w przyszłości, ale można bezpiecznie założyć, że będą coraz lepsi w nadużywaniu tego oprogramowania.
3. Deepfake i dezinformacja
Rządy, grupy aktywistów i think tanki od dawna ostrzegają przed tym zjawiskiem zagrożenia związane z deepfake'ami. Generatory obrazów AI dodają kolejny element do tego problemu, biorąc pod uwagę, jak realistyczne są ich kreacje. W rzeczywistości w Wielkiej Brytanii jest nawet program komediowy o nazwie Deep Fake Neighbor Wars, który znajduje humor w nieprawdopodobnych parach celebrytów. Co powstrzyma agenta dezinformacji przed stworzeniem fałszywego wizerunku i wypromowaniem go w mediach społecznościowych przy pomocy botów?
Może to mieć realne konsekwencje, tak jak prawie miało to miejsce w marcu 2022 r., kiedy w Internecie krążyło fałszywe wideo przedstawiające prezydenta Ukrainy Wołodymyra Zełenskiego namawiającego Ukraińców do poddania się. NPR. Ale to tylko jeden przykład, ponieważ możliwości są prawie nieograniczone i istnieje niezliczona ilość sposobów cyberprzestępca może zaszkodzić czyjejś reputacji, promować fałszywą narrację lub rozpowszechniać fałszywe wiadomości z pomocą AI.
4. Oszustwo reklamowe
TrendMicro badacze odkryli w 2022 r., że oszuści wykorzystywali treści generowane przez sztuczną inteligencję do tworzenia wprowadzających w błąd reklam i promowania podejrzanych produktów. Stworzyli obrazy, które sugerowały, że popularne gwiazdy używają określonych produktów, i prowadzili kampanie reklamowe oparte na tych obrazach.
Na przykład jedna reklama „możliwości doradztwa finansowego” przedstawiała miliardera Elona Muska, założyciela i dyrektora generalnego Tesli. Oczywiście Musk nigdy nie popierał omawianego produktu, ale materiał wygenerowany przez sztuczną inteligencję sprawiał, że tak to wyglądało, prawdopodobnie zwabiając niczego niepodejrzewających widzów do klikania reklam.
Sztuczna inteligencja i cyberbezpieczeństwo: złożony problem, z którym musimy się uporać
Idąc dalej, rządowe organy regulacyjne i eksperci ds. cyberbezpieczeństwa prawdopodobnie będą musieli współpracować, aby zająć się pojawiającym się zagrożeniem cyberprzestępczością napędzaną przez sztuczną inteligencję. Ale jak możemy regulować sztuczną inteligencję i chronić zwykłych ludzi bez tłumienia innowacji i ograniczania swobód cyfrowych? To pytanie będzie się pojawiać przez wiele lat.
Dopóki nie ma odpowiedzi, rób, co możesz, aby się chronić: uważnie sprawdzaj wszelkie informacje, które widzisz w Internecie, unikaj podejrzanych stron internetowych, korzystaj z bezpiecznego oprogramowania, aktualizuj swoje urządzenia i naucz się wykorzystywać sztuczną inteligencję do swoich celów korzyść.