Sztuczna inteligencja może brzmieć jak prezydent. Lub może brzmieć jak ty lub ja. Jakie zagrożenie dla bezpieczeństwa cybernetycznego stwarza oprogramowanie do klonowania głosu AI?

Sztuczna inteligencja (AI) to potężna technologia, która może zmienić nasze życie. Nigdy nie było to tak jasne jak dzisiaj, kiedy potężne narzędzia są dostępne dla każdego, kto ma połączenie z Internetem.

Obejmuje to generatory głosu AI, zaawansowane oprogramowanie zdolne do naśladowania ludzkiej mowy tak kompetentnie, że rozróżnienie między nimi może być niemożliwe. Co to oznacza dla cyberbezpieczeństwa?

Jak działają generatory głosu AI?

Synteza mowy, proces sztucznego wytwarzania ludzkiej mowy, istnieje od dziesięcioleci. I jak każda technologia, przeszła przez lata głębokie zmiany.

Ci, którzy korzystali z Windows 2000 i XP, mogą pamiętać Microsoft Sam, domyślny męski głos systemu operacyjnego do zamiany tekstu na mowę. Microsoft Sam wykonał zadanie, ale wydawane przez niego dźwięki były robotyczne, sztywne i nienaturalne. Narzędzia, którymi dziś dysponujemy, są znacznie bardziej zaawansowane, w dużej mierze dzięki głębokiemu uczeniu.

instagram viewer

Głębokie uczenie się to A metoda uczenia maszynowego który opiera się na sztucznych sieciach neuronowych. Dzięki tym sieciom neuronowym współczesna sztuczna inteligencja jest w stanie przetwarzać dane prawie tak, jak neurony w ludzkim mózgu interpretują informacje. Oznacza to, że im bardziej sztuczna inteligencja staje się podobna do człowieka, tym lepiej radzi sobie z naśladowaniem ludzkich zachowań.

Tak w skrócie działają nowoczesne generatory głosu AI. Im więcej danych mowy mają do czynienia, tym bardziej stają się biegli w naśladowaniu ludzkiej mowy. Ze względu na stosunkowo niedawne postępy w tej technologii najnowocześniejsze oprogramowanie do zamiany tekstu na mowę może zasadniczo replikować dźwięki, którymi jest karmione.

Jak cyberprzestępcy wykorzystują generatory głosu AI

Nic dziwnego, że ta technologia jest wykorzystywana przez cyberprzestępców. I to nie tylko przez cyberprzestępców w typowym znaczeniu tego słowa, ale także przez agentów dezinformacyjnych, oszustów, sprzedawców w czarnych kapeluszach i trolli.

W momencie, gdy ElevenLabs wypuściło wersję beta swojego oprogramowania do zamiany tekstu na mowę w styczniu 2023 r., skrajnie prawicowe trolle na forum dyskusyjnym 4chan zaczęły go nadużywać. Korzystając z zaawansowanej sztucznej inteligencji, odtworzyli głosy osób takich jak David Attenborough i Emma Watson, sprawiając wrażenie, jakby celebryci wygłaszali ohydne, nienawistne tyrady.

Jak Wice zgłoszone w tamtym czasie, ElevenLabs przyznało, że ludzie nadużywali jego oprogramowania, w szczególności klonowania głosu. Ta funkcja pozwala każdemu „sklonować” głos innej osoby; wszystko, co musisz zrobić, to przesłać jednominutowe nagranie, a sztuczna inteligencja zajmie się resztą. Przypuszczalnie im dłuższe nagranie, tym lepszy wynik.

W marcu 2023 r. uwagę przykuł wirusowy film TikTok The New York Times. W filmie słynny podcaster Joe Rogan i dr Andrew Huberman, częsty gość The Joe Rogan Experience, dyskutowali o „wzmacniającym libido” napoju kofeinowym. Film sprawiał wrażenie, jakby zarówno Rogan, jak i Huberman jednoznacznie popierali produkt. W rzeczywistości ich głosy zostały sklonowane przy użyciu sztucznej inteligencji.

Mniej więcej w tym samym czasie Bank Doliny Krzemowej z siedzibą w Santa Clara w Kalifornii upadł z powodu błędów w zarządzaniu ryzykiem i innych problemów i został przejęty przez rząd stanowy. Była to największa upadłość banku w Stanach Zjednoczonych od czasu kryzysu finansowego w 2008 roku, więc wywołała falę wstrząsów na światowych rynkach.

Do paniki przyczyniło się fałszywe nagranie dźwiękowe prezydenta USA Joe Bidena. Na nagraniu najwyraźniej słyszano, jak Biden ostrzegał przed zbliżającym się „załamaniem” i nakazał swojej administracji „użyć całej siły mediów, aby uspokoić opinię publiczną”. Sprawdzający fakty lubią PolitiFact szybko obalili klip, ale prawdopodobnie miliony już go słyszały.

Jeśli generatory głosu AI mogą być używane do podszywania się pod celebrytów, mogą być również używane do podszywania się pod zwykłych ludzi, i właśnie to robią cyberprzestępcy. Według ZDNet, tysiące Amerykanów daje się nabrać na oszustwa znane jako vishing lub phishing głosowy każdego roku. Pewna starsza para trafiła na pierwsze strony gazet w całym kraju w 2023 r., kiedy odebrała telefon od swojego „wnuka”, który twierdził, że przebywa w więzieniu i prosił o pieniądze.

Jeśli kiedykolwiek przesłałeś film do YouTube (lub wystąpiłeś w jednym z nich), brałeś udział w dużej rozmowie grupowej z osobami, których nie znasz wiesz lub przesłałeś swój głos do internetu w jakiś sposób, ty lub twoi bliscy moglibyście teoretycznie znaleźć się w niebezpieczeństwie. Co mogłoby powstrzymać oszusta przed przesłaniem Twojego głosu do generatora sztucznej inteligencji, sklonowaniem go i skontaktowaniem się z Twoją rodziną?

Generatory głosu AI zakłócają krajobraz cyberbezpieczeństwa

Nie trzeba być ekspertem ds. cyberbezpieczeństwa, aby dostrzec, jak niebezpieczna może być sztuczna inteligencja w niepowołanych rękach. I chociaż prawdą jest, że to samo można powiedzieć o wszystkich technologiach, sztuczna inteligencja jest wyjątkowym zagrożeniem z kilku powodów.

Po pierwsze, jest stosunkowo nowy, co oznacza, że ​​tak naprawdę nie wiemy, czego się po nim spodziewać. Nowoczesne narzędzia sztucznej inteligencji pozwalają cyberprzestępcom skalować i automatyzować swoje działania w niespotykany dotąd sposób, wykorzystując jednocześnie względną ignorancję opinii publicznej w tej kwestii. Ponadto generatywna sztuczna inteligencja umożliwia cyberprzestępcom o niewielkiej wiedzy i umiejętnościach tworzyć złośliwy kod, budować oszukańcze witryny, rozpowszechniać spam, pisać e-maile phishingowe, generować realistyczne obrazyi produkują niekończące się godziny fałszywych treści audio i wideo.

Co najważniejsze, działa to w obie strony: sztuczna inteligencja jest również wykorzystywana do ochrony systemów i prawdopodobnie będzie tak przez dziesięciolecia. Nie byłoby nierozsądne założenie, że czeka nas swego rodzaju wyścig zbrojeń AI między cyberprzestępcami oraz branży cyberbezpieczeństwa, ponieważ zdolności obronne i ofensywne tych narzędzi są z natury rzeczy równy.

Dla przeciętnego człowieka pojawienie się szeroko rozpowszechnionej generatywnej sztucznej inteligencji wymaga radykału ponowne przemyślenie praktyk bezpieczeństwa. Jakkolwiek ekscytująca i użyteczna może być sztuczna inteligencja, może przynajmniej zatrzeć granicę między tym, co jest prawdziwe, a tym, co jest nie jest, aw najgorszym przypadku zaostrza istniejące problemy z bezpieczeństwem i tworzy nowe pole manewru dla cyberprzestępców W.

Generatory głosu pokazują niszczycielski potencjał sztucznej inteligencji

Gdy tylko ChatGPT trafił na rynek, rozgorzały rozmowy na temat regulacji sztucznej inteligencji. Jakakolwiek próba ograniczenia tej technologii prawdopodobnie wymagałaby współpracy międzynarodowej w stopniu, jakiego nie widzieliśmy od dziesięcioleci, co sprawia, że ​​jest to mało prawdopodobne.

Dżin wyszedł z butelki i najlepsze, co możemy zrobić, to się do niego przyzwyczaić. To i mam nadzieję, że sektor cyberbezpieczeństwa odpowiednio się dostosuje.