Pośród chaosu spowodowanego przez deepfake obrazy musimy teraz stawić czoła również zagrożeniom związanym z muzyką deepfake.

Nowe piosenki znanych artystów stają się wirusowe w mediach społecznościowych, co zwykle nie stanowi problemu, z wyjątkiem sytuacji, gdy śpiewa klon głosu. Chociaż było to jedno z ostatnich mediów, które się utrzymało, muzyka deepfake jest teraz rzeczywistością.

Działa poprzez szkolenie modelu AI na głosie piosenkarza, a wyniki nie zawsze są złe. W tworzeniu deepfake'owych piosenek jest dużo prawdziwej kreatywności, ale problem nie dotyczy tylko wyników. W wielu przypadkach pozwolenie nie jest udzielane, a pytania o to, kto otrzymuje wynagrodzenie i czy jest to etyczne, to tylko niektóre z problemów muzyki deepfake.

1. Nieautoryzowane zbiory danych

Jeśli chcesz stworzyć deepfake utworu znanego artysty, musisz zebrać pliki audio z jego śpiewającym głosem w zbiorze danych. Podobnie jak w przypadku jakichkolwiek danych, które należą do kogoś, prawdopodobnie powinieneś uzyskać ich zgodę na ich użycie, ale jest to deepfake piosenka może trafić na dużą platformę muzyczną, taką jak YouTube, Spotify lub TikTok, używając nieautoryzowanego zestaw danych.

instagram viewer

Stało się tak z artystami Drake'em i The Weeknd, kiedy użytkownik o imieniu Ghostwriter stworzył „Heart on My Sleeve”. Hit zawierał syntetyzowane przez sztuczną inteligencję głosy artystów, wraz z tekstem o byłej dziewczynie The Weeknd.

Piosenka naprawdę spodobała się fanom, a Ghostwriterowi należą się dodatkowe pochwały za kreatywne wykorzystanie głębokiego wokalu, ale jako — poinformował „Seattle Times”., nie wszyscy widzieli to w ten sposób. Rzecznik Universal Music Group, głównej wytwórni stojącej za obydwoma artystami, pyta:

„Po której stronie historii chcą być interesariusze ekosystemu muzycznego: po stronie artystów, fanów i innych ludzkiej ekspresji twórczej, czy po stronie deep fake'ów, oszustw i odmawiania artystom należnego im odszkodowania?"

2. Przestarzałe prawo autorskie

Jeśli jesteś artystą, który nie chce, aby Twój głos został sklonowany, prawo autorskie może jeszcze nie być w stanie Ci pomóc. Ponieważ nasze prawa autorskie zostały opracowane w czasie, gdy ten rodzaj technologii sztucznej inteligencji nie istniał, nic dziwnego, że przepisy wciąż próbują nadrobić zaległości.

Najbliższy przypadek prawny „kradzieży głosu” w Stanach Zjednoczonych sięga lat 90. Jak donosi Los Angeles Times, piosenkarz Tom Waits wygrał 2,475 miliona dolarów odszkodowania od Frito-Lay Inc., potężnego giganta chipowego stojącego za Doritos, Cheetos, Cracker Jack's i innymi.

W reklamie użyto głosu kogoś, kto brzmiał wystarczająco blisko Toma Waitsa, aby ludzie mogli uwierzyć, że za kampanią reklamową stoi prawdziwy artysta. To samo można powiedzieć o piosenkach deepfake, które są obecnie w obiegu, ale muzyka AI nie została jeszcze przetestowana w walce prawnej.

W oczekiwaniu na aktualizację systemu prawnego warto zauważyć, że nie każdy ma problem z klonowaniem głosu, weź Holly Herndon, Na przykład. W obliczu nadchodzącej fali aplikacji muzycznych AI zdecydowała się autoryzować swojego wokalnego bliźniaka o nazwie Holly + wraz z systemem, który zapewniał jej godziwe wynagrodzenie.

Niezależnie od tego, którą stronę obierzesz, problem pozostaje ten sam. Nie ma konkretnego prawa autorskiego, które mówi, że musisz uzyskać pozwolenie od artysty, zanim użyjesz jego głosu. Do tego czasu artyści mogą znaleźć się na dzikim zachodzie technologii sztucznej inteligencji, gdzie nie ma żadnych praw, które by nimi kierowały.

3. Kto otrzymuje zapłatę?

Czy zarabianie na muzyce za pomocą czyjegoś głosu jest w porządku? To drażliwa kwestia, która może stać się większym problemem, ponieważ coraz więcej deepfake'owej muzyki jest publikowanych na platformach streamingowych i zarabianych na platformach społecznościowych.

Jak wszyscy wiemy, można zaśpiewać cover słynnej piosenki i opublikować go na YouTube lub Spotify, a w takim przypadku takie rzeczy jak tekst, struktura utworu, melodia, rytm itp. są kopiowane. Ale klony wokalne są zupełnie inne, a muzyka deepfake nie polega dokładnie na riffowaniu istniejącej piosenki, ale na tworzeniu zupełnie nowej piosenki przy użyciu czyjegoś głosu.

Innymi słowy, klony głosu nie istniałyby, gdyby nie narzędzia sztucznej inteligencji i nieautoryzowane zbiory danych. Artyści spędzają całe życie na doskonaleniu głosu, z którym się urodzili, i tworzeniu niepowtarzalnego brzmienia. Kradzież czyjegoś głosu i zarabianie na nim pieniędzy może być krokiem za daleko.

4. Gatunek szarej strefy

Aby skomplikować sprawę, niektórzy ludzie mogą nie postrzegać muzyki deepfake jako całkowicie złej. W przeciwieństwie do zdjęć lub filmów typu deepfake, z których można się śmiać przez chwilę przed przewinięciem w telefonie, muzyka deepfake rozwija się w kierunku własnego gatunku.

Niektórzy porównują to do idei pisania fanfiction, zabawnego i kreatywnego sposobu na oddanie hołdu artyście. To bardziej pozytywne spojrzenie, które sprawia, że ​​trudno jest wykluczyć muzykę deepfake jako po prostu tabu. Wystarczy spojrzeć na podejście Holly Herndon do klonowania głosu AI w poniższym filmie.

Chociaż nie wszyscy zgadzają się, że ten rodzaj muzyki powinien być dozwolony. Jak Financial Times pisze, główna wytwórnia płytowa Universal Music Group, dążyła do usunięcia utworów o niższej jakości z platform streamingowych, w tym tworzonych przez sztuczną inteligencję. W końcu platformy streamingowe, takie jak Spotify, Apple Music czy Tidal, będą musiały podjąć decyzję, czy ten gatunek muzyki jest dozwolony na ich platformie.

Muzyka Deepfake rozpala podobne debaty, które już toczą się w świecie sztuki: czy sztukę generowaną przez sztuczną inteligencję należy uznać za sztukę? Tylko teraz kwestionujemy muzykę AI.

5. Etyczne obawy dotyczące rasy i tożsamości

Era muzyki deepfake rozpoczęła się od wielu utworów naśladujących rap. Ponieważ historyczne korzenie tego gatunku sięgają afroamerykańskiej młodzieży dorastającej na Bronksie w Nowym Jorku na początku lat 70., niektórzy ludzie są zaniepokojeni rasą i tożsamością w muzyce AI.

Pisarz Lauren Chanel, to jedna osoba, która uważa muzykę deepfake za poważny problem. Jak zacytowano w an artykuł z New York Timesa, wyjaśniają:

„To kolejny sposób, w jaki ludzie, którzy nie są czarnymi, mogą założyć kostium czarnej osoby – podnieść ręce do Kanye lub Drake’a i zrobić z niego marionetkę – i to jest dla mnie niepokojące”. „To tylko kolejny przykład z długiej listy ludzi, którzy nie doceniają tego, czego potrzeba, aby stworzyć sztukę, którą historycznie Czarni ludzie robić."

To nie pierwszy raz, kiedy muzyka tworzona za pomocą narzędzi sztucznej inteligencji nie jest etyczna. Jak poinformował magazyn Rolling Stone, wirtualny awatar raper o imieniu FN Meka podpisał kontrakt z wytwórnią, po czym szybko porzucił, gdy był online grupa praw Industry Blackout napisała, że ​​​​projekt utrwalił „obrzydliwe stereotypy” na temat Back kultura.

Jeśli już, muzyka deepfake przypomina nam, że narzędzi sztucznej inteligencji nie można oddzielić od historii tworzenia muzyki, a ignorowanie tego dodaje niebezpieczeństwa związane z deepfake AI.

6. Wyrządzanie krzywdy artystom

Jedną rzeczą, której nie należy przeoczyć, jest emocjonalny wpływ, jaki deepfake może mieć na artystę, zwłaszcza gdy klon głosu mogą śpiewać o sytuacjach, które nigdy się nie wydarzyły, wyrażać emocje, które nie są ich własnymi, i udawać, że troszczą się o rzeczy, których mogą nie mieć.

W przypadku fałszywej piosenki Drake'a ft. The Weeknd, teksty zawierały wersety o Selenie Gomez, która spotykała się z The Weeknd. Wykorzystując mieszankę prawdziwych faktów i wymyślonych tekstów, było to dziwne zniekształcenie rzeczywistości, które mogło być szkodliwe dla artysty, który przeżył prawdziwe doświadczenie.

Podobnie, tworzenie tekstów generowanych przez AI „w stylu” kogoś sławnego używającego generatorów tekstu AI doprowadził niektórych artystów do rozpaczy z powodu wykorzystania technologii AI. Jak to ujął Nick Cave, „W tym przypadku ChatGPT to replikacja jako parodia”.

Muzyka Deepfake jest w stanie włożyć w usta artysty słowa, których nigdy nie wypowiedział, ani w tym przypadku nie zaśpiewał. Na poziomie osobistym może to być szkodliwe dla artysty, który ma niewielką kontrolę nad usuwaniem treści bez wnoszenia bitwy do sądu.

Przygotowanie do zmian w przemyśle muzycznym

Dzięki rosnącemu dostępowi do narzędzi AI, muzyka wkroczyła do świata deepfake’ów, w szczególności poprzez klony głosowe. Odróżnienie głosu sztucznej inteligencji od głosu ludzkiego po prostu przez słuchanie jest niezwykle trudne, co ułatwia dotarcie do platform streamingowych przed usunięciem utworu deepfake.

Z jednej strony fani mogą cieszyć się deepfake'ową muzyką i może pojawić się ważny gatunek, który wykorzystuje znane głosy do tworzenia nowej i interesującej muzyki. Ale nie każdy artysta zgadza się na klonowanie swojego głosu i nie ma przepisów, które powstrzymywałyby ludzi przed tworzeniem nieautoryzowanych zbiorów danych.

Uzyskanie zgody, wynagradzanie artystów i rozpatrywanie kwestii etycznych to tylko niektóre problemy, przed którymi stoją artyści i przemysł muzyczny. Wraz z szybkim rozwojem technologii sztucznej inteligencji warto zatrzymać się, aby zastanowić się nad problemami, które stworzyły.