6 czerwca 2022 Chris Umé i Thomas Graham, założyciele Metaphysic, dołączyli do amerykańskiej sceny Got Talent z Danielem Emmetem. Korzystając z technologii opracowanej przez Metaphysic, Daniel Emmet wykonał „Jesteś inspiracją”, używając na scenie podobizny sędziego AGT Simona Cowella.
Ten występ oszołomił sędziów i uchwycił tłum, co zaowocowało czterema tak. Grupa przechodzi do następnej rundy AGT — ale co oznacza wykorzystanie technologii deepfake dla przyszłości rozrywki?
Co się stało na scenie AGT?
Głównymi uczestnikami pokazu byli Chris i Thomas. Kiedy się przedstawili, powiedzieli:
„Wykorzystujemy sztuczną inteligencję do tworzenia hiperrealistycznych treści”.
Następnie wprowadzili na scenę Daniela Emmeta. Kiedy Simon zapytał, jak dostał się do duetu, powiedział:
„Jestem fanami tego, co robią online, a oni są fanami AGT. A kiedy poprosili mnie, żebym był częścią tej wspaniałej, wyjątkowej, oryginalnej rzeczy, którą zamierzają zrobić, nie mogłam odmówić.
Tak więc, z całą tajemnicą otaczającą trio, Cowell życzył im powodzenia i zaczęli show.
Gdy Emmet przygotowywał się do śpiewania, na scenę weszła kamera, aby nagrać go z profilu, blokując publiczność (i widok sędziego). Kiedy zaczęła się muzyka, obraz z kamery pojawił się na żywo na ekranie sceny, gdzie zobaczyliśmy hiperrealistyczny awatar Simona nałożony na Davida i śpiewający na żywo na scenie.
Tłum oszalał, gdy to zobaczyli, ale Simon był początkowo zdezorientowany. W miarę trwania występu Cowell przeszedł od zdezorientowanego do zawstydzonego, aż do rozbawionego. Ostatecznie on (i reszta publiczności) nagrodzili występ owacją na stojąco, a grupa otrzymała „tak” od wszystkich czterech sędziów.
Jak Deepfake wpływają na rozrywkę
Chociaż dla większości ludzi deepfake może wydawać się nowością, tak nie jest, szczególnie w Hollywood. To prawda, że jest to prawdopodobnie pierwszy raz, kiedy technologia deepfake pojawiła się na żywo, ale filmy korzystają z tej technologii od lat.
Jednym z popularnych przykładów jest film Furious 7 z 2015 roku, w którym jeden z bohaterów, Paul Walker, zginął w wypadku samochodowym w połowie kręcenia filmu. Zamiast zabić jego postać w filmie, producenci postanowili sfilmować go, używając swoich braci jako zastępców, a następnie używając CGI, aby nałożyć na nich twarz Paula.
Ta technika pojawiła się również w Łotr 1. Gwiezdne wojny – historia w 2016 roku i została zastosowana do Wielkiego Moffa Tarkina i Księżniczki Leii. Niestety aktor, który grał tę postać, Peter Cushing, zmarł w 1994 roku. I podczas gdy Carrie Fisher wciąż żyła podczas kręcenia, jej wygląd znacznie się zmienił od 1977 roku.
W tym filmie produkcja wykorzystała stand-iny i technologię podobną do deepfake, aby cyfrowo odtworzyć oryginalne postacie.
I chociaż możesz pomyśleć, że jest to niedawny rozwój, możesz być zaskoczony tym, że Gladiator z 2000 roku również używał podobnej technologii. Kiedy jeden z głównych aktorów drugoplanowych, Oliver Reed, nagle zmarł podczas kręcenia filmu, produkcja zdecydowała się odtworzyć go cyfrowo, używając dublera do rzeczywistej sesji.
Jednak ta technologia wykracza poza wskrzeszanie i odwracanie wieku celebrytów. Użyli go nawet w Captain America: The First Avenger, aby zamienić potężne ciało Chrisa Evana na mniejszą ramę Leandera Deeny'ego. Chociaż używali również różnych innych technik, aby zrobić jego mały wygląd przed eksperymentem Howarda Starka, technologia deepfake była jednym z ich narzędzi.
Jak Deepfakes może zrewolucjonizować branżę rozrywkową?
Jedną wspólną cechą wszystkich powyższych przykładów jest to, że musieli wydać miesiące i miliony dolarów, aby uzyskać efekt, jaki chcieli osiągnąć. Jednak na scenie AGT Metaphysic pokazali, że mogą odtworzyć w czasie rzeczywistym inną gwiazdę w wysokiej jakości.
Chociaż ich wyniki na scenie AGT nie są w 100% realistyczne, są wystarczająco bliskie rzeczywistości, jeśli nie przyjrzysz się uważnie. I jedną wielką rzeczą jest to, że robią to w czasie rzeczywistym. Wraz z rozwojem technologii wkrótce znajdziemy aplikację deepfake działającą w czasie rzeczywistym, która może natychmiast stworzyć realistyczny film.
Rozwój może zmniejszyć zależność studiów od zaawansowanych narzędzi śledzących i rozległego przetwarzania końcowego, dodatkowo usprawniając ich przepływ pracy w postprodukcji. I kiedy tworzenie bezproblemowych filmów deepfake nie jest tak łatwe, jak się wydaje, nie musisz już być wielomilionową firmą produkcyjną, aby sobie na to pozwolić.
Wprowadzenie tej technologii do głównego nurtu pozwoliłoby mniejszym studiom, a nawet niezależnym filmowcom pozwolić sobie na korzystanie z niej w swoich kreacjach. W rzeczywistości każdy, kto ma smartfon, może: wypróbuj tę technologię za pomocą aplikacji do zamiany twarzy, choć nie są tak dobre, jak na scenie AGT.
Przyszłość Deepfakes w filmach i telewizji
Ponieważ technologia deepfake ewoluuje, możemy wkrótce znaleźć czas, w którym studia będą mogły z łatwością wykorzystać podobizny celebrytów z przeszłości, aby ożywić swoje najnowsze filmy. Pomogłoby to zachować ciągłość, zwłaszcza że produkcje (i widzowie) wolą długo działające franczyzy, w których mają problemy ze starzejącymi się, a nawet umierającymi celebrytami.
Jednak rozwój ten ma również inny aspekt — można go wykorzystać do odtworzenia podobizny osoby bez jej zgody. Co więcej, ten sam film może zostać wykorzystany do zasiania strachu, napięcia i zamieszania wśród ludzi, zwłaszcza jeśli pochodzi od osoby politycznej, a deepfake nie jest rozpoznawalny jako taki.
Chociaż jesteśmy zadowoleni z tej technologii w rozrywce, powinniśmy również uważać, aby była używana w sposób etyczny i nigdy nie siała chaosu.