Czy autentyczna sztuka naprawdę może być chroniona przed sztuczną inteligencją? Kreacje wydają się coraz bardziej bezsilne.
Generatywne narzędzia sztucznej inteligencji, takie jak Midjourney i Stable Diffusion, generują coraz bardziej przekonujące efekty wizualne. Jednak do generowania treści polegają na ogromnych bazach danych prac twórców. W tym momencie możesz się zastanawiać, czy istnieje sposób ochrony pracy przed narzędziami sztucznej inteligencji, a odpowiedź brzmi: to skomplikowane.
Narzędzia generatywnej sztucznej inteligencji wykorzystują modele uczenia maszynowego, które są szkolone do wykonywania działań przy użyciu dużych zbiorów danych. Załóżmy, że mówimy o generatorze obrazów AI, takim jak Midjourney. W tym przypadku zestawy danych używane do szkolenia obejmują miliardy par obrazów i tekstów — od dzieł legendarnych artystów, takich jak Picasso, po twórców profesjonalnych i amatorskich.
Generatory grafiki AI wykorzystują te pary mediów i tekstu do generowania treści wizualnych w odpowiedzi na monity tekstowe użytkownika. Zasadniczo wykorzystują prace istniejących artystów i dopasowują wzorce do par tekstu (posty w mediach społecznościowych, podpisy, tekst alternatywny itp.), aby użytkownicy mogli generować nowe wizualizacje z podpowiedzi typu „gwiaździste nocne niebo w stylu Vincenta van Gogha” czy „scena neo-noir z detektywem pijącym whisky w latach 50. Śródmieście LA".
Dlaczego tak wielu artystów jest zdenerwowanych?
Największą skargą twórców jest to, że generatywne narzędzia sztucznej inteligencji wykorzystują ich pracę bez pozwolenia. Nie wykorzystują też po prostu swojej pracy do trenowania algorytmów.
Marketingowe rozmowy na temat generatywnej sztucznej inteligencji sugerują, że te narzędzia tworzą unikalne treści, ale tak nie jest. To, co naprawdę robią, to łączenie danych z wielu dzieł sztuki i łączenie ich razem, aby wygenerować coś, co odpowiada monitowi użytkownika.
Sam termin generowanie sztucznej inteligencji jest mylący. Replikacja AI byłaby dokładniejsza, a sztuczka z tymi narzędziami polega na tym, że replikują duże ilości dzieł sztuki i łączą je ze sobą.
Narzędzia generatywnej sztucznej inteligencji zostały zaprojektowane w celu zastąpienia kreacji — i robią to za pomocą ich grafiki. I jakby tego było mało, większość narzędzi AI robi to wszystko bez pytania o pozwolenie, oferowania jakiejkolwiek rekompensaty, a nawet uznania oryginalnych twórców.
Niestety, jedynym sposobem na uniemożliwienie narzędziom sztucznej inteligencji dostępu do Twoich treści jest nie publikowanie niczego online. Może to brzmieć ekstremalnie, ale taka jest rzeczywistość. Jasne, możesz użyć pliku robots.txt w swojej witrynie zablokuj narzędzia AI przed skrobaniem Twojej witryny, Lub chroń swoje obrazy przed sztuczną inteligencją poprzez rezygnację z zestawów danych szkoleniowych, ale te metody mają kilka ograniczeń.
Po pierwsze, polecenia w pliku robots.txt mają charakter informacyjny, co oznacza, że witryny nie są prawnie zobowiązane do ich przestrzegania. Po drugie, musiałbyś zablokować firmie takiej jak Google indeksowanie Twojej witryny, co jest w zasadzie samobójstwem SEO. I wreszcie, plik robots.txt daje ci tylko (ograniczoną) kontrolę nad dostępem do twojej witryny, nie chroni treści, które publikujesz gdzie indziej: w mediach społecznościowych, usługach w chmurze i tak dalej.
Niestety dla twórców, krajobraz będzie się pogarszał, zanim się poprawi.
Polityka prywatności Google może oznaczać, że wykorzystuje całą zawartość online do trenowania swoich algorytmów sztucznej inteligencji
W lipcu 2023 r. Google zaktualizował swoją politykę prywatności, mówiąc, że będzie wykorzystywać treści online do szkolenia swoich systemów AI, w tym Brada, Tłumacza Google i innych. Google używa sformułowania „publicznie dostępne źródła”. Oto cytat, który wywołał alarm po aktualizacji:
„Na przykład możemy zbierać informacje, które są publicznie dostępne online lub z innych publicznych źródeł, aby pomóc szkolić modele sztucznej inteligencji Google oraz tworzyć produkty i funkcje, takie jak Tłumacz Google, Bard i możliwości sztucznej inteligencji w chmurze”. – Polityka prywatności Google
Innymi słowy, Google mówi teraz, że wszystko, co publikujesz online, jest do zdobycia. Przynajmniej Google ułatwia porównywanie aktualizacji swojej polityki prywatności, podkreślając najnowsze zmiany:
Jak widać, zmiany w brzmieniu są dość subtelne, ale implikacje są znaczące. Wcześniej głównymi funkcjami modeli językowych Google było interpretowanie zapytań i tłumaczenie tekstu na inne języki.
Teraz firma twierdzi, że może wykorzystywać wszystkie publicznie dostępne źródła do trenowania pełnego zestawu modeli AI. Obejmuje to generatywny system sztucznej inteligencji, Bard, i wykracza poza modele językowe, obejmując wszystkie narzędzia/funkcje sztucznej inteligencji Google — najbardziej oczywistym przykładem jest generowanie obrazów.
Sieci społecznościowe mogą wykorzystywać dowolne treści, które publikujesz na ich platformach
Meta ma również nieograniczony dostęp do wszystkiego, co jest publikowane na Facebooku, Instagramie i Threads. Jest to standardowa praktyka dla platform społecznościowych, jeśli czytasz OWU. Gdy tylko prześlesz coś do sieci społecznościowej, mają oni prawo do używania i ponownego wykorzystywania tego w dowolny sposób.
Mnóstwo użytkowników społecznościowych znalazło firmy wykorzystujące ich zdjęcia w reklamach bez pozwolenia, w tym kreacji. Niestety, jeśli ta firma jest siecią społecznościową, do której przesłałeś obraz, firmą macierzystą sieci lub inną marką należącą do tej samej firmy macierzystej, nie masz szczęścia.
Dla większości ludzi szanse na to, że platforma taka jak Instagram wykorzysta jedno z ich zdjęć do kampanii reklamowej, są bardzo niskie. Jednak Meta prawie na pewno wykorzystuje Twoje obrazy, filmy i posty do trenowania swoich algorytmów sztucznej inteligencji.
Usługi takie jak Adobe mogą uzyskiwać dostęp do Twojej pracy i wykorzystywać ją do trenowania swoich algorytmów
W styczniu 2023 r. Adobe przyłapało się na aktualizacji swoich warunków. Język wydawał się sugerować, że Adobe może wykorzystywać obrazy przesyłane do swoich usług w chmurze przez fotografów do trenowania swoich algorytmów sztucznej inteligencji.
Konkretne sformułowanie brzmiało następująco:
„Adobe może analizować Twoje treści przy użyciu technik takich jak uczenie maszynowe (np. w celu rozpoznawania wzorców) w celu opracowywania i ulepszania naszych produktów i usług”.
Co gorsza, firma Adobe automatycznie włączała użytkowników do tego systemu analizy treści, co oznaczało, że musieli go ręcznie wyłączyć w ustawieniach konta. Zrozumiałe, że kreacje nie zareagowały zbyt życzliwie, a Adobe podsyciło płomienie, początkowo nie reagując na krytykę.
Kilka tygodni później firma Adobe stwierdziła, że żadne dane klientów nie są wykorzystywane do szkolenia jej generatywnych narzędzi sztucznej inteligencji. Firma nazwała ten incydent dzwonkiem alarmowym i obiecała wyjaśnić wszelkie nieporozumienia, doprecyzowując treść swojej polityki.
Tak czy inaczej, pozostaje faktem, że jeśli Adobe chce wykorzystywać dane klientów do szkolenia swoich systemów sztucznej inteligencji, nikt nie może nic na to poradzić — poza bojkotem. Jednocześnie Adobe pobiera skądś dane do narzędzi takich jak Generative Fill, więc w taki czy inny sposób wykorzystuje prace artystów.
Firmy technologiczne mają prawie nieograniczony dostęp do Twoich danych... Na razie
W obecnej sytuacji giganci technologiczni, tacy jak Google i Meta, mają niemal nieograniczony dostęp do danych kreacji. Kontrola nad postępowaniem z danymi użytkowników jest prawie tak stara jak Internet, ale przepisy dotyczące prywatności wciąż nadrabiają zaległości.
Wdrożenie jej zajęło Unii Europejskiej aż do 2018 roku Wytyczne dotyczące prywatności RODO i niewiele zrobili, aby chronić dane użytkowników.
Generative AI to zupełnie nowe pole minowe, na którym prawie nie ma żadnych przepisów ograniczających działania firm technologicznych w tej przestrzeni. Na razie firmy takie jak Google i OpenAI mogą zrobić z naszymi danymi prawie wszystko, co chcą, i to się nie zmieni w najbliższym czasie.
Ostatecznie potrzeba procesów sądowych i przepisów, aby chronić artystów przed sztuczną inteligencją
Dopóki generatywna sztuczna inteligencja i jej dostęp do danych użytkowników nie zostaną uregulowane, twórcy są prawie bezsilni, by powstrzymać tę technologię. Najbardziej prawdopodobnym scenariuszem byłyby zmiany w prawie autorskim lub potencjalnie nowe zabezpieczenia danych związane z własnością twórczą. W obu przypadkach minie dużo czasu, zanim nowe przepisy zostaną wprowadzone, a następnie wprowadzone w życie.
Srebrną podszewką dla twórców jest to, że procesy sądowe przeciwko generatywnej sztucznej inteligencji szybko się piętrzą, co może przyspieszyć reakcję prawną. Zła wiadomość jest taka, że niektóre z zaangażowanych firm technologicznych mają środki prawne, aby przeciągać te sprawy przez najbardziej czasochłonne ścieżki należytego procesu.
W międzyczasie pytania etyczne wiszące nad generowaniem sztuki AI będą się utrzymywać.