Wydaje się, że zbyt często widzimy wiadomości, że na jednym lub drugim portalu społecznościowym popełniono jakieś rażące przestępstwo, w tym nielegalne posty lub transmisje na żywo z brutalnymi treściami. Łatwo się zastanawiać, jak w tym zaawansowanym technologicznie wieku takie rzeczy mogą prześlizgnąć się przez szczeliny.
Ale faktem jest, że skuteczne moderowanie serwisów społecznościowych jest praktycznie niemożliwe. Dlaczego? Jest kilka powodów.
Niektóre serwisy społecznościowe wciąż są raczkujące lub są bardziej niszowe. Jednak główne serwisy społecznościowe mają ogromne bazy użytkowników. Największe witryny mają od setek milionów do miliardów użytkowników. Oczywiście każda tak duża platforma jest trudna do monitorowania.
Większość głównych sieci społecznościowych radzi sobie z tym za pomocą połączenia raportów społeczności, algorytmów (niedoskonale) wyszkolonych do wykrywania szkodliwych treści i kilku ludzkich moderatorów. Podczas gdy członek społeczności lub sztuczna inteligencja może wykryć i zgłosić szkodliwe informacje, to człowiek (lub grupa ludzi) ma ostatnie słowo. Ponadto wiele witryn oferuje procedurę odwoławczą.
Witryny społecznościowe są nie tylko ogromne pod względem bazy użytkowników. Różne stany i różne kraje mają różne przepisy dotyczące tego, jakiego rodzaju treści należy zgłaszać iw jaki sposób.
Tak więc firmy zajmujące się mediami społecznościowymi działające w różnych obszarach geograficznych często muszą mieć różne zasady dla różnych użytkowników. Obejmuje to różne zasady dotyczące dezinformacji i prywatności. W rzeczywistości, Twitter musiał zgodzić się na określone warunki, aby zostać odblokowanym w Nigerii.
Co więcej, media społecznościowe są zjawiskiem globalnym, ale nie zawsze dzieje się to w „globalnych” językach. Może to sprawić, że firmy zajmujące się mediami społecznościowymi będą musiały szukać moderatorów treści, którzy mówią językami regionalnymi, aby świadczyć usługi na całym świecie, nie narażając tych użytkowników na ataki złych aktorów.
Dobrym przykładem jest właścicielka Facebooka Meta. Firma była niedawno pozwany przez byłego moderatora treści w Nairobi który twierdzi, że moderatorzy treści w okolicy są wprowadzani w błąd, aby przyjąć tę rolę.
3. Moderatorzy chodzą po linie
Większość użytkowników mediów społecznościowych chce dwóch rzeczy: chcą czuć się bezpiecznie i chcą czuć się wolni. Znalezienie równowagi między tymi dwoma pragnieniami jest trudnym zadaniem moderatora treści.
Jeśli odsuniesz się zbyt daleko w jedną stronę, użytkownicy poczują się nadzorowani. Jeśli odsuniesz się za daleko na drugą stronę, użytkownicy poczują się porzuceni. Jednym ze sposobów obejścia tego problemu przez niektóre serwisy społecznościowe są moderatorzy społeczności.
Moderatorzy społeczności pomagają wyrazić, że moderacja jest czymś, co robi się z pasji do promocji konstruktywny dyskurs bez dopuszczania szkodliwych treści, a nie z chęci kontrolowania lub ucisku użytkownicy. Ten model jest trudny na dużą skalę, chociaż różne platformy sprawiają, że działa na różne sposoby.
Parler wrócił do trybu online po dostosowaniu swojej polityki moderacji do zasad innych firm. Mają coś w rodzaju systemu jury społeczności, który mniej więcej wchodzi w grę dopiero po zgłoszeniu potencjalnie problematycznego postu. Priorytetyzacja raportów użytkowników to kolejny sposób, w jaki Parler pomaga odciążyć swoich moderatorów.
4. Moderatorzy muszą trzymać się dynamicznej linii
Moderatorzy treści działają również w czymś, co może wydawać się moralną szarą strefą. Nawet platformy, w których moderacja jest bardziej swobodna, mają zasady dotyczące potencjalnie szkodliwych lub brutalnych treści. Niektóre posty są oczywiście szkodliwe lub zawierają przemoc, podczas gdy inne mogą wydawać się szkodliwe lub niebezpieczne dla niektórych użytkowników (lub moderatorów), ale nie dla innych.
Wiele platform ma również zasady zakazujące innych działań, takich jak sprzedaż produktów lub usług. Poruszanie się po tym obszarze może być jeszcze trudniejsze, zwłaszcza biorąc pod uwagę rozmiar i zakres niektórych witryn.
Rozważać co robią moderatorzy społeczności Reddit. Za każdym razem, gdy użytkownicy dołączają do nowej społeczności, natychmiast otrzymują zasady dla tej społeczności. Zasady te są również publikowane z boku każdej strony społeczności. Dzięki temu każda społeczność może mieć podzbiór reguł dostosowanych do niej, zamiast ogólnych reguł dla całej witryny.
Pomysł subredditów pomaga również Redditowi korzystać z moderatorów społeczności na dużą skalę. Moderatorzy mają za zadanie moderować swój subreddit, zamiast próbować patrolować całą witrynę.
Wreszcie media społecznościowe poruszają się naprawdę szybko. Kiedy słyszysz o problematycznym poście, może to być dobrze po tym, jak oryginalny plakat go usunął. W przypadku, gdy post nie został zgłoszony, gdy był aktywny, odpowiedź na niego po fakcie może być trudna.
W jednym przypadku w 2015 r. post w serwisie społecznościowym YikYak został zgłoszony policji przy użyciu zmienionej wersji oryginalnego postu, który został już usunięty. To, co mogło zostać rozwiązane wewnętrznie przez moderatorów treści online, przekształciło się w przedłużający się dramat prawny, który zdenerwował całą społeczność.
Wiele serwisów społecznościowych, w tym Facebook, ma zasady przechowywania podejrzanych postów w przypadku, gdy trzeba się do nich odwoływać w rozwijających się sytuacjach, w tym przez organy ścigania.
Jednak funkcje takie jak transmisje na żywo oznaczają, że treści pojawiają się na bieżąco, co algorytmy mogą przeoczyć, dopóki nie jest za późno.
Rzuć monetą swojemu moderatorowi
Jeśli zobaczysz w Internecie coś, co Cię zaniepokoi, skorzystaj z dostępnych kanałów, aby to zgłosić. Staraj się unikać zdenerwowania lub podejrzeń, ponieważ moderowanie mediów społecznościowych jest trudne. To samo dotyczy zgłoszenia Ciebie lub postu. Prawdopodobnie jest to posunięcie w dobrej wierze, aby zapewnić bezpieczeństwo użytkownikom mediów społecznościowych.