Moderowanie treści i komentarzy jest jednym z najważniejszych obowiązków mediów w Internecie. To miejsce, w którym wolność słowa, interesy społeczności, cenzura, nękanie, spam i jawna przestępczość są ze sobą powiązane. Internet musi uwzględniać szeroki zakres ciągle zmieniających się norm kulturowych i akceptowalnych zachowań. Praca moderatora jest zadaniem niewdzięcznym. Mimo to duże platformy technologiczne wydają się nie zauważać tego. Oferują niskie płace, a zadanie moderatora często określają jako coś, co najlepiej pozostawić maszynom.

Na przykład jedna z firm pracująca dla Facebooka, która obecnie nadzoruje niektóre działania związane z moderowaniem treści platformy, ujawniła tajniki swojej pracy. Podczas wywiadu pracownicy, którzy poprosili o anonimowość w obawie przed utratą stanowiska, opisali emocjonalną i psychologiczną traumę swojej pracy. Opowiadali, że to zajęcie stanowi dla nich duże obciążenie psychiczne, a zarobki nie są adekwatne do wykonywanych zadań. Większość zarabia bowiem zaledwie 28 000 dolarów rocznie.

Moderatorzy Facebooka w krajach rozwijających się, takich jak Indie, są traktowani jeszcze gorzej. Muszą oni przeglądać około 2000 postów w ciągu ośmiogodzinnej zmiany i zarabiają 1400 dolarów rocznie. Stanowi to około 75 centów za godzinę.

Moderatorzy są jednak dużą szansą na zoptymalizowanie takich platform jak Facebook i YouTube. Mimo to, Mark Zuckerberg, będąc przesłuchiwany przed kongresem, odniósł się do sztucznie inteligentnego moderowania ponad 30 razy. W międzyczasie moderatorzy na jego platformie spędzili wiele godzin, aby usunąć niechciane treści z jego strony.

Mega-platformy, które zmieniły świat w jedną ogromną sekcję komentarzy, raz po raz pokazują, że nie są zbyt zainteresowane zatrudnianiem ludzi jako moderatorów. Moderacja wymaga realistycznego spojrzenia na problem. Istnieje ograniczona ilość komentarzy, postów i filmów, które człowiek może obejrzeć w ciągu jednego dnia.

Wymaga to również konkretnego zestawu zasad, które można konsekwentnie egzekwować. Obecnie Facebook nie jest pewien, w jaki sposób zdefiniować mowę nienawiści. YouTube nie potrafi dowiedzieć się, co stanowi teorię spiskową ani jak właściwie ją sprawdzić. Twitter nie oceni, czy zablokowałoby konta tak potężnych użytkowników jak prezydent Trump, za naruszenie wytycznych jego platformy.

Niezależnie od tego, czy chodzi o fałszywe wiadomości, rosyjskich agentów, oszustwa marketingowe, żółte kamizelki itp., wszystko sprowadza się do jednego bardzo prostego problemu. Witryny takie jak Facebook, YouTube i Twitter nie obsługują od lat jasnych i powtarzalnych wytycznych dotyczących moderacji, a ich platformy pochłaniają coraz więcej naszych podstawowych funkcji społecznościowych.

Starsze społeczności online, takie jak Slashdot, MetaFilter, a nawet Fark, udowodniły, że ludzka moderacja i przejrzysty zestaw wytycznych dla użytkowników mogą działać. Oczywiście, skala była znacznie mniejsza niż platform, które mamy teraz, ale metoda była stosunkowo skuteczna. W tej chwili nie ma wystarczającej liczby ludzi, którzy obserwują co jest umieszczane w Internecie, a tych niewielu, którzy to robią, nie mają zasobów ani wsparcia, aby robić to dobrze.

Źródło: buzzfeednews.com