Większość, bo aż 93 proc. wszystkich postów zgłoszonych jako mowa nienawiści na Facebooku w Indiach, nie zostało usuniętych. Połowa postów, które początkowo usunięto, została później przywrócona. Tak wynika z nowego raportu sygnalizującego możliwe luki w moderowaniu treści.

Raport opublikowany przez amerykańskie Equality Labs, opiera się na czterech miesiącach monitorowania postów na Facebooku w Indiach. Pracował nad tym zespół 20 naukowców w czterech językach – angielskim, hindi, tamilskim i kannada. Badanie wykazało również, że maksymalna część mowy nienawiści była islamofobiczna (37 proc.). Następnie były to fałszywe wiadomości (16 proc.) i posty dotyczące płci / seksualności (13 proc.) oraz kasty (13 proc.).

Raport oparł swoją analizę na tym, co Facebook określił jako mowę nienawiści na poziomie 1. Jest to m. in. przemoc, dehumanizacja i drwiny na temat rasy, pochodzenia etnicznego, kasty, płci, pochodzenia narodowego, tożsamości religijnej i niepełnosprawności. Takie treści kwalifikują się do natychmiastowego usunięcia z platformy.

„Raport jest początkiem koniecznej rozmowy, która pozwoli większej liczbie Hindusów lepiej zrozumieć, jak działa Facebook. Muszą wiedzieć jak wiele rodzajów mowy nienawiści stało się znormalizowane oraz jakie kategorie mowy nienawiści stały się obecnie powszechne” – powiedział Thenmozhi Soundararajan, dyrektor wykonawczy Equality Labs.

Sprawozdanie zawierało podkategorie mowy nienawiści. Na przykład stwierdzono, że 1/4 mowy nienawiści skierowana na płeć / seksualność była anty-LGBT. Połowa z tego domagała się gwałtu i innych form przemocy seksualnej.

Zwiększenie kontroli treści to konieczność

Indie to największy rynek Facebooka z prawie 300 mln użytkowników. Firma w ostatnich latach znalazła się pod ostrzałem z powodu mowy nienawiści i podziałów na swojej platformie.

W marcu, przed wyborami powszechnymi, zwrócono się do giganta mediów społecznościowych o zapewnienie, że jego platforma, Instagram oraz WhatsApp nie zostały niewłaściwie wykorzystane do tworzenia podziałów lub podżegania do przemocy.

Raport sugeruje jednak, że moderacja treści musi być bardziej solidna. Ma to się stać poprzez rozwój indyjskich standardów wspólnotowych i udostępnianie wytycznych dotyczących mowy nienawiści we wszystkich językach indyjskich. Konieczne jest też zwiększanie kompetencji kulturowych pracowników Facebooka w takich kwestiach, jak kasty.

„To absolutne zaniedbanie, że Facebook nie ma konkretnych środków do zgłaszania kastowej mowy nienawiści” – dodał Thenmozhi Soundararajan, dyrektor wykonawczy Equality Labs.

Facebook powiedział, że wykorzystuje technologię i raporty do identyfikacji i usuwania mowy nienawiści i fake newsów. Wprowadził też kastę jako cechę chronioną, obok rasy, płci itp. „W Indiach posiadamy długotrwałe inwestycje w ludzi, technologię i partnerstwa. To ma pomóc nam lepiej wykrywać złe treści i egzekwować nasze zasady w wielu językach” – powiedział rzecznik Facebooka.

Wg. oświadczenia, liczba osób zajmujących się kwestiami bezpieczeństwa i ochrony wynosi 30 tys. na całym świecie. Dotyczy to również 15 tys. osób, które są dedykowanymi recenzentami treści. „Dokonaliśmy znacznych inwestycji, aby wykryć i usunąć fałszywe wiadomości z naszej platformy. Zwiększyliśmy także nasze możliwości językowe dla recenzentów treści, którzy zapobiegają rozprzestrzenianiu się dezinformacji” – dodał rzecznik.

Źródło: hindustantimes.com