Fałszywe wiadomości i mowa nienawiści w świecie on-line stają się coraz większym problemem. Facebook i Twitter w ostatnim czasie zlikwidowały miliardy kont szerzących propagandę i dezinformację. Wszystko to w celu powstrzymania rozprzestrzeniania się tych szkodliwych dla społeczności internetowej zjawisk.

Jednak w chwili obecnej takie zadanie wymaga ogromnego nakładu pracy ze strony ludzi. Aby rozwiązać ten problem, naukowcy zaczynają trenować sztuczną inteligencję (AI), aby pomóc w tym niezwykle czasochłonnym zadaniu.

Naukowcy chcą wdrożyć AI

Ikigai powołuje się na system Rosetta, z którego korzysta Facebook, aby zrozumieć autentyczność wiadomości, obrazów lub innych treści przesyłanych do mediów społecznościowych. Jak wyjaśniono, Rosetta skanuje „słowo, obraz, język, czcionkę i datę posta wśród innych zmiennych i próbuje sprawdzić, czy prezentowane informacje są prawdziwe, czy nie”. Sztuczna inteligencja wciąż nie jest jednak w pełni „biegła w zrozumieniu insynuacji i kontekstów w zamieszczonych treściach”. Dlatego po zebraniu danych przez system, to ludzie – moderatorzy przejmują kontrolę nad systemem AI rozpoznając mowę nienawiści i fałszywe wiadomości.

Aby dalej rozwijać zdolność systemów AI do wykrywania wszystkich możliwych niuansów charakterystycznych dla mowy nienawiści, zespół naukowców z UC Santa Barbara i Intel pobrał tysiące rozmów z najbardziej podłych społeczności na Reddit i Gab. Wykorzystał je do opracowania i szkolenia sztucznej inteligencji w walce z mową nienawiści.

Aby tego dokonać, grupa naukowców stworzyła zestaw danych składający się z „tysiąca specjalnie wyselekcjonowanych rozmów zawierających mowę nienawiści”. Korzystali również z listy grup na Reddicie, opracowanej przez Justina Caffiera z Vox. Grupy te charakteryzuje używanie głównie mowy nienawiści. Badacze zebrali „ponad 22 tys. komentarzy z Reddita i ponad 33 tys. z Gaba”. Odkryli, że obie strony zawierają podobne popularne słowa kluczowe, ale ich dystrybucja jest bardzo różna.

Zauważyli, że z powodu tych różnic w social media bardzo trudno jest interweniować w czasie rzeczywistym. Jest to spowodowane wysokim przepływem mowy nienawiści. Wymagałoby to ogromnej ilości osób do pracy.

Czy AI pomoże walczyć z mową nienawiści?

W celu rozwiązania tego problemu zespół badawczy zaczął szkolić AI, aby ta mogła interweniować. Po zidentyfikowaniu poszczególnych przypadków mowy nienawiści pracownicy wymyślili zwroty, które zostaną użyte przez AI „w celu zniechęcenia użytkowników do publikowania podobnych wypowiedzi w przyszłości”.

Na tej podstawie zespół naukowców stworzył pewien rodzaj prototypu sztucznej inteligencji. Interweniuje ona w przypadku wykrycia mowy nienawiści online.

Uzyskane wyniki były doskonałe, ale ponieważ system jest wciąż na wczesnym etapie rozwoju, nie jest jeszcze gotowy do aktywnego użycia. Jak wyjaśniono: „System teoretycznie powinien wykrywać mowę nienawiści i natychmiast wysyłać wiadomość informującą, dlaczego nie powinno się publikować rzeczy, które w oczywisty sposób reprezentują mowę nienawiści. Polega to na czymś więcej niż tylko wykrywaniu słów kluczowych. Aby sztuczna inteligencja działała, musi mieć właściwy kontekst”.

Źródło: unite.ai