Facebook wie, że jego platforma jest zalana fałszywymi wiadomościami. Nie powstrzymał rozprzestrzeniania fake newsów w okresie poprzedzającym wybory prezydenckie w 2016 r. Obecnie platforma pracuje z wieloma firmami sprawdzającymi fakty.

Raport ujawnił niewygodną prawdę

Jedna z takich firm, brytyjska organizacja charytatywna Full Fact, opublikowała raport. Przedstawiła w nim wyniki z pierwszych sześciu miesięcy współpracy z gigantem technologicznym. Organizacja opublikowała 96 kontroli faktów w tym okresie. Spośród nich 59 uznano za fałszywe, 19 było mieszanką prawdy i kłamstwa, 7 uznano za opinię, a 6 uznano za satyrę. Tylko 5 postów zostało oznaczonych jako prawdziwe.

Wpisy obejmowały całą gamę spraw bieżących, od wprowadzających w błąd informacji politycznych po fałszywe oświadczenia o szczepionkach. Jak donosi The Times, wiele z tych wątpliwych informacji wiąże się również z wysokim zagrożeniem zdrowia. W jednym z postów napisano, że ofiary ataku serca powinny kaszleć „wielokrotnie i bardzo energicznie”, aż nadejdzie pomoc. British Heart Foundation zaprzeczyło temu twierdzeniu. Jednak post na Facebooku nadal pozostał.

W czym tkwi problem?

Problem wydaje się w dużej mierze opierać na algorytmach platformy. Dyrektor Full Fact Will Moy mówi, że „nie są jeszcze na etapie, na którym mogą wiarygodnie zidentyfikować informacje, które są nieprawdziwe”. Ponadto, informacje oznaczone przez algorytmy, a następnie potwierdzone jako fałszywe przez kontrolerów faktów, pozostają na stronie, chociaż ich zasięg jest zmniejszony o ponad 80 proc. Według Moya, Facebook niechętnie podał organizacji więcej szczegółów na temat wpływu kontroli faktów na fałszywe treści.

Raport uznaje, że Facebook rozszerzył swój program sprawdzania faktów na więcej krajów i języków. Podpowiada jednak, że dodatkowo musi skalować objętość treści i szybkość reakcji. Jednak Full Fact zauważa, że inicjatywa sprawdzania faktów jest „warta zachodu”. Twierdzi, że jest prawdopodobne, że „coś podobnego może być potrzebne również na innych platformach internetowych”. Ostatecznie organizacja stwierdziła: „chcielibyśmy, aby Facebook udostępniał nam więcej danych, dzięki czemu moglibyśmy lepiej oceniać sprawdzane treści i lepiej oceniać nasze działania”.

Źródło: engadget.com