Dlaczego firmy zajmujące się mediami społecznościowymi nie mogą powstrzymać “fałszywych wiadomości”? Tuż przed świętami Guy Benson zauważył, że dwa szeroko rozpowszechnione tweety wirusowe nt. ustawy o amerykańskiej reformie podatkowej były fałszywe.

Pierwsza od aktorki Jenny Fischer, utrzymywała, że ze względu na reformę podatkową wspieraną przez GOP szkolni nauczyciele w Stanach Zjednoczonych nie będą już mogli odliczyć od podatku wydatków, jakie ponoszą w związku z prowadzeniem zajęć. Fischer jednak w końcu poprawiła swoje twierdzenie i zaproponowała długie przeprosiny. Jej informacje były cały czas nieaktualne.

Wersja projektu ustawy w istocie faktycznie wyeliminowałaby odliczenia w wysokości 250 dolarów, które nauczyciele mogliby pobrać na zakup materiałów szkolnych dla swoich studentów jednak ostateczna wersja ustawy sprawiła, że potrącenie pozostało nienaruszone. Mimo to jej oryginalny, narzekający tweet został przesłany co najmniej 46 000 razy, natomiast jej przeprosiny zostały przesłane ponownie 3 600 razy.

Druga informacja, z obecnie usuniętego konta na Twitterze o nazwie “@Sykotik_Dreams” – oświadczyła: “Przyjaciółka mojej żony właśnie otrzymała list od Medicaid i Social Security, w którym twierdzi, że jej poważnie upośledzony, autystyczny, 7-letni syn właśnie stracił swoją opiekę zdrowotną i korzyści. List stwierdza, że ​​jest to spowodowane #TaxScamBill. I to na 3 dni przed Bożym Narodzeniem!!”.

To również zostało przekazane dalej 46 000 razy, zanim zostało całkowicie usunięte. Każdy powinien poczuć, że to najzwyklejsze kłamstwo. Nic w ustawie podatkowej nie wpłynęło na decyzje dotyczące świadczeń Medicaid i Social Security. Tweet został napisany 22 grudnia, a ostateczna wersja projektu uchwalona przez Izbę Reprezentantów 20 grudnia. Taka decyzja prawie na pewno musiałaby zostać podjęta, a list musiałby zostać zredagowany przed upływem ostatecznego prawodawstwa.

Osoba, która podzieliła się tą historią, nie dostarczyła żadnych dodatkowych szczegółów: która agencja napisała list, jakiekolwiek jest jego uzasadnienie, nie podał także danych kogokolwiek, do kogo można dotrzeć w celu zweryfikowania roszczenia.

  Pierwszy na świecie pozbawiony płci głos AI

“Fałszywe wiadomości” pochodzą nie tylko z moskiewskich lub litewskich farm serwerów. Pojawiają się one zawsze, gdy ktoś oferuje coś fałszywego, niedokładnego lub głęboko mylącego, a ludzie decydują się wierzyć i rozpowszechniać to wśród swoich przyjaciół. W wielu przypadkach ci, którzy je rozpowszechniają i wzmacniają, chcą, aby było to prawdą, ponieważ potwierdza to część ich aktualnego światopoglądu.

Jeśli nienawidzisz Republikanów, chcesz wierzyć, że ich ustawy podatkowe nie robią nic dobrego, tylko okropne rzeczy dla dobrych ludzi i że odbiera ona opiekę zdrowotną od niewinnego 7-latka, autystycznego chłopca.

Jeśli ten tragiczny scenariusz jest prawdziwy, oznacza to, że wy, dobroduszni liberałowie, którzy wciąż ganią swoich krewnych za ich nieznośnie wsteczne poglądy polityczne w Święto Dziękczynienia, jesteście bohaterami, a wasi krewni są potworami skoro się z wami nie zgadzają.

Kto zatem jest winny fałszywych wiadomości? Ich twórcy czy ta część społeczeństwa, która w to wierzy? Facebook po prostu nauczył się na własnej skórze, że oznaczanie czegoś „fake newsami” nie niszczy publiczności ani apetytu na te informacje.

Dzisiaj ogłaszamy dwie zmiany, które naszym zdaniem pomogą w walce z fałszywymi wiadomościami. Po pierwsze, nie będziemy już używać dużych flag do identyfikowania fałszywych wiadomości. Zamiast tego użyjemy podobnych, pokrewnych artykułów, aby pomóc ludziom w lepszym kontekście tej historii.

Badania naukowe nad korygowaniem dezinformacji wykazały, że umieszczenie silnego obrazu, np. czerwonej flagi, obok artykułu może w rzeczywistości pogłębić głęboko zakorzenione przekonania – co przynosi odwrotny skutek niż zamierzony.

Podobne artykuły są po prostu zaprojektowane tak, aby dać więcej informacji, które jak pokazały nasze badania, jest bardziej skutecznym sposobem, aby pomóc ludziom w rozróżnieniu i zrozumieniu faktów.

Rzeczywiście, okazało się, że gdy wyświetlamy powiązane artykuły obok fałszywej wiadomości, prowadzi to do mniejszej liczby interakcji niż wtedy, gdy wyświetlana jest spora, czerwona flaga. Po drugie, rozpoczynamy nową inicjatywę, aby lepiej zrozumieć, w jaki sposób ludzie decydują, czy informacje są dokładne, czy nie, w oparciu o źródła wiadomości, od których zależą.

  96 proc. tzw. deepfakes ma charakter pornograficzny

Nie wpłynie to bezpośrednio na kanał informacyjny w najbliższym czasie, jednak może nam pomóc lepiej zmierzyć nasz sukces w zakresie poprawy jakości informacji na Facebooku.

Pozwól, że pomogę ci zrozumieć, jak ludzie decydują, czy informacje są dokładne, czy nie. Bardzo wielu ludzi ma silne systemy wierzeń, a rdzeniem tych silnych systemów wierzeń jest idea, że są dobrzy, a ludzie, którzy się z nimi nie zgadzają, są źli – na przemian, moje plemię jest dobre, a inne plemiona są złe.

Jeśli pojawiają się nowe informacje i wydaje się, że potwierdzają, że oni i ich plemię są dobrzy, lub że inne plemiona są złe, wtedy zdecydują się w to uwierzyć. Jeśli pojawią się nowe informacje, które potwierdzą, że oni i ich plemię są źli lub że inne plemiona są dobre, okażą informację fałszywą.