W miarę nasilania się debaty na temat dezinformacji i odpowiedzialności, usługi medialne oparte na algorytmach (w tym media społecznościowe) stają się numerem jeden dyskusji. Przy ważnych pytaniach na temat tego, jak platformy medialne kształtują myśl, bardzo ważne jest, aby zastanowić się, w jakim stopniu obywatele są świadomi wpływu algorytmów na to co widzą i czytają oraz jaki to ma wpływ na istotność informacji otrzymywanych za pośrednictwem mediów.

Cele

W imieniu Komisji Europejskiej, RAND Europe i Open Evidence otrzymały zlecenie zidentyfikowania potencjalnego ryzyka związanego z usługami medialnymi opartymi na algorytmach oraz sposobów ograniczenia ich wpływu na obywateli.

Badając wzajemne oddziaływanie między uprzedzeniami w algorytmach a własnymi uprzedzeniami poznawczymi ludzi, badanie miało na celu:

  • Przeanalizowanie problemów związanych z usługami medialnymi opartymi na algorytmach, biorąc pod uwagę rolę mediów w dobrze funkcjonującej demokracji;
  • Zidentyfikowanie przyczyny tych problemów i ich potencjalne konsekwencje w kontekście praw podstawowych;
  • Zidentyfikowanie możliwości zmiany podejścia do rozwiązania problemów związanych z usługami medialnymi i platformami opartymi na algorytmach lub łagodzenia konsekwencji ich wpływu.

Wyniki badania pomogły w kształtowaniu polityki medialnej UE na wielu etapach w celu sprostania pojawiającym się wyzwaniom związanym z algorytmami.

Metodologia

Do przeprowadzenia tych badań wykorzystano zestaw metod ilościowych i jakościowych, w tym przegląd literatury, wywiady z kluczowymi informatorami z wybranymi ekspertami, analiza danych oraz konsultacje i zaangażowanie zainteresowanych stron.

Wyniki

Prawa obywateli do dostępu do bezstronnych i weryfikowalnych informacji online są kwestionowane. Przeciwdziałanie rozprzestrzenianiu się dezinformacji okazuje się ważnym zadaniem dla społeczeństw na całym świecie. Odpowiedzialność za powstrzymywanie dezinformacji spoczywa na wielu interesariuszach.

Platformy społecznościowe i algorytmy, których używają do kształtowania wiadomości, a także zachowania ludzi w Internecie, odgrywają rolę w szybkim rozprzestrzenianiu się dezinformacji. Wybory ludzi i reakcja na treść mogą prowadzić do wirusowego rozprzestrzeniania się i wzmacniania szkodliwych treści

Inicjatywy polityczne, zmiany w algorytmach mediów społecznościowych i programach umiejętności korzystania z mediów przez użytkowników online to wszystkie metody, które do tej pory stosowano w celu sprostania tym wyzwaniom, ale dowody na to, co działa, wciąż są rzadkie.

Badania wykazały, że ludzie nie zdają sobie sprawy z własnych uprzedzeń poznawczych i nie doceniają stopnia, w jakim algorytmy wpływają na ich zachowanie na platformach społecznościowych. Poprawa znajomości mediów przez konsumentów i zmniejszenie ich podatności na dezinformację jest niezbędną częścią rozwiązania problemu.

Warto przyjrzeć się podejściu, które pomaga ludziom być świadomym własnego zachowania podczas korzystania z Internetu. Racjonalne i analityczne myślenie, które jest niezbędne dla świadomości umiejętności korzystania z mediów, może spaść, gdy ludzie przechodzą na bardziej reaktywny i mniej racjonalny sposób myślenia, jednocześnie angażując się w treści wiadomości online.

Rekomendacje

W niniejszym badaniu proponuje się przeprowadzenie trzech konkretnych eksperymentów behawioralnych, które sprawdzą, czy platformy social media mogłyby przeciwdziałać uprzedzeniom poznawczym i wywołać bardziej analityczny typ myślenia użytkowników online.

To mało wymagające podejście zostanie zastosowane w punkcie konsumpcji mediów – tj. tuż przed kliknięciem łącza do artykułu przez użytkownika – i zachęci go do zatrzymania się na chwilę i rozważenia, co zamierzają udostępnić i / lub przeczytać.