Zgodnie z nowymi badaniami boty rozpowszechniające dezinformację używają bardzo wyrafinowanych technik, takich jak celowanie w określonych, wpływowych ludzi oraz kierowanie na wprowadzające w błąd informacje w ciągu pierwszych kilku sekund od ich opublikowania.

Badania sugerują, że boty na platformach społecznościowych stają się coraz bardziej wyspecjalizowane. Nawet wprowadzanie na w/w stronach zmian w celu wyeliminowania botów nic nie daje. Boty są również coraz lepsze w unikaniu wykrywania.

Badacze próbowali zrozumieć rolę, jaką boty odgrywają w rozpowszechnianiu dezinformacji. Odkryli kilka kluczowych taktyk jakimi się posłują.

1. Skoncentrowanie się na szybkości

Zgodnie z nowym studium z Uniwersytetu Indiana opublikowanym w Nature Magazine, rozprzestrzenianie się treści o niskiej wiarygodności przez boty odbywa się bardzo szybko. Według badania, boty wzmacniają wątpliwą zawartość we wczesnych momentach rozpowszechniania wiadomości, zanim stanie się ona wirusowa.

2. Wykorzystanie konkretnych celów

Zgodnie z nowym badaniem National Academy of Sciences (PNAS), boty eksponują treści o charakterze negatywnym i o podłożu zapalnym w mediach społecznościowych częściowo poprzez docieranie do konkretnych osób. Robią to np. kierując reklamy do ludzi mających wpływ na społeczność. Według autorów badania, podnosi to skuteczność szybciej niż w przypadku zwykłych użytkowników lub innych botów.

3. Wykorzystanie ludzkiego potencjału

Boty starają się wykorzystywać treści generowane przez ludzi, ponieważ są one bardziej podatne na rozprzestrzenianie, wynika z badania PNAS. Z raportu dowiadujemy się, że boty „promują generowane przez ludzi umieszczane na platformach społecznościowych treści, a nie zautomatyzowane tweety.”

4. Kierowanie na oryginalne posty, a nie na odpowiedzi

Zgodnie z analizą Nature Magazine, boty rozpowszechniają treści o niskiej wiarygodności, które są tworzone za pomocą początkowego tweeta lub wpisu. „Większość artykułów ze źródeł o niskiej wiarygodności jest rozpowszechnianych za pośrednictwem oryginalnych tweetów i retweetów, podczas gdy niewiele z nich jest udostępnianych w odpowiedziach”, wynika z badania.

5. Manipulacje metadanymi

Zgodnie z nowym badaniem z Data & Society, które otrzymuje finansowanie od Microsoft, boty używają więcej metadanych do naśladowania ludzkich zachowań, a tym samym do uniknięcia wykrycia. Platformy coraz lepiej radzą sobie z wykrywaniem nieautentycznych aktywności, ale boty, używając metadanych w formie podpisów pod zdjęciami, obserwujących, czy komentarzy sprawiają, że ich posty wydają się bardziej ludzkie.

Według raportu, boty muszą naśladować autentyczne ludzkie emocje, a nie tylko sposób wysyłania postów.

Jak wynika z najnowszej ankiety Pew Research Center, większość Amerykanów twierdzi, że nie są w stanie odróżnić botów od ludzi w mediach społecznościowych. Około połowa badanych, którzy słyszeli o botach (47%), jest bardzo lub nieco pewna, że potrafi rozpoznać sztuczne konta w social media, a tylko 7% twierdzi, że jest tego bardzo pewna.

„Najlepszym sposobem rozwiązania problemu jest zidentyfikowanie źródła nieautentycznego zachowania” – mówi Joshua Geltzer, dyrektor wykonawczy Georgetown University’s Institute for Constitutional Advocacy and Protection. „Mimo że w ciągu ostatnich dwóch lat współpraca między rządem a sektorem prywatnym uległa poprawie, konieczna jest jeszcze lepsza kooperacja w zakresie wykrywania złych praktyk na wczesnym etapie.”

Źródło: axios.com