Chatboty to zjawisko nowe, ale wymaga uregulowania prawnego. Jeśli nikt tego nie uczyni, będziemy żyli w stanie poważnego zagrożenia demokracji. Mamy bowiem do czynienia z coraz doskonalszą sztuczną inteligencją w świecie polityki – aktywności zautomatyzowanych programów komputerowych, które udając ludzi próbują przejąć kontrolę nad dyskusją w sieci.

Chatboty to programy, które potrafią rozmawiać z ludźmi w mediach społecznościowych za pomocą języka zbliżonego do naturalnego. Coraz częściej przybierają one postać systemów uczenia maszynowego, które nie polega już na czerpaniu z zasad słownictwa, gramatyki czy składni, ale coraz doskonalszego reagowania i wnioskowania z dużych zbiorów danych.

Niektóre chatboty, takie jak wielokrotnie opisywany w mediach i nagradzany Mitsuku, mogą utrzymywać niezwykle zadowalający poziom konwersacji. Jednak polityka nie jest mocną stroną Mitsuku. “Odzwierciedlając niedoskonały stan techniki, Mitsuku często udziela odpowiedzi, które są zabawnie dziwne. Zapytany: ‘Co myślisz o The New York Times?’ Mitsuku odpowiada: “Nie wiedziałem nawet, że wyszedł nowy…“. Pokazuje to zatem, że chatboty – choć coraz bardziej doskonałe, wciąż nie działają idealnie.

Większość współczesnych botów politycznych to oprogramowanie prymitywne, ograniczone do powtarzania sloganów i nabijania popularności politycznych hashtagów. Jednak spojrzenie na najnowszą historię polityczną sugeruje, że chatboty zaczęły już mieć znaczący wpływ na dyskusję polityczną. Przykład? W czasie ostatnich wyborów w USA około 60 proc. rozmów w internecie związanych z “karawaną” migrantów z Ameryki Środkowej zostało zainicjowanych właśnie przez boty.

W październiku tego roku fraza “wszyscy ufamy Mohammedowi bin Salmanowi” pojawiła się nagle w ponad 250 000 wpisów na Twitterze. “Musimy stać za naszym przywódcą” – taki tweet został wysłany ponad 60 tys. razy. Najprawdopodobniej większość tych wiadomości została wygenerowana przez automaty.

Chatboty nie są nowym zjawiskiem. Dwa lata temu uważano, że około jedna piąta wszystkich tweetów dotyczących wyborów prezydenckich w USA w 2016 roku była dziełem chatbotów. Jedna trzecia całego ruchu na Twitterze przed referendum w 2016 r. dotyczącym członkostwa Wielkiej Brytanii w Unii Europejskiej pochodziła od botów. Nie ma zatem znaczenia, że ​​obecne boty nie są “inteligentne” jak my, lub że nie osiągnęły takiego poziomu świadomości i kreatywności, o jakich marzą ich twórcy czy miłośnicy sztucznej inteligencji. Liczy się ich realny wpływ na zachowania ludzi, a może i decyzje przy urnach wyborczych.

  TikTok – jak działa jego algorytm?

W niedalekiej jeszcze przeszłości można było przyjąć za pewnik, że wszyscy uczestnicy dyskursu politycznego byli ludźmi. Dziś to już nie jest prawda. Coraz częściej dzielimy się internetową debatą ze sztucznymi podmiotami, które są coraz bardziej zaawansowane. Np. bot opracowany przez brytyjską firmę Babilon podobno uzyskał wynik 81 procent w badaniu na przyjęcie do Royal College of General Practitioners. Średni wynik dla lekarzy? 72 proc.

Jeśli boty zbliżają się do etapu, na którym mogą odpowiadać na pytania medyczne równie dobrze jak lekarze, to możliwe, że w końcu osiągną lub przekroczą również poziom politycznego wyrafinowania. I naiwnością jest przypuszczenie, że w przyszłości boty będą ograniczone tak jak w chwili obecnej. Będą prawdopodobnie mieć twarze i głosy, nazwiska i osobowości – wszystkie zaprojektowane w celu maksymalnego zmanipulowania użytkowników sieci. Jak wiadomo, materiały filmowe określane mianem „deep fakes” mogą już dziś przekonująco podrabiać mowę i wygląd prawdziwych polityków…

Kolejnym ryzykiem jest fakt, że osoby zamożne będą mogły sobie pozwolić na najlepsze boty. Zamożne grupy interesów i korporacje, których poglądy już mają dominujące miejsce w dyskursie publicznym, będą nieuchronnie w najlepszej i uprzywilejowanej pozycji jeśli chodzi o korzystanie z zalet, jakie dają nowe technologie.

A w świecie, w którym coraz częściej jedynym możliwym sposobem na rozpoczęcie debaty z chatbotami jest wdrażanie innych chatbotów, również posiadających tę samą szybkość i łatwość podejmowania dyskusji, martwić nas powinno to, że w dłuższej perspektywie zostaniemy skutecznie wykluczeni z debaty i to na własne życzenie. Mówiąc łagodnie, hurtowa automatyzacja politycznych, i nie tylko, dyskusji w sieci, byłaby niefortunnym wydarzeniem w historii demokracji.

Uznając to zagrożenie, niektóre grupy zaczęły działać. Projekt Computational Propaganda Project Oxford Internet Institute zapewnia rzetelne badania naukowe nad działalnością botów na całym świecie. Innowatorzy w Robhat Labs oferują już teraz aplikacje do ujawniania, kto jest w sieci człowiekiem, a kto nie. Same platformy społecznościowe, na przykład największe – Twitter i Facebook, stały się już skuteczniejsze w wykrywaniu i neutralizowaniu botów.

  Deepfakes pojawiają się w aplikacji TikTok

Najlepszym rozwiązaniem byłby całkowity zakaz używania botów na forach, na których odbywa się ważna dyskusja polityczna, z uwzględnieniem poważnych kar za łamanie tych przepisów. Na pewno pomocne byłoby  wprowadzenie ustawy zakazującej kandydatom i partiom politycznym wykorzystywania jakichkolwiek botów, które miałyby podszywać się pod ludzkie aktywności w celu nasilenia komunikacji lub manipulacji zachowaniami internautów.

Subtelniejsza metoda prawnego załatwienia tego trudnego tematu wymagałaby rejestracji wszystkich chatbotów i nieustannego informowania o tym, że są chatbotami, wraz z danymi o tożsamości właścicieli i kontrolerów tego oprogramowania. Warto byłoby także zmusić właścicieli platform społecznościowych do wprowadzenia odpowiednich rozwiązań, regulaminów czy nawet technologii do wykrywania anomalii.

Powinniśmy jednak przede wszystkim dążyć do pomniejszania roli botów i ograniczyć ich aktywność, by mogły tworzyć w ciągu dnia z góry ograniczoną liczbę aktywności online lub określoną liczbę odpowiedzi do innych użytkowników. Boty rozpowszechniające fake newsy mogą z kolei zostać usunięte przez moderatorów.

Nie musimy traktować mowy chatbotów z takim samym szacunkiem, jak traktujemy ludzką mowę. Co więcej, boty są zbyt szybkie i przebiegłe, aby podlegały zwykłym zasadom debaty. Z obu tych powodów metody, których staramy się używać do regulowania ich działania, muszą być bardziej niezawodne niż te, które stosujemy wobec ludzi. Nie może być żadnych półśrodków, gdy stawką jest przyszłość demokracji.

Źródło: nytimes.com