Czy ta osoba istnieje? Być może uwierzysz, że to prawdziwy człowkek, jednak został on stworzony sztucznie przez stronę „thispersondoesnotexist.com”. Strona korzysta z technologii „Generative Adversarial Network” (GAN), która korzysta z machine learning do tworzenia realistycznych zdjęć ludzi na podstawie przeciętnych twarzy. Od 2014 r. strona internetowa przyczyniła się do narastających obaw związanych z „deepfakes”.

Deepfakes to zjawisko technologiczne, w którym nagranie z daną osobą jest manipulowane za pomocą GAN, aby stworzyć wrażenie, że treść jest autentyczna. Tak naprawdę ta osoba nigdy nie mówiła ani nie robiła tego, co wydaje się robić na sfabrykowanym nagraniu. Powstanie deepfakes przyczyniło się do stworzenia kultury nowego rodzaju fałszywych wiadomości, a rozpowszechnianie dezinformacji zatruło polityczną narrację.

Niebezpieczna technologia

Było wiele głośnych przykładów deepfakes i podobnych technologii wpływających na współczesne narracje polityczne. Zgodnie z konstytucją gabońską, jeśli prezydent z powodów zdrowotnych nie jest zdolny do wykonywania obowiązków urzędu, musi zrezygnować ze stanowiska. Obecny szef państwa, prezydent Ali Bongo, jest nieobecny w kraju od kilku miesięcy, co wywołuje spekulacje.

W styczniu tego roku w Internecie pojawiło się wideo prezydenta Ali Bongo, które nosiło znamiona deepfake: lider dziwnie się zachowywał i wydawał się mieć sztywną i nienaturalną postawę. Gabońska opozycja zajęła się nagraniem, twierdząc, że film został wyprodukowany przez zespół prezydenta i był dowodem na to, że nie był on zdolny do stawienia się w miejscu publicznym ani do sprawowania urzędu.

Film wywołał nieudany zamach wojskowy przeciwko prezydentowi Bongo, demonstrując potencjalne zagrożenie dla dyskursu politycznego stwarzanego przez tę technologię. Podobnie jak w przypadku wielu kryzysów publicznych, główną wadą reakcji prezydenta było pozostawienie próżni komunikacyjnej, którą opozycja chętnie wypełniła. Ta próżnia była wynikiem widocznego braku odpowiedzi rządu na zarzuty, podsycanego dodatkowo przez analizy ekspertów, które nie mogły ustalić, czy film to w rzeczywistości był deepfake.

Niedawne nagranie wideo Nancy Pelosi, choć nie był to deepfake, wykazuje, że możliwości technologiczne mogą nie powstrzymać fali dezinformacji. Spowolniono wideo o 25 proc., wykorzystując publicznie dostępną technologię, aby stworzyć wrażenie, że osoba na filmie jest pijana. Wideo zyskało ponad 2,5 mln odsłon na Facebooku. Pokazało, że przekonująca dezinformacja może zostać stworzona przy użyciu publicznie dostępnej technologii.

Źródło: portland-communications.com