Deepfakes i fałszywe audio generowane przez narzędzia oparte o AI mogą zmuszać firmy do płacenia pieniędzy. Mogą również wpływać na wyborców i sprawiać, by ludzie wierzyli, że polityk powiedział coś, czego nie powiedział.

Głosy syntetyzowane komputerowo nie są niczym nowym. Każdy, kto zna urządzenia Amazon Echo i Home Google lub Siri firmy Apple, zna już kojący kobiecy głos, który odpowiada na pytania. „Jednak tę samą technologię można zastosować do niecnych celów” – powiedział Vijay Balasubramaniyan, współzałożyciel i dyrektor generalny Pindrop, firmy technologicznej, która wykorzystuje techniki uczenia maszynowego do identyfikowania oszustw głosowych.

Przestępcy mogą korzystać z publicznie dostępnych materiałów wideo i audio z udziałem znanych osób. Mogą analizować i tworzyć fałszywe głosy tych ludzi i wykorzystywać je. Mogą zastosować podobną taktykę, aby politycy zdawali się mówić coś, czego nigdy nie powiedzieli.

Zaskakująca prezentacja

Podczas krótkiej demonstracji na konferencji RSA w San Francisco, Balasubramaniyan zalogował się do bezpiecznej firmowej sieci komputerowej, która posiadała algorytmy sztucznej inteligencji. Były one zdolne do analizy publicznie dostępnych na YouTube wideo oraz audio głównych liderów politycznych i biznesowych oraz do sporządzenia pliku głosowego osoby mówiącej coś, czego nigdy nie powiedziała.

Balasubramaniyan wybrał prezydenta Donalda Trumpa. Wpisał słowa „Dziś rano siły amerykańskie dały Korei Północnej prztyczka w nos, na który zasługują” i wcisnął klawisz Enter. Przez chwilę maszyna szukała w Internecie publicznych wypowiedzi Trumpa na temat Korei Północnej i innych przypadków, w których mówił o strajkach wojskowych. Następnie stworzyła sztuczny głos, brzmiący jak głos Trumpa, powtarzający słowa wpisane przez Balasubramaniyana.

  Doritos, czyli jak wejść na rynek i pozostawić po sobie niesmak...

„Technologia sztucznej inteligencji pobierała głos Trumpa z publicznych filmów. Analizowała go w celu oceny strun głosowych, jamy ustnej i nosa prezydenta. Odtworzyła wszystkie nawyki związane z mową” – powiedział Balasubramaniyan.

„Firma przedstawiła sztucznie generowane klipy głosowe ludziom, aby sprawdzić, czy potrafią wykryć podróbkę. Stwierdziła, że podróbek nie można wykryć w około 50 procentach przypadków” – powiedział naukowiec.

Deepfakes – fałszywe filmy

Sztucznie generowane filmy wideo, znane jako deepfakes, już istnieją. Zostały wykorzystane do zademonstrowania łatwości tworzenia takich filmów oraz zademonstrowania mocy technologii AI. Jeszcze wcześniejsza generacja technologii wykorzystująca znane oprogramowanie, takie jak Photoshop, może tworzyć fałszywe obrazy.

Social media znajdują się pod dużą presją. Muszą ograniczyć rosnący problem zmanipulowanych treści tworzonych przy użyciu obecnych i powstających technologii. Facebook powiedział, że zakazałby tworzenia fałszywych filmów, które powstają przy pomocy narzędzi sztucznej inteligencji. Nie usunąłby jendnak lekko zmienionych filmów lub mediów zaczerpniętych z prawdziwych wydarzeń.

  O twarzy, która stała się memem

YouTube, należący do Google, powiedział, że nie zezwoli na deepfakes związane z wyborami w 2020 roku. W ubiegłym roku usunął również sfabrykowane wideo Nancy Pelosi przemawiającej na publicznym wydarzeniu. Wideo zdawało się pokazywać, że jest ona pijana. Facebook pozwolił, aby wideo pozostało na jego platformie.

Oszuści w natarciu

„Pindrop z siedzibą w Atlancie założył bazę danych znanych oszustów, którzy dzwonią do banków, udając prawdziwych klientów. Następnie firma dzieli się tymi informacjami z instytucjami finansowymi. Wszystko to w celu znalezienia i powstrzymania takich osób” – powiedział Mark Horne, dyrektor ds. marketingu w firmie. Firma planuje teraz zastosować tę technologię w celu ochrony dyrektorów dużych firm przed padnięciem ofiarą oszustwa głosowego.

W marcu 2019 r. dyrektor generalny brytyjskiej spółki zależnej niemieckiej firmy pomyślał, że rozmawia ze swoim szefem. Szef poprosił brytyjskiego wykonawcę o przesłanie około 244 tys. dolarów węgierskiemu dostawcy. Dzwoniący powiedział, że to pilne i poprosił o przesłanie pieniędzy w ciągu godziny. Okazało się, że było to oszustwo.

Brytyjskie organy ścigania prowadzące dochodzenie w tej sprawie stwierdziły, że dzwoniący zastosował technologię sztucznej inteligencji, aby naśladować głos niemieckiego biznesmena. The Wall Street Journal donosi, że pieniądze wysłane na Węgry zostały później przekazane do Meksyku.

Podobna taktyka może być stosowana również w wyborach w 2020 r. do tworzenia fałszywych audio z udziałem polityków. Takie nagrania będą stwarzały pozory, że polityk mówi rzeczy, których nigdy nie powiedział. Klipy takie będą rozpowszechniane w mediach społecznościowych.