Nowe badania przeprowadzone przez firmę Deeptrace zajmującą się cyberbezpieczeństwem wykazały, że w przeważającej większości filmy typu Deep Fake przedstawiają pornografię.

Nowe badania przeprowadzone przez firmę Deeptrace zajmującą się cyberbezpieczeństwem wykazały, że w przeważającej większości filmy typu Deep Fake przedstawiają pornografię.

„Pojawienie się tak dokładnych podróbek zmusza nas do pewnej refleksji – materiały wideo i audio nie są już tak wiarygodnymi zapisami rzeczywistości jak kiedyś.”

Deeptrace Labs z Amsterdamu stworzyła swoją najnowszą białą księgę, The State of Deepfakes: Landscape, Threats and Impact. Raport mówi, jak potencjalnie destrukcyjna stała się nowoczesna technologia multimedialna, mimo że jest stosunkowo nowym zajwiskiem.

Deepfakes jako termin po raz pierwszy pojawił się w wątku Reddit poświęconym technologii w 2017 roku i szybko został zauważony. Korzystając z różnych technik uczenia maszynowego, osoby posiadające odpowiednie umiejętności mogą manipulować materiałem wideo, aby ludzie występujący w nim mówili i robili rzeczy, które nigdy nie miały miejsca. Technologia eksplodowała. Liczba fałszywych filmów online prawie podwoiła się w ciągu ostatnich siedmiu miesięcy, osiągając łączną liczbę 14 678 zweryfikowanych przypadków.

Zjawisko, które krzywdzi kobiety

Badanie wykazało, że aż 96% wszystkich treści typu deepfake w Internecie było pornografią, a niemal wszystkie osoby występujące w nich to aktorki i muzycy. Brytyjska aktorka, muzycy z Korei Południowej i aktorka amerykańska – między tymi czterema kobietami znaleziono około 684 nieprawdziwych filmów pornograficznych, które wygenerowały łącznie 19,1 miliona wyświetleń.

Pornografia Deepfake to zjawisko, które atakuje kobiety i szkodzi kobietom” – czytamy w raporcie. „Mimo, że zjawisko to jest stosunkowo nowe, pornografia zawierające tak głębokie manipulacje przyciągnęła już dużą oglądalność tylko w czterech najlepszych witrynach dla dorosłych.

Większość materiału jest hostowana na dedykowanych stronach internetowych dla dorosłych, które naukowcy wzięli pod lupę. Pornografia typu deepfake może „stanowić rosnącą szansę biznesową” dla gospodarzy takich witryn, ponieważ wszystkie z nich zawierają jakąś formę reklamy.

Aplikacja rozbierająca ludzi

Naukowcy przeanalizowali także kontrowersyjną aplikację DeepNude jako studium przypadku. DeepNude to aplikacja komputerowa, która pozwala użytkownikom dosłownie rozbierać zdjęcia  kobiet za pomocą algorytmów głębokiego uczenia maszynowego.

Algorytmy te nie mogą wykonywać takie zadania nie tylko na zdjęciach kobiet, ale też na obrazach mężczyzn, ponieważ zostały specjalnie wyuczone pod tym względem. Strona internetowa aplikacji została uruchomiona w czerwcu 2019 r., ale jej twórcy szybko ją zamknęli ze względu na obawy, że zostanie ona niewłaściwie wykorzystana. Kopie aplikacji nadal pozostawały w Internecie, początkowo hostowane na GitHubie, zanim całkowicie zbanowano kopie kodu aplikacji. Jednak nieograniczone możliwości Internetu w połączeniu z możliwością ciągłego tworzenia kolejnych cyfrowych kopii sprawiły, że całkowite wyeliminowanie apki jest niemożliwe.

„Moment, w którym DeepNude został udostępniony do pobrania, był poza kontrolą twórców i program ten jest teraz bardzo trudny do wycofania z obiegu. Oprogramowanie prawdopodobnie będzie się nadal rozprzestrzeniać i mutować jak wirus, dzięki czemu stanie się popularnym narzędziem do tworzenia spreparowanych multimediów.”

Twórcy Deeptrace zauważają, że ​​większość uwagi mediów wokół negatywnych implikacji deepfakes koncentruje się również na jego potencjale wpływania na procesy demokratyczne i wzmożone cyberataki zarówno na osoby fizyczne, jak i firmy.