Termin „deep fake”, „deepfake” zyskuje na popularności na skutek darmowych algorytmów, które są wykorzystywane przez cyberprzestępców do podszywania się pod prominentne osobistości. Ekspercie nie mają wątpliwości, że deepfake, za sprawą podrabiania głosu i obrazu, będzie zagrożeniem bardzo trudnym do zatrzymania, jeżeli producenci rozwiązań bezpieczeństwa,nie podejmą konkretnych kroków w ciągu najbliższych dwóch lat.
W naszej opinii deepfake jest całkowicie niekontrolowanym obszarem przez produkty i usługi skanujące siec Web. W wykrywaniu oszustw lub podszywaniu się, usługi anty-spamowe, anty-phishingowe, radzą już sobie całkiem dobrze. Tym niemniej oprogramowanie do blokowania deepfake (dla różnych systemów operacyjnych) po prostu jeszcze nie istnieje. Trudno powiedzieć, czy w ogóle będzie możliwe jego opracowanie. A jeżeli tak, to za jaką cenę? Co prawda firmy z sektora IT już dzisiaj mogą stosować pewne triki, aby odróżnić fałszywy materiał od prawdziwego. Na przykład mogą używać zaszytych w takim pliku haszy kryptograficznych, w określonych odstępach czasu. Jeżeli wideo zostanie podrobione, to hasze ulegną zmianie.
Innym sposobem na odparcie deepfake jest użycie programu, który wstawi specjalnie zaprojektowane cyfrowe „artefakty” do filmu. Wszystko po to, by ukryć wzory pikseli, które wykorzystywane są przez oprogramowanie do skanowania twarzy.
Przykłady deepfake
Wyobraźmy sobie, że w czasie rzeczywistym produkt lub usługa w chmurze będzie musiała przetworzyć porcję wideo, do której odwołuje się użytkownik za pośrednictwem przeglądarki. Jeszcze większy chaos implikuje deepfake przez połączenie telefoniczne, ponieważ konieczne jest pobranie (lub przetwarzanie tu i teraz) próbki głosu, materiału wideo, co niestety ma swoje konsekwencje w RODO. Ochrona danych osobowych nie jest gotowa na zjawisko deepfake.
1. Najnowszym przykładem wykorzystania deepfake (bazującego na sztucznej inteligencji i maszynowym uczeniu) jest podszycie się pod biznesmena w Emiratach Arabskich. Złodzieje użyli próbkę głosu przedsiębiorcy i przetworzyli ją na rozmowę, której on sam nie autoryzował. Pracownik banku „nie miał wątpliwości”, że po drugiej stronie ma do czynienia z prawdziwym klientem, dlatego przyjął dyspozycję na przelew 30 milionów dolarów. Oczywiście na wskazane przez cyberprzestępców konto bankowe!
2. Utworzenie szkoleniowego filmu przez aktora Jordana Peele’a (podszywanie się w wideo pod Baracka Obamę).
3. Zmanipulowane nagranie Marka Zuckerberga, który mówi o tym, jak Facebook „kontroluje przyszłość” poprzez kradzież danych użytkowników. Oryginalne wideo pochodzi z przemówienia, które wygłosił na temat ingerencji Rosji w wybory w USA.
4. I dużo więcej przykładów.
Porównanie dwóch filmów: prawdziwego i fałszywego
Jak samodzielnie rozpoznać deepfake?
To wcale nie jest łatwe. Jeszcze przez jakiś czas filmy deepfake będą na niższym poziomie technologicznym, niż będzie to za kilka lat. Już dzisiaj warto zwracać uwagę na aspekty, takie jak:
- Nienaturalny, „szarpany ruch” na filmie.
- Zmiany w oświetleniu pomiędzy kolejnymi klatkami.
- Zmiany w odcieniu skóry.
- Niespokojne mruganie oczami w stosunku do kontekstu materiału wideo.
- Źle dobrana synchronizacja mowy ciała z głosem.
- Nienaturalny głos.
- Inne cyfrowe artefakty na obrazie.
Oprócz bardziej oczywistych cyfrowych znaków, które mogą pomóc w namierzeniu oszustwa, jak zawsze trzeba zadbać o cyfrową edukację samego siebie oraz najbliższych.
Zjawisko deepfake może stwarzać prawdziwe wyzwanie, dlatego najlepiej zawczasu poinformować najbliższych o zagrożeniu i nie ufać we wszystko, co zostało napisane lub powiedziane w Internecie. Kieruj się zasadą „ufaj, ale sprawdzaj”. Tym samym przeciwdziałaj zjawisku fake news (zob. polscy naukowcy pracują nad systemem AntyFakeNews do jego wykrywania).
Czy ten artykuł był pomocny?
Oceniono: 10 razy