Przykłady DeepFake: nowe narzędzie w rękach cyberprzestępców

21 października, 2021

Termin „deep fake”, „deepfake” zyskuje na popularności na skutek darmowych algorytmów, które są wykorzystywane przez cyberprzestępców do podszywania się pod prominentne osobistości. Ekspercie nie mają wątpliwości, że deepfake, za sprawą podrabiania głosu i obrazu, będzie zagrożeniem bardzo trudnym do zatrzymania, jeżeli producenci rozwiązań bezpieczeństwa,nie podejmą konkretnych kroków w ciągu najbliższych dwóch lat.

W naszej opinii deepfake jest całkowicie niekontrolowanym obszarem przez produkty i usługi skanujące siec Web. W wykrywaniu oszustw lub podszywaniu się, usługi anty-spamowe, anty-phishingowe, radzą już sobie całkiem dobrze. Tym niemniej oprogramowanie do blokowania deepfake (dla różnych systemów operacyjnych) po prostu jeszcze nie istnieje.  Trudno powiedzieć, czy w ogóle będzie możliwe jego opracowanie. A jeżeli tak, to za jaką cenę? Co prawda firmy z sektora IT już dzisiaj mogą stosować pewne triki, aby odróżnić fałszywy materiał od prawdziwego. Na przykład mogą używać zaszytych w takim pliku haszy kryptograficznych, w określonych odstępach czasu. Jeżeli wideo zostanie podrobione, to hasze ulegną zmianie.

Innym sposobem na odparcie deepfake jest użycie programu, który wstawi specjalnie zaprojektowane cyfrowe „artefakty” do filmu. Wszystko po to, by ukryć wzory pikseli, które wykorzystywane są przez oprogramowanie do skanowania twarzy.

emmanuel macron
DeepFake i FakeNews to zjawiska bardzo do siebie podobne.

Przykłady deepfake

Wyobraźmy sobie, że w czasie rzeczywistym produkt lub usługa w chmurze będzie musiała przetworzyć porcję wideo, do której odwołuje się użytkownik za pośrednictwem przeglądarki. Jeszcze większy chaos implikuje deepfake przez połączenie telefoniczne, ponieważ konieczne jest pobranie (lub przetwarzanie tu i teraz) próbki głosu, materiału wideo, co niestety ma swoje konsekwencje w RODO. Ochrona danych osobowych nie jest gotowa na zjawisko deepfake.

1. Najnowszym przykładem wykorzystania deepfake (bazującego na sztucznej inteligencji i maszynowym uczeniu) jest podszycie się pod biznesmena w Emiratach Arabskich. Złodzieje użyli próbkę głosu przedsiębiorcy i przetworzyli ją na rozmowę, której on sam nie autoryzował. Pracownik banku „nie miał wątpliwości”, że po drugiej stronie ma do czynienia z prawdziwym klientem, dlatego przyjął dyspozycję na przelew 30 milionów dolarów. Oczywiście na wskazane przez cyberprzestępców konto bankowe!

2. Utworzenie szkoleniowego filmu przez aktora Jordana Peele’a (podszywanie się w wideo pod Baracka Obamę).

3. Zmanipulowane nagranie Marka Zuckerberga, który mówi o tym, jak Facebook „kontroluje przyszłość” poprzez kradzież danych użytkowników. Oryginalne wideo pochodzi z przemówienia, które wygłosił na temat ingerencji Rosji w wybory w USA.

4. I dużo więcej przykładów.

Porównanie dwóch filmów: prawdziwego i fałszywego

Jak samodzielnie rozpoznać deepfake?

To wcale nie jest łatwe. Jeszcze przez jakiś czas filmy deepfake będą na niższym poziomie technologicznym, niż będzie to za kilka lat. Już dzisiaj warto zwracać uwagę na aspekty, takie jak:

  • Nienaturalny, „szarpany ruch” na filmie.
  • Zmiany w oświetleniu pomiędzy kolejnymi klatkami.
  • Zmiany w odcieniu skóry.
  • Niespokojne mruganie oczami w stosunku do kontekstu materiału wideo.
  • Źle dobrana synchronizacja mowy ciała z głosem.
  • Nienaturalny głos.
  • Inne cyfrowe artefakty na obrazie.

Oprócz bardziej oczywistych cyfrowych znaków, które mogą pomóc w namierzeniu oszustwa, jak zawsze trzeba zadbać o cyfrową edukację samego siebie oraz najbliższych.

Zjawisko deepfake może stwarzać prawdziwe wyzwanie, dlatego najlepiej zawczasu poinformować najbliższych o zagrożeniu i nie ufać we wszystko, co zostało napisane lub powiedziane w Internecie. Kieruj się zasadą „ufaj, ale sprawdzaj”. Tym samym przeciwdziałaj zjawisku fake news (zob. polscy naukowcy pracują nad systemem AntyFakeNews do jego wykrywania).

Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.
Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.

PODZIEL SIĘ:

guest
0 komentarzy
Inline Feedbacks
View all comments

Wyrażam zgodę na przesłanie oferty drogą telefoniczną przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

Wyrażam zgodę na przesłanie oferty drogą mailową przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

[ninja_tables id=”27481″]