Wizerunek polityka z polskiego Sejmu wykorzystano w deepfake. Opisujemy zagrożenia i środki ostrożności dla dziennikarzy oraz użytkowników

16 listopada, 2023

(Prawie) Wszystko, co chcesz wiedzieć o deepfake

W ostatnich latach termin deepfake, czyli technologia zaprzęgniętych algorytmów maszynowych do podrabiania treści audio-wizualnych, stała się przedmiotem coraz większego zainteresowania i obaw. Wygłupy pewnego internauty, który z wątpliwą korzyścią społeczną wykorzystał swój wolny czas, sprowokowały mnie do napisania krótkiego poradnika skierowanego do dziennikarzy oraz użytkowników Internetu w kontekście przestudiowania zagrożenia i poznania narzędzi, które mogą pomóc ujawnieniu podrobionego wideo – deepfake.

Przykład dotyczy wykorzystania wizerunku nowo powołanego marszałka Sejmu RP – Szymona Hołowni.

 

Dlaczego deepfake to groźne zjawisko i jak się przed tym bronić?

Szymon Hołownia Patostreamer deepfake

Celowo nie będziemy linkować do tego wulgarnego materiału. Kto znajdzie, ten znajdzie. Wskazówkę pozostawiamy na zrzucie ekranu. Co do autora, który wykorzystał wizerunek polityka – zna się na rzeczy, dlatego zachęcamy go do opracowania publikacji społecznie pożytecznych w zakresie deepfake.

 

Krótko o DeepFake – wyjaśnienie

Termin deep fake (pisany też deepfake) zyskiwał na popularności na skutek dostępu do darmowych algorytmów, które są wykorzystywane przez cyberprzestępców do podszywania się pod różne osobistości.

Eksperci nie mają wątpliwości, że deepfake, za sprawą podrabiania głosu i obrazu, jest zagrożeniem niekiedy bardzo trudnym do wykrycia i blokowania, jeżeli producenci rozwiązań IT nie podejmą konkretnych kroków zapobiegawczych. Tym bardziej od strony prawnej nie jest to zagadnienie dla amatorów, ponieważ algorytmy do wykrywania deepfake, jeżeli będą wdrożone na masową skalę, mogą być nadużywane i wykorzystywane politycznie, tak jak dzieje się to na profilach społecznościowych wielkich graczy oraz YouTube.

W naszej opinii deepfake jest całkowicie niekontrolowanym zjawiskiem. W wykrywaniu oszustw tradycyjne usługi anty-spamowe i anty-phishingowe radzą już sobie całkiem dobrze. Tym niemniej oprogramowanie do blokowania deepfake (dla różnych systemów operacyjnych) po prostu jeszcze nie istnieje. Trudno powiedzieć, czy w ogóle będzie możliwe jego opracowanie i wdrożenie na masową skalę. A jeżeli tak, to za jaką „cenę”?

Co prawda twórcy filmów już dzisiaj mogą stosować pewne triki, aby zabezpieczyć się przed podrabianiem – by ktoś (albo maszynowo) mógł odróżnić fałszywy materiał od prawdziwego. Na przykład mogą używać zaszytych w takim pliku haszy kryptograficznych w określonych odstępach czasu: jeżeli wideo zostanie podrobione, to hasz ulegnie zmianie.

Innym sposobem jest użycie programu, który wstawi specjalnie zaprojektowane cyfrowe „artefakty” do filmu podczas jego tworzenia w programie wideo. Może to być również realizowane w momencie uploadowania filmu do Internetu, przy czym to rozwiązanie jest zarezerwowane dla wielkich graczy w serwisach pokroju YouTube. Finalnie uploadowany film deepfake nie będzie zawierał pewnych „artefaktów” nagrania rzeczywistego, co podniesie alarm.

emmanuel macron

Deepfake, wykorzystując zaawansowane algorytmy uczenia maszynowego, pozwala na tworzenie realistycznie wyglądających, ale fałszywych treści wideo, audio, zdjęć. Wykorzystanie tej technologii jest niebezpieczne w celu manipulacji informacjami i wprowadzeniu w błąd społeczeństwa.

W opisywanym przypadku podrobione wideo z Sejmu RP może to prowadzić do dezinformacji oraz do zaszkodzenia reputacji politykowi.

 

Co mogą zrobić operatorzy i użytkownicy?

Aby skutecznie zwalczać to zjawisko, konieczne są pewne środki techniczne na różnych poziomach, zarówno na poziomie operatorów usług cyfrowych, jak i na poziomie końcowego użytkownika. W praktyce nie jest to takie proste…

Na poziomie usług operatorów istnieje potrzeba wdrażania zaawansowanych systemów do wykrywania deepfake w przesyłanych treściach wideo. Kolejnym krokiem może być współpraca z firmami specjalizującymi się w bezpieczeństwie cyfrowym w celu rozwijania nowoczesnych narzędzi wykrywających takie treści. Ponadto, operatorzy powinni angażować się w edukację społeczeństwa, informując o zagrożeniach związanych z deepfake i promując umiejętność krytycznego myślenia.

Na poziomie końcowego użytkownika kluczowe jest zwiększanie świadomości na temat deepfake oraz promowanie dobrych praktyk w zakresie korzystania z mediów społecznościowych. Edukacja cyfrowa, informowanie o potencjalnych zagrożeniach i dostarczanie narzędzi do weryfikacji autentyczności treści, mogą znacząco zwiększyć odporność społeczeństwa na manipulację przy użyciu deepfake.

Podsumowując walka z deepfake wymaga współpracy na wielu frontach. Operatorzy, eksperci ds. bezpieczeństwa, rządy i społeczeństwo muszą wspólnie działać, aby rozwijać skuteczne środki obronne i promować świadomość, by zminimalizować potencjalne zagrożenia związane z fałszywymi treściami.’

 

Jako społeczeństwo musimy mieć nad tym kontrolę, aby opracowana broń przeciwko „fałszywym treściom” nie była wykorzystana przeciwko obywatelom (wprowadzanie cenzury tylnymi drzwiami).

 

Pomocne narzędzia w wykrywaniu deep fake

Co prawda istnieją projekty badawcze oraz usługi online, które próbują pomóc w rozpoznawaniu potencjalnych manipulacji w treściach wideo i zdjęciach, ale nie zawsze są one darmowe i nie zawsze są łatwe w użyciu.

Reality Defender:

Reality Defender to projekt badawczy stworzony przez badaczy z MIT. Choć nadal jest w fazie rozwoju, oferuje narzędzie do analizy wideo w poszukiwaniu potencjalnych deepfake.

Link:

				
					https://realitydefender.com/
				
			

InVID Verification Plugin:

InVID to narzędzie do weryfikacji treści w czasie rzeczywistym. Jako wtyczka do przeglądarki może pomóc w analizie treści wideo i zdjęć.

Link:

				
					https://www.invid-project.eu/tools-and-services/invid-verification-plugin/ 
				
			

Jawny kod oprogramowania od firmy FaceOnLive:

Możesz wykorzystać kod źródłowy opracowany przez FaceOnLive do zaprogramowania własnej aplikacji rozpoznawania twarzy pod różne systemy operacyjne.

Link:

				
					https://github.com/FaceOnLive 
				
			

Jak samodzielnie rozpoznać deepfake?

Już dzisiaj warto zwracać uwagę na aspekty, takie jak:

  • Nienaturalny, „szarpany ruch” ust na filmie.
  • Zmiany w oświetleniu pomiędzy kolejnymi klatkami.
  • Zmiany w odcieniu skóry.
  • Niespokojne mruganie oczami w stosunku do kontekstu materiału wideo.
  • Źle dobrana synchronizacja mowy ciała z głosem.
  • Nienaturalny głos.
  • Inne cyfrowe artefakty na obrazie – szczególnie słaba jakość wideo.

Oprócz bardziej oczywistych, cyfrowych znaków, które mogą pomóc w namierzeniu oszustwa, jak zawsze trzeba zadbać o cyfrową edukację:

  • Sprawdzaj, kto opublikował film, zdjęcie. Czy jest to wiarygodne źródło? Czy to źródło zazwyczaj publikuje treści podobnego typu? Czy treść jest związana z rzeczywistymi wydarzeniami?
  • Sprawdź inne źródła, które mogą potwierdzić lub zaprzeczyć publikacji.
  • Użyj narzędzi do wykrywania deepfake: niektóre z nich mogą wykrywać różnice w tle, zmanipulowany dźwięk i inne.

Zjawisko deepfake może być pewnym wyzwaniem, dlatego najlepiej zawczasu poinformować najbliższych o zagrożeniu i nie ufać we wszystko, co zostało napisane lub powiedziane w Internecie. Kieruj się zasadą „ufaj, ale sprawdzaj”. Tym samym przeciwdziałaj zjawisku fake news.

Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.
Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.

PODZIEL SIĘ:

guest
0 komentarzy
Inline Feedbacks
View all comments

Wyrażam zgodę na przesłanie oferty drogą telefoniczną przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

Wyrażam zgodę na przesłanie oferty drogą mailową przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

[ninja_tables id=”27481″]