5 rodzajów zagrożeń, na które sztuczna inteligencja może mieć największy wpływ

30 stycznia, 2024
deepfake

Obok zwiększania liczby deepfake’ów w sieci czy szeroko zakrojonych oszustw, największe zagrożenie w tym roku będzie stanowiła automatyzacja złośliwego oprogramowania. Według Mikko Hyppönen, eksperta ds. cyberbezpieczeństwa w firmie WithSecure, rozgrywka pomiędzy dobra i złą AI wystartuje już wkrótce, a jej skutki mogą być niepokojące dla wszystkich.

Na co powinniśmy szczególnie uważać w dobie maszynowego AI?

1. Deepfake

Deepfake to technika polegająca na tworzeniu fałszywych obrazów lub filmów, które mają imitować wygląd i głos prawdziwych osób lub zdarzeń (np. gdy ktoś zrobił deepfake z Szymonem Hołownią). Może być wykorzystywana do manipulowania opinią publiczną, szantażu lub kradzieży tożsamości. Chociaż wyrafinowane oszustwa z wykorzystaniem deepfake nie są jeszcze tak popularne jak inne cyberataki, to jest jedynie kwestią czasu, kiedy ich liczba wzrośnie.

2. Deep scam

W tym przypadku określenie deep (ang. głęboki) odnosi się do ogromnej skali oszustwa, za którą odpowiada sztuczna inteligencja. Oszustwa tego typu mogą obejmować przestępstwa inwestycyjne, phishingowe, ataki ransmoware…i wszelkie inne, w których można zastosować automatyzację procesów. W dobie AI wygenerowanie unikatowego i realistycznego obrazu nie stanowi większego problemu.

3. Duże modele językowe w rękach cyberprzestępców

Sztuczna inteligencja już teraz pisze złośliwe oprogramowanie. Duże modele językowe (ang. large language models, LLM), dzięki którym działa np. ChatGPT, w rękach cyberprzestępców stanowią poważne zagrożenie dla ogólnoświatowego bezpieczeństwa cyfrowego. Wykorzystując LLM cyberprzestępcy mogą automatycznie generować inny złośliwy kod dla każdego celu, przez co takie ataki są jeszcze trudniejsze do wykrycia.

4. Luki zero-day

Luka systemowa zero day (inaczej: exploit zero-day) to taka, o której nie wiedzą twórcy oprogramowania lub która nie została jeszcze upubliczniona i naprawiona. Cyberprzestępcy mogą wykorzystywać te luki do m.in. akcji phishingowych, penetracji systemów i zainstalowania złośliwego oprogramowania czy kradzieży danych. Za pomocą sztucznej inteligencji nie tylko programiści mogą sprawniej wyszukiwać luki zero-day w swoim kodzie – cyberprzestępcy również wykorzystują ją w tym celu.

5. Zautomatyzowane złośliwe oprogramowanie

Jak wskazuje ekspert WithSecure, można się spodziewać, że cyberprzestępcy zwiększając skuteczność swoich ataków, będą dążyli do pełnego zautomatyzowania swoich kampanii wykorzystujących złośliwe oprogramowanie. Malware napędzane przez AI będzie w stanie samoistnie zmieniać swój kod, uczyć się na własnych błędach i naprawiać je, aby uniknąć wykrycia i przystosować się do nowego środowiska, w którym działa. Skutkiem tego byłoby rozpoczęcie rozgrywki pomiędzy dobrą a złą sztuczną inteligencję.

Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.
Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.

PODZIEL SIĘ:

guest
0 komentarzy
Inline Feedbacks
View all comments

Wyrażam zgodę na przesłanie oferty drogą telefoniczną przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

Wyrażam zgodę na przesłanie oferty drogą mailową przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

[ninja_tables id=”27481″]