AI budzi obawy – 89% szefów działów IT dostrzega zagrożenia dla bezpieczeństwa

12 lutego, 2025

Analizy ekspertów wskazują, że cyberprzestępcy wciąż są sceptyczni wobec GenAI. Wykorzystują ją głównie do automatyzacji prostych zadań oraz analizy danych. Jednocześnie 98% firm wdrożyło już jakieś rozwiązania ochronne bazujące na sztucznej inteligencji. Kierownicy działów IT wyrażają jednak obawy dotyczące nadmiernego polegania na AI. 84% jest zaniepokojonych wynikającą z tego presją na redukcję zatrudnienia specjalistów ds. cyberbezpieczeństwa. Aż 89% wskazuje na potencjalne zagrożenia związane z lukami w zabezpieczeniach narzędzi bazujących na AI.

 

Do czego przestępcy używają AI?

Podczas badania forów hakerskich analitycy z zespołu Sophos X-Ops zaobserwowali, że wielu cyberprzestępców pozostaje sceptycznie nastawionych do GenAI. Liczba dyskusji na ten temat – w porównaniu z „tradycyjnymi” wątkami, takimi jak złośliwe oprogramowanie czy Access-as-a-Service – jest ograniczona. Badacze zaobserwowali jednak niewielką, ale znaczącą zmianę w sposobie wykorzystania AI przez cyberprzestępców. Mimo utrzymującego się sceptycyzmu, niektórzy hakerzy wykorzystują AI do automatyzacji prostych zadań, takich jak projektowanie fałszywych witryn i redagowanie wiadomości do masowej wysyłki czy analiza danych. W cyberprzestępczym podziemiu może więc istnieć rynek na niektóre zastosowania GenAI, ale prawdopodobnie będą to przede wszystkim narzędzia oszczędzające hakerom czas, a nie ułatwiające tworzenie nowych zagrożeń.

 

Działy IT obawiają się luk i redukcji zatrudnienia

Modele deep learning mogą w ułamku sekundy identyfikować złośliwe pliki, zaś GenAI – tworzyć podsumowanie incydentów czy zalecać analitykowi kolejne kroki do podjęcia. Jednak niskiej jakości lub niewłaściwie wdrożone modele sztucznej inteligencji mogą wprowadzić też znaczne ryzyko dla cyberbezpieczeństwa firm. Dostrzegają to kierownicy działów IT: aż 89% z nich wyraża obawy, że potencjalne luki w narzędziach GenAI stosowanych w cyberbezpieczeństwie mogą zaszkodzić ich firmie. Przedsiębiorstwa zdają sobie również sprawę z konsekwencji nadmiernego polegania na AI. 84% badanych jest zaniepokojonych wynikającą z tego presją na redukcję zatrudnienia specjalistów ds. cyberbezpieczeństwa (42% jest bardzo zaniepokojonych). 87% wyraża obawy związane z wynikającym z tego rozmyciem odpowiedzialności za cyberbezpieczeństwo.

Firmy „nie wiedzą, czego nie wiedzą”

Eksperci Sophos wskazują, że wiele firm może nie posiadać wystarczającej wiedzy do rzetelnej oceny dopuszczalnego poziomu ryzyka. Niemal wszystkie badane przedsiębiorstwa deklarują, że dokonują oceny procesów i kontroli zabezpieczeń wykorzystywanych w rozwoju narzędzi GenAI. Wymaga to jednak zaawansowanego poziomu wiedzy na temat sztucznej inteligencji oraz przejrzystości ze strony dostawców, ci zaś rzadko udostępniają pełne procesy wdrażania rozwoju GenAI, a zespoły IT mają ograniczony wgląd w najlepsze praktyki w zakresie tworzenia AI.

 

GenAI receptą na wypalenie zawodowe, ale w mniejszych firmach

Korzyści, jakie firmy chcą osiągnąć poprzez wdrożenie AI w obszarach dotyczących cyberbezpieczeństwa, różnią się w zależności od ich wielkości, a więc i odmiennych wyzwań, z którymi się one mierzą. Największe przedsiębiorstwa (zatrudniające ponad 1000 osób) skupiają się głównie na zwiększaniu poziomu ochrony. Podmioty zatrudniające od 100 do 249 pracowników – na poprawie wyników biznesowych. Natomiast mniejsze firmy (50-99 pracowników) liczą przede wszystkim na ograniczenie zjawiska wypalenia zawodowego. W ujęciu ogólnym aspekt ten uplasował się najniżej na liście priorytetów. Tak duża różnica może wynikać z faktu, że braki kadrowe oraz nieobecność pracowników są bardziej dotkliwe dla mniejszych przedsiębiorstw.

Firmy powinny też patrzeć na sztuczną inteligencję przez pryzmat człowieka – skoncentrować się na tym, jak AI może wspierać pracowników, zajmując się niskopoziomowymi, powtarzalnymi zadaniami i dostarczając im szczegółowych informacji. W sytuacji, gdy na całym świecie brakuje specjalistów ds. cyberbezpieczeństwa, sztuczna inteligencja może być pomocna zwłaszcza w ograniczaniu ich rotacji.

Czy ten artykuł był pomocny?

Oceniono: 0 razy

Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.
Picture of Adrian Ścibor

Adrian Ścibor

W ramach działań związanych z cyberbezpieczeństwem odpowiada w AVLab za przeprowadzanie testów rozwiązań ochronnych przed zagrożeniami. Opracowuje strategie oraz narzędzia, które pomagają w ochronie danych i systemów przed cyberatakami. Współuczestnik międzynarodowej grupy non-profit AMTSO, która zrzesza ekspertów IT.

PODZIEL SIĘ:

guest
0 komentarzy
najstarszy
najnowszy oceniany
Inline Feedbacks
View all comments

Wyrażam zgodę na przesłanie oferty drogą telefoniczną przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

Wyrażam zgodę na przesłanie oferty drogą mailową przez IT Partners security sp. z o.o. z siedzibą Katowicach ul.Padereskiego 35 na podany przeze mnie adres e-mail zgodnie z ustawą z dnia 10 maja 2018 roku o ochronie danych osobowych (Dz. Ustaw z 2018, poz. 1000) oraz zgodnie z Rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (RODO).

[ninja_tables id=”27481″]