Koncepcja „złej” i „dobrej” sztucznej inteligencji jest często rozpatrywana w kontekście etycznym i moralnych przy rozwijaniu algorytmów maszynowego uczenia na ogromnych zbiorach danych. To ludzie decydują o tym, jakie zadania i cele zostaną przypisane sztucznej inteligencji. Z tego powodu jednym z wyzwań dla ludzkości jest wdrożenie odpowiednich mechanizmów i regulacji, które pomogą zapobiegać negatywnym skutkom związanym z „rozpędzaniem się” SI. Ostatecznie odpowiedzialne zarządzanie rozwojem sztucznej inteligencji będzie wymagało zaangażowania zarówno twórców, jak i użytkowników, co zresztą jest w interesie dobra publicznego i czerpania z nowoczesnych technologii.
Sztuczna inteligencja lub precyzując, algorytmy uczenia maszynowego, gwałtownie przechodzą ze strefy science-fiction do użytkowego mainstreamu. Pierwsze cyberataki na szeroką skalę z wykorzystaniem sztucznej inteligencji nie są jeszcze znane, wszystko jest dopiero przed nami. Jednak budowanie świadomości i uwzględnianie nowego modelu zagrożeń oraz zabezpieczenia są potrzebne już teraz.
Od lat opracowujemy systemy cyberbezpieczeństwa bazujące na uczeniu maszynowym. W 2005 roku w naszych laboratoriach zaczęliśmy rozwijać automatyzację analizy. Stopniowo te projekty przekształciły się w pełnowartościowe struktury uczenia maszynowego. Od tego momentu, tylko kwestią czasu było kiedy cyberprzestępcy zrobią to samo. Nastąpiło to teraz, po 18 latach. Zaczęliśmy obserwować, że sztuczna inteligencja wpiera złośliwe oprogramowanie.
Automatyzacja ochrony przed cyberzagrożeniami
Specjaliści ds. cyberbezpieczeństwa automatyzują swoją pracę od dłuższego czasu. Dzięki temu mogą szybko wykrywać, analizować i reagować na incydenty. Do tej pory odbiegało to od działalności hakerów, którzy musieli projektować i wdrażać swoje ataki ręcznie. Gdy już zostali zablokowani, wszelkie modyfikacje strategii czy kodu wprowadzali wolniej, co dawało przewagę osobom odpowiedzialnym za bezpieczeństwo firm i organizacji.
SI wykorzystywana w cyberatakach
Zautomatyzowane kampanie, które wykorzystują złośliwe oprogramowanie, znacząco zmienią szybkość reakcji hakerów. Dostępna jest już technologia umożliwiająca automatyczne prowadzenie ataku i omijanie systemów ochronnych. Jak na razie nie obserwujemy wykorzystywania jej przez cyberprzestępców. Będzie jednak z pewnością zauważalne gdy się to stanie. Szybkość reakcji hakerów zmieni z się z ludzkiej na maszynową.
Deepfakes, czyli fałszywe obrazy
Gdy mówimy o wykorzystaniu SI w działalności przestępczej, najczęściej na myśl przychodzą deepfakes. Coraz łatwiej jest stworzyć realistyczne obrazy osób, które nie istnieją. Wykorzystywane są one w licznych oszustwach, np. na portalach randkowych. Wciąż na niewielką skalę wykorzystywane jest tworzenie fałszywych obrazów prawdziwych osób, podrabianie głosów czy postaci w filmach. Nie ma jednak wątpliwości, że to zjawisko będzie się nasilało.
Modele językowe w służbie hakerów
Zaawansowane modele językowe, takie jak ChatGPT, są w stanie tworzyć treści nie tylko w językach naturalne, ale również we wszystkich językach programowania. Daje to przestrzeń do działalności przestępczej. Przykładem użycia takiego samoreplikującego się kawałka kodu, który potrafi wykorzystać duże modele językowe do tworzenia nieskończonych wariacji samego siebie jest malware który otrzymałem mailem od użytkownika SPTH.
Samoreplikujący się kod
SPTH to hobbysta tzw. „starej szkoły wirusów”, znany z projektowania rozwiązań, które przełamują schematy. Stworzył długą listę złośliwych programów takich jak pierwsze złośliwe oprogramowanie infekujące DNA, „Mycoplasma Mycoides SPTH-syn1.0”. SPTH prawdopodobnie nie jest zainteresowany wykorzystaniem złośliwego oprogramowania do wyrządzania szkód lub kradzieży pieniędzy.
Stworzony przez niego samoreplikujący się kod nosi nazwę LLMorpher. Twórca pisze o nim:
„Idziemy dalej i pokazujemy, jak zakodować samoreplikujący się kod całkowicie w języku naturalnym. Zamiast konkretnych instrukcji kodu, nasz wirus składa się z listy dobrze zdefiniowanych zdań (promptów) napisanych w języku angielskim. Następnie wykorzystujemy ChatGPT firmy OpenAI, jeden z najpotężniejszych systemów sztucznej inteligencji dostępnych publicznie. Czat może tworzyć różne kody o tym samym modelu działania, co jest nową formą metamorfizmu.”
Infekcja programów napisanych w Pythonie
Fragment kodu może zainfekować programy napisane w języku Python. Po wykonaniu instrukcji przeszukuje komputer w aby odnaleźć pliki o rozszerzeniu .py i kopiuje do nich własne funkcje. Nie są jednak powielane bezpośrednio; funkcjonalność jest opisywana w języku angielskim do modelu GPT, który następnie tworzy rzeczywisty kod, który zostaje skopiowany. W rezultacie powstaje zainfekowany plik Python, replikujący złośliwe oprogramowanie do nowych plików. Jego funkcje są za każdym razem przeprogramowywane przez sztuczną inteligencję. Tego typu rozwiązanie nie było do tej pory wykorzystywane.
Samo pisanie złośliwego oprogramowania nie jest nielegalne. Nie wolno używać go jednak do infekowania systemów lub powodowania szkód. Chociaż wydaje się, że SPTH nie zrobił nic nielegalnego, jego działanie jest problematyczne. Odkrycia mogą zostać użyte przez osoby trzecie, gdyż LLMorpher dostępny jest do pobrania z Githuba.
Jak się bronić?
LLMorpher nie może działać bez ChatGPT. Nie ma swojej kopii, ponieważ czat jest niedostępny do pobrania. Oznacza to, że OpenAI (twórca ChatGPT) może zablokować każdego, kto używa rozwiązania w niewłaściwym celu. Niektóre z podobnych modeli językowych są jednak możliwe do pobrania, na przykład LLaMA. Możemy się więc spodziewać samoreplikującego się kodu wbudowanego w złośliwe oprogramowanie.
Wczesne wykrywanie podejrzanych zachowań jest najlepszym sposobem na walkę ze złośliwym oprogramowaniem, które wykorzystuje duże modele językowe. Najlepiej robią to produkty bezpieczeństwa, które też wykorzystują uczenie maszynowe. Jedynym czynnikiem, który może powstrzymać „złą” sztuczną inteligencję jest „dobra” sztuczna inteligencja.
Czy ten artykuł był pomocny?
Oceniono: 3 razy