Microsoft opublikował nowy raport dotyczący cyberbezpieczeństwa, w którym zwraca uwagę na rosnącą rolę sztucznej inteligencji w działaniach cyberprzestępców. Według analityków firmy narzędzia oparte na AI są coraz częściej wykorzystywane do przyspieszania ataków, automatyzacji części działań oraz obniżania barier technicznych dla osób próbujących przeprowadzić cyberatak.
Raport przygotowany przez zespół Microsoft Threat Intelligence pokazuje, iż generatywna sztuczna inteligencja jest używana przez różne grupy przestępcze na wielu etapach ataku. Dotyczy to zarówno przygotowania operacji, jak i działań prowadzonych już po uzyskaniu dostępu do systemów ofiary.
AI pomaga w przygotowaniu ataków
Jednym z najczęstszych zastosowań sztucznej inteligencji jest przygotowywanie treści wykorzystywanych w atakach phishingowych. Narzędzia generatywne mogą szybko tworzyć wiadomości e-mail, które wyglądają wiarygodnie i są dopasowane do konkretnego języka lub kraju.
Według analityków firmy narzędzia oparte na AI są coraz częściej wykorzystywane do przyspieszania ataków, automatyzacji części działań oraz obniżania barier technicznych dla osób próbujących przeprowadzić cyberatak.

AI bywa także używana do tłumaczenia treści, streszczania skradzionych danych czy analizowania informacji zdobytych podczas rekonesansu. Dzięki temu cyberprzestępcy mogą szybciej przeglądać duże ilości danych i wybierać te, które są dla nich najbardziej wartościowe.
W wielu przypadkach sztuczna inteligencja pomaga także przy tworzeniu kodu. Narzędzia oparte na modelach językowych potrafią generować fragmenty skryptów, poprawiać błędy w kodzie lub pomagać w konfiguracji infrastruktury wykorzystywanej podczas ataku.
AI jako narzędzie wspierające ludzi
Eksperci Microsoftu podkreślają jednak, że obecnie AI rzadko działa całkowicie samodzielnie. Najczęściej pełni rolę narzędzia wspierającego osoby stojące za atakami.
AI przyspiesza przygotowanie materiałów, ułatwia pisanie kodu oraz pomaga w analizie danych, lecz decyzje dotyczące wyboru celu, sposobu działania czy momentu przeprowadzenia ataku podejmują ludzie.
Zdaniem analityków takie wykorzystanie sztucznej inteligencji działa jak swego rodzaju „wzmacniacz”, który pozwala cyberprzestępcom działać szybciej i z mniejszym wysiłkiem.
Przykłady wykorzystania AI przez grupy przestępcze
W raporcie opisano także konkretne przykłady działań grup przestępczych korzystających z narzędzi AI. Wśród nich wymieniono między innymi grupy powiązane z Koreą Północną między innymi Jasper Sleet oraz Coral Sleet, których działania firma z Redmond śledzi.
Według analityków grupy te wykorzystują sztuczną inteligencję m.in. do tworzenia fałszywych tożsamości w internecie. Podając się za pracowników IT przestępcy starają się zdobywać pracę w zagranicznych firmach technologicznych.
AI pomaga im przygotować realistyczne profile zawodowe, życiorysy oraz komunikację z potencjalnymi pracodawcami. Narzędzia generatywne mogą także tworzyć listy nazwisk pasujących do określonego kraju lub przykładowe formaty adresów e-mail, które wyglądają wiarygodnie.
Dzięki temu fałszywe profile mogą być lepiej dopasowane do ofert pracy publikowanych w internecie.
AI w tworzeniu złośliwego oprogramowania
Sztuczna inteligencja pomaga ponadto generować złośliwe oprogramowanie. Narzędzia AI pomagają w tworzeniu kodu, przenoszeniu fragmentów programów między różnymi językami programowania czy rozwiązywaniu problemów technicznych pojawiających się podczas tworzenia malware.
Według Microsoftu pojawiają się również pierwsze eksperymenty z bardziej zaawansowanymi formami wykorzystania AI. W niektórych przypadkach testowane są rozwiązania, które pozwalają złośliwemu oprogramowaniu dynamicznie zmieniać swoje zachowanie lub generować nowe skrypty w trakcie działania.
Na razie jednak takie przypadki są raczej eksperymentalne i nie są jeszcze powszechnie stosowane w realnych atakach.
Próby omijania zabezpieczeń AI
Microsoft zwraca też uwagę na próby omijania zabezpieczeń w systemach sztucznej inteligencji. Wiele modeli językowych posiada mechanizmy, które mają zapobiegać generowaniu złośliwego kodu lub materiałów wykorzystywanych w cyberatakach.
Cyberprzestępcy próbują jednak omijać te ograniczenia, stosując tak zwane techniki jailbreakingu. Polegają one na formułowaniu zapytań w taki sposób, aby system AI wygenerował zakazaną treść mimo wbudowanych zabezpieczeń.
Problem zauważają także inne firmy
Microsoft nie jest jedyną firmą, która zwraca uwagę na rosnącą rolę sztucznej inteligencji w cyberatakach. Podobne obserwacje pojawiają się w raportach innych firm technologicznych.
Google informował niedawno, iż cyberprzestępcy zaczęli wykorzystywać narzędzia oparte na modelu Gemini na różnych etapach ataków. Z kolei Amazon oraz niezależni badacze bezpieczeństwa opisywali kampanię, w której wykorzystano kilka usług generatywnej AI podczas ataków na setki zapór sieciowych.
Eksperci podkreślają, że wiele ataków wykorzystujących AI przypomina tradycyjne cyberataki. Z tego powodu firmy powinny nadal skupiać się na podstawowych zasadach bezpieczeństwa, takich jak ochrona kont użytkowników, wykrywanie podejrzanych logowań czy zabezpieczanie systemów przed phishingiem.
Jednocześnie rosnące możliwości sztucznej inteligencji sprawiają, że w przyszłości może ona odgrywać jeszcze większą rolę w działaniach cyberprzestępców.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Microsoft: cyberprzestępcy coraz częściej wykorzystują sztuczną inteligencję