Branża cyberbezpieczeństwa od dawna ostrzega, że era sztucznej inteligencji to nie tylko nowe możliwości, ale również zupełnie nowe zagrożenia. Teraz te obawy przybierają bardzo konkretny kształt — złośliwe oprogramowanie tworzone przez modele językowe (LLM) potrafi ominąć zabezpieczenia Microsoft Defender, co jeszcze niedawno wydawało się jedynie futurystycznym koszmarem.
Zespół badawczy z holenderskiej firmy Outflank, specjalizującej się w ofensywnym testowaniu bezpieczeństwa i red teamingu, opracował model sztucznej inteligencji zdolny do tworzenia złośliwego kodu, który skutecznie omija zabezpieczenia Defendera (Microsoft Defender for Endpoint). To jedno z najczęściej stosowanych rozwiązań antywirusowych na świecie, w tym w środowiskach korporacyjnych.
Kyle Avery, główny specjalista ds. ofensywy w Outflank, zdradził, że wykorzystał open-source’owy model Qwen 2.5 LLM, który trenował przez trzy miesiące, wydając około 1500 dolarów. W wyniku tych prac model był w stanie wygenerować kod, który w około 8% przypadków skutecznie prześlizgiwał się przez zabezpieczenia Microsoft Defendera — to znacznie więcej niż konkurencyjne modele: AI od Anthropic osiągało poniżej 1%, a DeepSeek zaledwie 0,5%.
Nowa generacja zagrożeń
Choć 8% może wydawać się wynikiem umiarkowanym, to w realiach zagrożeń cyfrowych ma ogromne znaczenie. Jak zauważają eksperci, ten poziom skuteczności — osiągnięty przez jedną osobę przy relatywnie niskim nakładzie finansowym — sugeruje, że przestępcy dysponujący większymi zasobami (czasem, budżetem, mocą obliczeniową) mogliby szybko znacząco poprawić te wskaźniki.
Zastosowane techniki, w tym uczenie wzmacniające (reinforcement learning), nie są niczym nowym w świecie AI, ale ich wykorzystanie do obchodzenia zabezpieczeń stawia obrońców w bardzo trudnej pozycji. Modele uczą się na błędach, poprawiają skuteczność i — co najważniejsze — nie potrzebują wiele czasu, by wyprzedzić rozwiązania zabezpieczające.
Sygnał wysłany przez Outflank powinien potrząsnąć całą branżą IT. Nie chodzi tu o panikę, ale o realistyczne podejście do tego, że sztuczna inteligencja zmienia reguły gry w cyberbezpieczeństwie. To nie jest już teoria — to praktyka.

Pokaż / Dodaj komentarze do: Sztuczna inteligencja tworzy wirusy, które omijają Microsoft Defender