Wiele grup wspieranych przez poszczególne kraje zaczyna używać dużych modeli językowych, aby pomóc w badaniach, pisaniu skryptów i wiadomościach phishingowych. O wykorzystaniu sztucznej inteligencji do cyberataków informuje Microsoft i ostrzega przed nimi użytkowników sieci.
Microsoft i OpenAI ujawniają dzisiaj, że hakerzy wykorzystują już duże modele językowe, takie jak ChatGPT, do udoskonalania i ulepszania istniejących cyberataków. W nowo opublikowanych badaniach firmy Microsoft i OpenAI wykryły próby podejmowane przez grupy wspierane przez Rosję, Koreę Północną, Iran i Chiny wykorzystujące narzędzia takie jak ChatGPT do badania celów, ulepszania skryptów i pomocy w opracowywaniu technik inżynierii społecznej.
Microsoft i OpenAI ostrzegają użytkowników przed cyberatakami, które wspomaga sztuczna inteligencja.
„Grupy cyberprzestępcze, ugrupowania zagrażające państwom narodowym i inni przeciwnicy badają i testują różne technologie sztucznej inteligencji w miarę ich pojawiania się, próbując zrozumieć potencjalną wartość dla swoich działań oraz kontroli bezpieczeństwa, które być może będą musieli obejść” – czytamy na blogu Microsoftu.
Firma z Redmond stwierdziła, iż grupa Strontium, powiązana z rosyjskim wywiadem wojskowym, wykorzystuje LLM „do zrozumienia protokołów komunikacji satelitarnej, technologii obrazowania radarowego i określonych parametrów technicznych”. Grupa hakerska, znana również jako APT28 lub Fancy Bear, była aktywna podczas wojny rosyjsko-ukraińskiej, a wcześniej była zaangażowana w atak na kampanię prezydencką Hillary Clinton w 2016 roku.
Według Microsoftu grupa korzysta również z LLM, aby pomóc w „podstawowych zadaniach związanych z tworzeniem skryptów, w tym manipulowaniem plikami, wybieraniem danych, wyrażeniami regularnymi i przetwarzaniem wieloprocesorowym, aby potencjalnie zautomatyzować lub zoptymalizować operacje techniczne”.
Północnokoreańska grupa hakerska, znana jako Thallium, wykorzystuje LLM do badania publicznie zgłaszanych luk w zabezpieczeniach i atakowania organizacji, pomocy w podstawowych zadaniach związanych z tworzeniem skryptów oraz do opracowywania treści do kampanii phishingowych.
Obecnie wykorzystanie AI do przeprowadzania cyberataków wydaje się ograniczone to Microsoft ostrzega innych przed takim procederem polegającym m.in. na podmianie głosu, co otwiera furtkę do oszukania kogoś.
Firma Microsoft tworzy Security Copilot, nowego asystenta AI przeznaczonego dla specjalistów ds. cyberbezpieczeństwa w celu identyfikowania naruszeń i lepszego zrozumienia ogromnej ilości sygnałów i danych generowanych codziennie za pomocą narzędzi cyberbezpieczeństwa.
Pokaż / Dodaj komentarze do: Microsoft i OpenAI twierdzą, że hakerzy wykorzystują ChatGPT do cyberataków