Złośliwe oprogramowanie jakiego nie było. Przestępcy sięgają po AI

Złośliwe oprogramowanie jakiego nie było. Przestępcy sięgają po AI

Według najnowszego raportu Wolf Security, przygotowanego przez firmę HP, hakerzy mogą teraz wykorzystywać generatywną sztuczną inteligencję do tworzenia i rozpowszechniania złośliwego oprogramowania. 

W czerwcu bieżącego roku system antyphishingowy HP Sure Click zidentyfikował podejrzany załącznik e-mailowy skierowany do użytkowników francuskojęzycznych. Zawierał on plik HTML, który wymagał od odbiorcy wprowadzenia hasła, aby uzyskać dostęp do zawartości. Po złamaniu zabezpieczeń załącznika, eksperci odkryli, że otwierał on archiwum ZIP, w którym ukryto fragment złośliwego oprogramowania znanego jako AsyncRAT.

Jeśli AI zostanie szerzej wykorzystana do tworzenia złośliwego oprogramowania, firmy zajmujące się cyberbezpieczeństwem będą musiały zmierzyć się z nowymi, bardziej wyrafinowanymi zagrożeniami.

AsyncRAT to narzędzie do zdalnego zarządzania dostępem, które jest często wykorzystywane do tworzenia złośliwego oprogramowania. W tym przypadku posłużyło hakerom do zdalnego przejęcia kontroli nad komputerami ofiar. Niepokojące było jednak coś jeszcze: kod złośliwego oprogramowania był niezwykle prosty do odczytania, bez jakiejkolwiek próby jego ukrycia lub zaciemnienia.

Komentarze w kodzie: Niezwykłe ślady pracy sztucznej inteligencji

Podczas analizy incydentu, badacze z HP zauważyli nietypową rzecz – kod zawierał liczne, szczegółowe komentarze opisujące poszczególne jego elementy, nawet w przypadku prostych funkcji. To wyjątkowo rzadkie, ponieważ twórcy złośliwego oprogramowania zazwyczaj starają się ukryć cel poszczególnych fragmentów kodu, aby utrudnić pracę specjalistom ds. cyberbezpieczeństwa.

Komentarze sugerują, że kod mógł zostać wygenerowany przez narzędzie wykorzystujące sztuczną inteligencję. Popularne chatboty, takie jak ChatGPT od OpenAI czy Gemini od Google, mają tendencję do dodawania szczegółowych objaśnień do wygenerowanego kodu na życzenie użytkownika. „Biorąc pod uwagę strukturę skryptów, spójne komentarze dla każdej funkcji oraz wybór nazw funkcji i zmiennych, uważamy, że jest wysoce prawdopodobne, że atakujący użył generatywnej AI do opracowania tych skryptów” — napisano w raporcie HP.

Szerokie wykorzystanie generatywnej AI przez cyberprzestępców

Odkrycia HP zyskują na znaczeniu w kontekście rosnących obaw związanych z wykorzystaniem sztucznej inteligencji przez hakerów. Coraz więcej firm, w tym OpenAI i Microsoft, zwraca uwagę na przypadki, w których sponsorowani przez państwo cyberprzestępcy używają generatywnej AI do udoskonalania swoich ataków phishingowych i prowadzenia zaawansowanych badań. Dotychczas wykorzystanie AI do tworzenia złośliwego oprogramowania było rzadkością, choć istnieją już przypadki takie jak incydent wykryty w kwietniu przez firmę ProofPoint, w którym sztuczna inteligencja mogła zostać użyta do stworzenia skryptu PowerShell służącego do rozprzestrzeniania szkodliwego oprogramowania.

Patrick Schläpfer, badacz bezpieczeństwa w HP, zwraca uwagę na rosnące zagrożenie: „Spekulacje na temat wykorzystania sztucznej inteligencji przez atakujących są powszechne, ale dowody są skąpe, więc to odkrycie jest znaczące”. Dodaje on, że generatywna AI ma potencjał, aby „obniżyć poprzeczkę” dla cyberprzestępców, ułatwiając im tworzenie skomplikowanego złośliwego oprogramowania. Z kolei inni eksperci, jak Vicente Diaz z VirusTotal Google, pozostają bardziej sceptyczni, podkreślając trudność w jednoznacznym powiązaniu ataków z użyciem sztucznej inteligencji: „To trudne pytanie – skąd mam wiedzieć, czy kopiujesz kod od sąsiada, ze Stack Overflow, czy z jakiejś sztucznej inteligencji?”.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Złośliwe oprogramowanie jakiego nie było. Przestępcy sięgają po AI

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł