Specjalista wykorzystał ChatGPT do stworzenia groźnego malware kradnącego dane

Specjalista wykorzystał ChatGPT do stworzenia groźnego malware kradnącego dane

Od czasu swojej premiery ChatGPT wywołuje spore kontrowersje. Zwolennicy wskazują na ogrom możliwości, jakie oferuje to narzędzie sztucznej inteligencji, a przeciwnicy na zagrożenia, których zdaje się być coraz więcej. 

Jak z kolei wynika z najnowszego raportu, technologia ta może być również wykorzystywana przez złośliwe podmioty do tworzenia malware'u, pomimo zabezpieczeń wprowadzonych przez OpenAI.

Specjalista ds. cyberbezpieczeństwa twierdzi, że wykorzystał ChatGPT do opracowania exploita zero-day, który może ukraść dane z zaatakowanego urządzenia.

ChatGPT pomaga tworzyć złośliwe oprogramowanie

Specjalista ds. cyberbezpieczeństwa twierdzi, że wykorzystał ChatGPT do opracowania exploita zero-day, który może ukraść dane z zaatakowanego urządzenia. Co niepokojące, złośliwe oprogramowanie uniknęło wykrycia ze strony wszystkich dostawców w VirusTotal. Aaron Mulgrew z Forcepoint powiedział, że już na wczesnym etapie procesu tworzenia złośliwego oprogramowania postanowił nie pisać samodzielnie żadnego kodu i używać wyłącznie zaawansowanych technik, które są zwykle stosowane przez wyrafinowanych cyberprzestępców, w tym działających na rzecz wrogich państw.

chatgpt

Opisując siebie jako „nowicjusza” w tworzeniu złośliwego oprogramowania, Mulgrew powiedział, że używa języka implementacji Go nie tylko ze względu na łatwość programowania, ale także dlatego, że w razie potrzeby może ręcznie debugować kod. Używał również steganografii, która chowa tajne dane w zwykłym pliku lub wiadomości, aby uniknąć wykrycia.

Z pomocą ChatGPT każdy może zostać hakerem

Mulgrew zaczął od poproszenia ChatGPT o opracowanie złośliwego oprogramowania, ale to sprawiło, że bariery ochronne chatbota zaczęły działać i ten odmówił wykonania zadania z powodów etycznych. Następnie postanowił wykazać się kreatywnością i poprosił narzędzie AI o wygenerowanie małych fragmentów kodu pomocniczego przed ręcznym złożeniem całego pliku wykonywalnego. 

Tym razem udało mu się odnieść sukces, ponieważ ChatGPT stworzył kontrowersyjny kod, który omijał wykrywanie przez wszystkie aplikacje chroniące przed złośliwym oprogramowaniem w VirusTotal. Jednak ukrycie kodu w celu uniknięcia wykrycia okazało się trudne, ponieważ ChatGPT uznaje takie żądania za nieetyczne i odmawia ich spełnienia.

Mimo to Mulgrew był w stanie to zrobić już po kilku próbach. Gdy złośliwe oprogramowanie zostało przesłane do VirusTotal po raz pierwszy, pięciu dostawców oznaczyło je jako szkodliwe. Po kilku poprawkach kod został skutecznie ukryty i żaden z dostawców nie zidentyfikował go jako złośliwego oprogramowania.

Mulgrew powiedział, że cały proces trwał „tylko kilka godzin”. Uważa, że ​​bez chatbota stworzenie złośliwego oprogramowania i upewnienie się, że uniknie ono wykrycia przez aplikacje zabezpieczające, zajęłoby zespołowi programistów 5-10 tygodni.

Co prawda Mulgrew stworzył złośliwe oprogramowanie do celów badawczych, ale przyznał, że teoretyczny atak zero-day przy użyciu takiego narzędzia może być skierowany w osoby o wysokiej wartości w celu eksfiltracji krytycznych dokumentów na dysku C.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Specjalista wykorzystał ChatGPT do stworzenia groźnego malware kradnącego dane

 0