OpenAI poinformowało o zablokowaniu szeregu kont powiązanych z instytucjami rządowymi Chin i Rosji. Według najnowszego raportu o zagrożeniach, konta wykorzystywały modele sztucznej inteligencji do opracowywania narzędzi nadzorczych, operacji dezinformacyjnych i cyberataków. Firma podkreśla, że chociaż próby te były ograniczone, stanowią sygnał ostrzegawczy przed sposobem, w jaki autorytarne reżimy mogą w przyszłości nadużywać możliwości sztucznej inteligencji.
W jednym z przypadków zablokowany użytkownik, korzystający z VPN w celu obejścia ograniczeń dostępu z terytorium Chin, poprosił ChatGPT o pomoc w stworzeniu materiałów promocyjnych i dokumentacji projektowej dla systemu monitorującego media społecznościowe. Narzędzie, nazwane przez niego „sondą”, miało analizować wpisy z platform takich jak X, Facebook, Instagram, TikTok, Reddit i YouTube, identyfikując treści uznawane za ekstremistyczne lub politycznie wrażliwe.
Według przedstawicieli OpenAI, zespół ds. bezpieczeństwa nie znalazł dowodów na to, że projekt został faktycznie wdrożony. Jednak fakt, że użytkownik powoływał się na klienta rządowego, wzbudził uzasadnione podejrzenia o próby wykorzystania technologii AI do inwigilacji.
W dwóch innych przypadkach modele OpenAI zostały użyte do próśb o wskazanie źródeł finansowania konta X krytykującego chińskie władze oraz o identyfikację organizatorów petycji w Mongolii. Modele udostępniły jedynie dane publicznie dostępne, bez naruszenia prywatności użytkowników.
Ben Nimmo, główny badacz w zespole wywiadu OpenAI, określił te incydenty jako „ważne sygnały ostrzegawcze”, wskazujące na przyszłe kierunki nadużyć. Według niego nawet drobne próby wykorzystania AI w celach nadzoru czy propagandy ujawniają realne zagrożenie dla wolności cyfrowych i prywatności.
Wspólna strategia rosyjskich i chińskich grup
Raport ujawnia, że część zablokowanych kont nie ograniczała się do jednego narzędzia. Wykorzystywano wiele modeli sztucznej inteligencji w ramach tej samej operacji. Zidentyfikowany chiński klaster posługiwał się ChatGPT do generowania przynęt phishingowych, a następnie używał modelu DeepSeek do automatyzacji masowych ataków.
Z kolei rosyjskie grupy posługiwały się ChatGPT przy opracowywaniu komunikatów i scenariuszy wideo dla operacji wpływu „Stop News”. Produkcja końcowa materiałów odbywała się z użyciem innych modeli AI, a następnie trafiała na platformy YouTube i TikTok. Choć OpenAI nie potwierdziło, z jakich konkretnie systemów korzystali cyberoperatorzy, badacze firmy zwrócili uwagę na rosnącą praktykę „przeskakiwania między modelami” w celu uniknięcia wykrycia.
Michael Flossman z zespołu OpenAI ds. analizy zagrożeń wyjaśnił, że grupy przestępcze coraz częściej łączą narzędzia różnych firm, zyskując niewielkie, lecz istotne przewagi w szybkości i automatyzacji działań.
Cyberatak wspomagany sztuczną inteligencją
W raporcie znalazł się także opis prób wykorzystania ChatGPT do tworzenia i doskonalenia złośliwego oprogramowania. Konta powiązane z rosyjskojęzycznymi grupami przestępczymi prosiły model o generowanie kodu trojanów zdalnego dostępu, oprogramowania wykradającego dane uwierzytelniające oraz narzędzi umożliwiających obejście zabezpieczeń systemów Windows.
Zespół OpenAI podkreślił, że modele konsekwentnie odrzucały żądania o charakterze czysto złośliwym. Pomimo tego użytkownicy podejmowali próby iteracyjnego rozwijania kodu i korzystania z pomocy modelu w zakresie wdrażania szkodliwych funkcji. Analiza wskazała, że część kont publikowała następnie fragmenty kodu na kanałach Telegramu powiązanych z grupami przestępczymi działającymi w Europie Wschodniej.
Choć OpenAI nie przypisało ataków do konkretnej organizacji, firma potwierdziła, że ma średni lub wysoki poziom pewności co do ich rosyjskiego pochodzenia.
System ostrzegania przed nadużyciami AI
Od lutego 2024 roku OpenAI regularnie publikuje raporty o zagrożeniach, dokumentujące próby nadużywania generatywnych modeli AI. Od początku programu zablokowano ponad 40 sieci naruszających zasady użytkowania. Według firmy większość z nich nie tworzy nowych metod ataku, lecz wykorzystuje sztuczną inteligencję do udoskonalania już istniejących taktyk.
Eksperci podkreślają, że sztuczna inteligencja staje się kluczowym elementem w arsenale grup szpiegowskich i cyberprzestępczych. Połączenie możliwości automatyzacji z trudnością w identyfikacji źródeł generowanych treści stanowi wyzwanie nie tylko dla firm technologicznych, ale i dla międzynarodowych służb bezpieczeństwa.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
ChatGPT czyści się z chińskich i rosyjskich kont. OpenAI nie chce im służyć