OpenAI, firma stojąca za zaawansowanym modelem językowym ChatGPT, usunęła konta kilku użytkowników powiązanych z Chinami po odkryciu, że były one wykorzystywane do generowania materiałów propagandowych publikowanych w głównych gazetach w Ameryce Łacińskiej. Jak twierdzi firma, treści te miały na celu szerzenie antyamerykańskich narracji w regionie.
Zaktualizowany raport OpenAI, zauważony przez agencję Reuters, ujawnia szereg incydentów, w których ChatGPT miał być używany do tworzenia artykułów prasowych w języku hiszpańskim, krytykujących Stany Zjednoczone. Artykuły te, publikowane w znanych gazetach w Meksyku, Peru i Ekwadorze, koncentrowały się na politycznych podziałach w USA oraz problemach społecznych, takich jak nadużywanie narkotyków i bezdomność.
Firma twierdzi, że użytkownicy z Chin kontynentalnych nakłaniali ChatGPT do generowania treści w języku hiszpańskim, często posługując się chińskim interfejsem aplikacji. Działania te odbywały się w godzinach pracy w Chinach, co dodatkowo wzmocniło podejrzenia o zorganizowany charakter operacji. Użytkownicy rzekomo używali ChatGPT również do tłumaczenia paragonów z gazet Ameryki Łacińskiej, co może wskazywać na płatny charakter publikacji.
Ataki na dysydentów i media społecznościowe
Poza artykułami prasowymi, konta powiązane z Chinami miały również wykorzystywać ChatGPT do generowania krótkich materiałów propagandowych, w tym komentarzy krytykujących Cai Xia, znanego chińskiego dysydenta politycznego. Komentarze te były publikowane na platformie X przez użytkowników podszywających się pod obywateli USA i Indii.
„To pierwszy raz, kiedy zaobserwowaliśmy, że chiński podmiot skutecznie umieszcza długie artykuły w mediach głównego nurtu, aby trafić do odbiorców w Ameryce Łacińskiej z antyamerykańskimi narracjami” – poinformowało OpenAI w oficjalnym oświadczeniu. „To również pierwszy przypadek, gdy nasza firma wydaje się być powiązana z oszukańczą działalnością w mediach społecznościowych”.
Powiązania ze „Spamouflage”
OpenAI wskazuje, że niektóre z działań wykazują podobieństwo do operacji „Spamouflage” – dużej chińskiej kampanii dezinformacyjnej zidentyfikowanej przez firmę Meta w 2023 roku. Kampania ta działała na ponad 50 platformach społecznościowych, takich jak Facebook, Instagram, TikTok, Twitter i Reddit, kierując swoje przekazy do użytkowników w USA, Tajwanie, Wielkiej Brytanii, Australii i Japonii. „Spamouflage” koncentrował się na promowaniu pozytywnego wizerunku Chin oraz osłabianiu zaufania do krajów zachodnich.
To nie pierwszy raz, kiedy OpenAI identyfikuje próby wykorzystywania swojego modelu AI do celów propagandowych. W maju 2024 roku firma ujawniła, że grupy z Rosji, Chin, Iranu i Izraela wykorzystywały ChatGPT do generowania komentarzy w mediach społecznościowych, tłumaczenia i korekty treści w różnych językach. W szczególności rosyjska grupa propagandowa „Bad Grammar” miała używać technologii OpenAI do tworzenia fałszywych odpowiedzi dotyczących Ukrainy na posty w aplikacji Telegram.
Jednak, jak zaznacza OpenAI, obecny incydent różni się od poprzednich. O ile wcześniejsze operacje skupiały się głównie na mediach społecznościowych, tym razem działania były wymierzone w główne media tradycyjne. „To wcześniej niezgłoszona linia wysiłków, która przebiegała równolegle do bardziej typowej aktywności w mediach społecznościowych i mogła dotrzeć do znacznie szerszej publiczności” – podkreślono w raporcie.
Usunięcie kont to dopiero pierwszy krok w walce z wykorzystywaniem sztucznej inteligencji do celów dezinformacyjnych. OpenAI zapowiada dalsze monitorowanie aktywności na swojej platformie oraz ścisłą współpracę z partnerami technologicznymi i organami ścigania na całym świecie, aby zapobiegać podobnym nadużyciom w przyszłości.

Pokaż / Dodaj komentarze do: OpenAI banuje za wykorzystywanie ChatGPT do antyamerykańskiej propagandy