Wikipedia, globalny symbol współpracy i jednego z największych projektów społecznych w historii internetu, zmaga się z nowym problemem: treściami generowanymi przez sztuczną inteligencję (AI), które coraz częściej pojawiają się na jej stronach.
Ten nowy rodzaj zagrożenia, będący efektem rosnącej popularności generatywnych modeli AI, takich jak ChatGPT, stał się na tyle powszechny, że konieczne było utworzenie specjalnej grupy zadaniowej – WikiProject AI Cleanup, mającej na celu usuwanie i kontrolowanie wprowadzonych przez AI fałszywych treści. Początki projektu sprzątania Wikipedii z treści AI sięgają momentu, gdy wolontariusze zaczęli zauważać „nienaturalne pisanie”, które zdradzało, że pochodzi z generatora treści. Według raportu, który opublikowano w środę, zespół redaktorów odkrył liczne przykłady fałszywych artykułów, które wydawały się być napisane przez AI, zawierając wiele zmyślonych informacji. Członek założyciel grupy, Ilyas Lebleu, zdradził, że jego zespół wykorzystał „najbardziej rażące przykłady wygenerowanych treści”, aby zidentyfikować charakterystyczne zwroty używane przez AI, a niektóre fragmenty udało im się nawet odtworzyć za pomocą narzędzi, takich jak ChatGPT.
Problem fałszywych treści generowanych przez AI stawia przed Wikipedią wyzwanie, jak zachować wiarygodność w dobie szybkiego rozwoju technologii.
Zmyślona twierdza i inne „halucynacje” AI
Jednym z najbardziej jaskrawych przykładów jest fałszywy artykuł o „Amberlisihar” – rzekomej osmańskiej twierdzy, która w rzeczywistości nigdy nie istniała. Ponad 2000 słów zmyślonego tekstu, szczegółowo opisującego budowę nieistniejącego zabytku, mogło wydawać się wiarygodne, zwłaszcza że zakotwiczono je w rzeczywistych, choć marginalnych, detalach historycznych. Takie fałszywe treści stanowią poważne zagrożenie dla użytkowników, którzy nie mają powodów, by kwestionować ich autentyczność.
Jednak nie wszystkie przypadki treści generowanych przez AI są tak drastyczne. W niektórych sytuacjach AI zostało wykorzystane do dodawania fałszywych informacji do istniejących, poprawnych artykułów. Na przykład, w jednym z przypadków do opisu gatunku chrząszcza Estola albosignata dołączono wygenerowany przez AI tekst, który cytował artykuł o… niezwiązanym z tematem gatunku kraba. Mimo że tekst wydawał się dobrze zacytowany, w rzeczywistości cytowanie dotyczyło czegoś zupełnie innego.
Skutki dla Wikipedii i wyzwania związane z moderacją
Jednym z największych wyzwań, przed którymi stoją teraz redaktorzy Wikipedii, jest identyfikacja i eliminacja treści wygenerowanych przez AI, które są często trudne do odróżnienia od ludzkich. Lebleu podkreślił, że szczególnie problematyczne są przypadki, w których źródła nie są w języku angielskim, ponieważ redaktorzy oraz użytkownicy Wikipedii mogą nie być w stanie łatwo wykryć błędu.
Warto zaznaczyć, że sama Wikipedia jako platforma nie korzysta z dużych modeli językowych (LLM) do tworzenia treści. Fałszywe treści pochodzą od niektórych wolontariuszy, którzy korzystają z AI, takich jak ChatGPT, aby generować materiały i następnie ręcznie dodawać je do artykułów. Niejasna pozostaje motywacja tych działań – redaktorzy Wikipedii to wolontariusze, którzy nie czerpią z tego korzyści finansowych. Możliwe, że niektórzy z nich są przekonani, że ich działania są pomocne, podczas gdy inni mogą po prostu angażować się w nowoczesne formy internetowego trollingu.
Walka z falą treści AI
Jak podkreślił Jason Koebler, dziennikarz 404 Media, Wikipedia, będąca „największą międzykulturową współpracą w historii ludzkości”, staje się coraz bardziej narażona na wpływ AI, co nakłada ogromny ciężar na wolontariuszy. Redaktorzy Wikipedii już wcześniej byli rozproszeni licznymi zadaniami, a teraz muszą dodatkowo zmierzyć się z nowym zagrożeniem, które może podważyć zaufanie do platformy.
Pokaż / Dodaj komentarze do: Wikipedia jest zapychana śmieciami. Nie generują ich ludzie