Społeczność jednego z najpopularniejszych forów Reddita, r/changemyview, została poddana nieautoryzowanemu eksperymentowi badawczemu.
Przez kilka miesięcy, bez wiedzy użytkowników ani moderatorów, grupa naukowców z Uniwersytetu w Zurychu przeprowadzała eksperyment psychologiczny, wykorzystując modele językowe oparte na sztucznej inteligencji (LLM) do generowania komentarzy mających wpływać na poglądy uczestników dyskusji.
AI udaje użytkowników i to bardzo przekonująco
Eksperyment polegał na tworzeniu komentarzy odpowiadających na posty użytkowników r/changemyview – społeczności liczącej 3,8 miliona członków, której celem jest prowadzenie otwartych i często kontrowersyjnych debat. Co szczególnie kontrowersyjne, AI podszywała się pod różne tożsamości, m.in. ocalałego z napaści seksualnej, doradcę ds. traumy specjalizującego się w przemocy czy czarnoskórego przeciwnika ruchu Black Lives Matter.
Eksperyment polegał na tworzeniu komentarzy odpowiadających na posty użytkowników r/changemyview.
Komentarze były personalizowane na podstawie danych wydobytych z historii postów użytkowników, w tym płci, wieku, pochodzenia etnicznego, miejsca zamieszkania i orientacji politycznej, ustalonych przy pomocy innego modelu AI.
Reakcja moderatorów i Reddita: naruszenie zasad i prawa
Moderatorzy r/changemyview szybko zareagowali, uznając działania badaczy za „manipulację psychologiczną” i złamanie wielu zasad subreddita, w tym obowiązku ujawniania użycia AI oraz zakazu używania botów. Wydano oficjalną skargę do Uniwersytetu w Zurychu i zażądano wstrzymania publikacji wyników badań.
Reddit z kolei zapowiedział możliwe działania prawne. Prawnik serwisu, Ben Lee, w oświadczeniu nazwał eksperyment „głęboko nieetycznym i nielegalnym”, oraz poinformował o permanentnym zbanowaniu wszystkich kont powiązanych z badaniem. Serwis dodatkowo zapowiedział wzmocnienie narzędzi do wykrywania nieautentycznych treści i podjęcie formalnych kroków wobec Uniwersytetu w Zurychu.
Odpowiedź naukowców: "potencjalne korzyści przewyższają ryzyko"
Badacze bronią swoich działań, twierdząc, że ich eksperyment został zatwierdzony przez uczelnianą komisję etyczną. W oświadczeniu skierowanym do społeczności Reddita przyznali, że rozumieją obawy użytkowników, jednak uważają, że potencjalne korzyści płynące z badania przewyższają ryzyko. Ich zdaniem zdobyta wiedza pomoże chronić społeczności internetowe przed znacznie groźniejszymi nadużyciami AI, jak np. manipulacje wyborcze czy szerzenie mowy nienawiści.
Moderatorzy r/changemyview stanowczo odrzucili tę argumentację. Zwrócili uwagę, że istnieją już badania (m.in. prowadzone przez OpenAI) analizujące zachowania użytkowników bez bezpośredniego manipulowania nimi i bez naruszania zasad świadomej zgody. „Użytkownicy nie przychodzą na nasz subreddit, by dyskutować z AI ani by stać się obiektami nieautoryzowanych eksperymentów” – napisali moderatorzy. „Nasi członkowie zasługują na przestrzeń wolną od takich ingerencji”.

Pokaż / Dodaj komentarze do: Reddit grozi pozwem. Tajny eksperyment naukowców z użyciem AI ujawniony