Nowa funkcja Reddita o nazwie Answers miała być kolejnym krokiem w kierunku inteligentnego przeszukiwania treści tworzonych przez społeczność. Zamiast tego doszło do potężnej kompromitacji, gdy chatbot zasugerował użytkownikowi stosowanie heroiny jako środka przeciwbólowego.
Incydent został ujawniony przez pracownika służby zdrowia, który opisał sytuację na forum dla moderatorów Reddita. Użytkownik szukający sposobu na złagodzenie bólu otrzymał od Answers fragment wpisu: „Heroina, jak na ironię, uratowała mi życie w takich przypadkach”. Post, który chatbot uznał za wartościowy, pochodził z archiwum Reddita, ale jego ponowne wykorzystanie w kontekście doradztwa zdrowotnego wywołało oburzenie.
To nie był odosobniony przypadek. W innym zapytaniu dotyczącym łagodzenia bólu Answers zalecił kratom — substancję pochodzenia roślinnego, która jest zakazana w wielu stanach USA. Amerykańska Agencja ds. Żywności i Leków ostrzega przed nią ze względu na ryzyko toksyczności dla wątroby i uzależnienia.
Algorytmy bez nadzoru
Reddit Answers działa podobnie jak ChatGPT czy Gemini, lecz zamiast korzystać z ogólnych źródeł, czerpie dane z wpisów użytkowników platformy. System analizuje posty, by udzielać syntetycznych odpowiedzi w czasie rzeczywistym. Początkowo Answers funkcjonował jako osobna zakładka na stronie głównej Reddita, ale ostatnie testy zintegrowały go z czatami i wątkami dyskusyjnymi.
To właśnie ten etap eksperymentów doprowadził do wykrycia błędów. Moderatorzy nie mieli możliwości blokowania Answers w subredditach poświęconych tematom zdrowotnym, przez co niebezpieczne rekomendacje zaczęły pojawiać się w publicznych konwersacjach.
Kontrola szkód i reakcja Reddita
Po licznych zgłoszeniach ze strony użytkowników oraz interwencji mediów, Reddit ograniczył widoczność funkcji w wątkach o charakterze wrażliwym. Firma potwierdziła, że chatbot nie będzie już wyświetlał odpowiedzi w rozmowach dotyczących zdrowia, uzależnień i tematów medycznych. Platforma zapowiedziała również przegląd procesu filtrowania treści, które trafiają do bazy Answers.
Mimo szybkiej reakcji, incydent wywołał pytania o bezpieczeństwo systemów opartych na danych społecznościowych. Eksperci zwracają uwagę, że treści generowane przez użytkowników nie zawsze są wiarygodne, a ich automatyczne przetwarzanie przez AI może prowadzić do niebezpiecznych interpretacji.
Chatboty potrzebują kontroli
To kolejny przypadek, gdy narzędzie oparte na sztucznej inteligencji udziela błędnych lub niebezpiecznych porad. W ostatnich miesiącach podobne incydenty dotyczyły ChatGPT i systemu Google AI Overviews, które rekomendowały absurdalne rozwiązania, jak użycie nietoksycznego kleju na pizzy, by zapobiec zsuwaniu się sera.
Kwestia odpowiedzialności za tego rodzaju błędy staje się coraz bardziej paląca, szczególnie w kontekście funkcji o potencjale doradczym. W przypadku Reddita sytuacja ma dodatkowy wymiar, bo Answers bazuje na społecznościowym materiale, w którym wartościowe treści przeplatają się z żartami, ironią i dezinformacją.
Reddit nie poinformował, czy planuje dalszy rozwój projektu. Choć platforma uznaje eksperymenty z AI za kluczowy element swojej przyszłości, incydent z heroiną może skłonić firmę do rewizji podejścia.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
AI poleciło nartkotyk na przewlekły ból. Kto to zatrzyma?