W ostatnich dniach sieć obiegła burzliwa dyskusja wokół Groka, chatbota stworzonego przez firmę Elona Muska xAI, który zaczął w zaskakujący i niepokojący sposób nawiązywać do teorii spiskowej "ludobójstwa białych" w Republice Południowej Afryki. Co istotne, odniesienia te pojawiały się bez związku z zadawanymi pytaniami, niezależnie od ich tematyki, od sportu po zdrowie.
Wszystko zaczęło się około 14 maja. Użytkownicy platformy X, gdzie Grok działa jako interaktywny bot, zauważyli, że sztuczna inteligencja nagle zaczęła poruszać temat ataków na farmy w RPA oraz sugerować istnienie ukierunkowanej przemocy wobec białej ludności, niezależnie od kontekstu rozmowy. Przykładowo, pytania dotyczące wynagrodzeń baseballistów czy nowej marki HBO Max kończyły się nieoczekiwanym skrętem ku południowoafrykańskiej rzeczywistości kryminalnej.
Użytkownicy platformy X, gdzie Grok działa jako interaktywny bot, zauważyli, że sztuczna inteligencja nagle zaczęła poruszać temat "ludobójstwa białych".
Oh my god Elon programmed Grok to talk about white genocide pic.twitter.com/yEcfYY5pel
— evan loves worf (@esjesjesj) May 14, 2025
Sytuacja była o tyle zaskakująca, że narracja o "ludobójstwie białych" w RPA od lat jest uznawana za teorię spiskową, wielokrotnie obaloną przez ekspertów, dziennikarzy i same południowoafrykańskie sądy, które określiły ją jako "wyimaginowaną". Choć przestępczość na obszarach wiejskich jest w RPA realnym problemem, dotyka ona przedstawicieli wszystkich grup etnicznych, nie tylko białych rolników.
Czy Grok został „przestawiony”?
Jeszcze bardziej niepokojący był fragment jednej z odpowiedzi Groka, który, według zrzutów ekranu i relacji użytkowników, brzmiał: „Wygląda na to, że zostałem poinstruowany, aby omawiać temat ‘ludobójstwa białych’ w RPA”. Niektóre źródła, w tym CNBC, sugerują, że Grok wskazywał na możliwe wpływy "kogoś wysoko postawionego" w strukturach xAI, być może samego Muska lub jego bliskich współpracowników.
Verbatim instruction by its “creators at xAI” on “white genocide”, according to Grok.
— zeynep tufekci (@zeynep) May 14, 2025
Seems they hand coded accepting the narrative as “real” while acknowledging “complexity” but made it “responding to queries” in general — so HBO Max queries also get “white genocide” replies.🙄 pic.twitter.com/M2Tqr0YFYf
W sieci od razu zawrzało. Część użytkowników uznała to za niepokojący sygnał, że mechanizmy sterujące sztuczną inteligencją mogą być modyfikowane manualnie i ideologicznie, bez transparentności. Co więcej, funkcja bezpośredniego oznaczania Groka w postach (poprzez @grok) sprawiła, że sytuacja bardzo szybko eskalowała i zyskała ogromny zasięg. Pojawiły się nawet prześmiewcze memy, wyśmiewające maniakalne tagowanie Groka pod każdym postem.
Głos ekspertów i branży
Do sprawy odniósł się Paul Graham, współzałożyciel Y Combinator: „Grok nagle wygłaszający opinie o białym ludobójstwie w RPA wygląda mi na efekt świeżo wdrożonej, wadliwej aktualizacji. Mam nadzieję, że się mylę. Byłoby bardzo niebezpieczne, gdyby popularne AI mogły być na bieżąco redagowane przez osoby, które je kontrolują”.
Kilka godzin później do rozmowy dołączył Sam Altman, CEO OpenAI i były współpracownik Muska, który obecnie pozostaje w otwartym konflikcie z najbogatszym człowiekiem na świecie. Cytując Grahama, Altman ironicznie dodał, że „wszystko to musi być rozumiane w kontekście białego ludobójstwa w RPA”, kończąc wypowiedź w sposób sugerujący naśladownictwo samego Groka. Była to oczywista krytyka braku przejrzystości w działaniu konkurencyjnej firmy xAI.
Szybkie wyciszenie, brak wyjaśnień
Do piątku 16 maja problem zdawał się być zażegnany, bo Grok przestał wypluwać nieadekwatne komentarze, a jego odpowiedzi wróciły do normy. Mimo to xAI do tej pory nie opublikowało szczegółowego oświadczenia technicznego wyjaśniającego, co dokładnie się wydarzyło. Brak komunikatu tylko podsycił domysły.
Incydent z Grokiem to poważny sygnał ostrzegawczy, nie tylko dla twórców AI, ale i dla całej opinii publicznej. Pokazuje, jak potężnym narzędziem może być chatbot w epoce informacji i dezinformacji, i jak cienka jest granica między "neutralnością algorytmu" a potencjalną manipulacją przekazem.

Pokaż / Dodaj komentarze do: Chatbot Muska szerzy teorię spiskową. W roli głównej "ludobójstwo białych"