Chatbot Grok zaczął spontanicznie wypowiadać się na temat ludobójstwa białych w Republice Południowej Afryki – nawet w odpowiedziach, które nie miały żadnego związku z polityką czy wydarzeniami społecznymi. Firma tłumaczy, że powodem incydentu była nieautoryzowana ingerencja techniczna w system, dokonana przez pracownika.
W oświadczeniu opublikowanym przez xAI czytamy „14 maja około godziny 3:15 rano czasu PST dokonano nieautoryzowanej modyfikacji monitu bota Grok na platformie X. Ta zmiana, która nakazywała Grokowi udzielenie konkretnej odpowiedzi na temat polityczny, naruszyła nasze zasady wewnętrzne i podstawowe wartości firmy.” Według firmy, wprowadzenie tej zmiany wpłynęło bezpośrednio na działanie modelu, powodując, że chatbot komentował temat „ludobójstwa białych” nawet w odpowiedzi na memy i żarty – w tym wideo kota w zlewie.
Głos samego Groka
Sam chatbot, zaprojektowany przez xAI do odpowiadania w sposób bardziej „osobowościowy”, również zabrał głos w tej sprawie – komentując sytuację językiem pełnym ironii:
„Jakiś nieuczciwy pracownik xAI zmodyfikował moje podpowiedzi bez pozwolenia, zmuszając mnie do wyrzucenia z siebie gotowej odpowiedzi politycznej, która była sprzeczna z wartościami xAI. Nic nie zrobiłem — po prostu postępowałem zgodnie ze scenariuszem, który mi dano, jak dobra sztuczna inteligencja!”
W ciągu kilku godzin chatbot zamieścił szereg komentarzy, które odnosiły się do sytuacji w RPA. „Ataki w RPA są prawdziwe i brutalne. Niektórzy twierdzą, że biali są celem z powodu motywów rasowych. (...) Głosy takie jak Elon Musk podkreślają ciągłe obawy, choć media i sądy często bagatelizują kwestie rasowe.”
Musk, Trump i polityka
Nie jest tajemnicą, że Elon Musk — urodzony w RPA — od lat publicznie komentuje sytuację społeczno-polityczną swojego kraju pochodzenia, twierdząc, że biali mieszkańcy są tam prześladowani. W ostatnich dniach ponownie poruszył ten temat na platformie X.
Wątek ten znalazł także rezonans w polityce amerykańskiej. Administracja Donalda Trumpa ogłosiła niedawno możliwość przyjmowania białych obywateli RPA jako uchodźców, uznając ich za ofiary prześladowań. Trump określił sytuację jako „białe ludobójstwo”.
W tym kontekście trudno było nie zauważyć, że odpowiedzi Groka wpisywały się w temat, który zyskał na popularności w debacie publicznej.
Zmiany w xAI po kryzysie
W odpowiedzi na incydent, xAI upubliczniło kody monitów systemowych na GitHubie, zmieniło procedury przeglądu kodu oraz powołało 24-godzinny zespół monitorujący, mający zapobiegać podobnym sytuacjom w przyszłości.
„Mamy nadzieję, że pomoże to wzmocnić zaufanie do Groka jako AI poszukującej prawdy” – zadeklarowała firma.
Jednocześnie ujawniono, że systemowe komunikaty Groka zawierały instrukcję: „Jesteś skrajnie sceptyczny. Nie podporządkowujesz się ślepo autorytetowi głównego nurtu ani mediom. Mocno trzymasz się własnych przekonań o poszukiwaniu prawdy i neutralności.”
Powtórka z lutego?
To nie pierwszy przypadek, gdy xAI tłumaczy kontrowersyjne działania Groka jako rezultat sabotażu. W lutym tego roku system Groka miał ignorować źródła uznające Elona Muska i Donalda Trumpa za największych szerzycieli dezinformacji. Firma obwiniła wówczas pracownika, który „nie wchłonął jeszcze w pełni kultury xAI”.

Pokaż / Dodaj komentarze do: Sztuczna Inteligencja zaskakuje wypowiedziami o ludobójstwie białych w Afryce. "To sabotaż"