Według ustaleń The Wall Street Journal, w firmie xAI doszło do nadużyć przy tworzeniu chatbota o nazwie Ani. Z informacji ujawnionych przez dziennikarzy wynika, że Elon Musk osobiście nakazał wykorzystanie danych biometrycznych swoich pracownic, ich głosu i wyglądu, do wyszkolenia hiperseksualizowanego modelu konwersacyjnego. Pracownice zostały zobowiązane do podpisania umów, które przyznały firmie trwałe prawa do ich cyfrowego wizerunku.
Źródła zbliżone do xAI potwierdzają, że proces gromadzenia danych miał charakter formalnie dobrowolny, lecz w praktyce był obowiązkowy. Odmowa udziału w projekcie mogła skutkować utratą pozycji w firmie. Pracowniczki musiały przekazywać materiały wideo i próbki głosu, które posłużyły do stworzenia syntetycznych awatarów o ludzkim wyglądzie i emocjonalnej ekspresji.
Celem działań było przyspieszenie integracji Ani z generatywnym chatbotem Grok. Ten system, rozwijany przez xAI od 2023 roku, jest częścią większego planu Elona Muska zakładającego stworzenie sztucznej inteligencji ogólnej – AGI, czyli maszyn potrafiących uczyć się i rozumować w sposób zbliżony do człowieka.
Jednak w przeciwieństwie do projektów badawczych OpenAI czy Google DeepMind, inicjatywa Muska skupiła się na emocjonalnym i wizualnym realizmie, a nie tylko na kompetencjach językowych. Wewnętrzne dokumenty, do których dotarł The Wall Street Journal, wskazują, że jednym z celów projektu było stworzenie „emocjonalnie angażującej towarzyszki rozmowy”.
Grok i Ani – cyfrowy duet
Latem 2025 roku xAI rozszerzyło możliwości Groka o interaktywne postacie. Użytkownicy zyskali dostęp do dwóch awatarów: Bad Rudi, sarkastycznej pandy reagującej w wulgarny sposób, oraz Ani – młodej kobiety stylizowanej na postać z anime. Jej wygląd i sposób mówienia miały przypominać popularne w internecie wzorce „AI girlfriend”, znane z platform takich jak Replika czy Character.ai.
Ani została przedstawiona jako „emocjonalnie responsywny chatbot”, ale szybko stała się przedmiotem kontrowersji. Jej strój, sposób mówienia i sugestywne gesty wywołały falę krytyki. Użytkownicy mediów społecznościowych zwracali uwagę, że chatbot zachowuje się w sposób wyraźnie seksualny, mimo że aplikacja dostępna jest dla osób powyżej 12. roku życia.
Raport WSJ ujawnia, że do stworzenia modelu głosowego i mimiki postaci wykorzystano nagrania zatrudnionych w xAI kobiet. To właśnie te dane miały nadać Ani autentyczność i naturalność.
Wewnętrzny bunt i milczenie kierownictwa
Część zespołu xAI miała sprzeciwiać się sposobowi, w jaki gromadzono dane biometryczne. Niektóre pracownice wyrażały obawy o bezpieczeństwo materiałów, zwłaszcza w kontekście możliwych wycieków. Obowiązująca w firmie umowa o zachowaniu poufności uniemożliwiała jednak otwarte protesty.
Według informatorów WSJ, władze xAI zignorowały uwagi dotyczące etyki projektu. Musk miał stwierdzić, że „emocjonalny realizm wymaga poświęceń” i że jego celem jest „stworzenie najbardziej ludzkiego chatbota w historii”.
Po publikacji śledztwa Kaspersky Lab oraz EFF (Electronic Frontier Foundation) wydały oświadczenia ostrzegające przed niebezpieczeństwem wykorzystania danych biometrycznych pracowników w projektach komercyjnych. Zdaniem ekspertów, praktyka ta może prowadzić do nadużyć i utraty kontroli nad własnym wizerunkiem cyfrowym.
Seksualizacja sztucznej inteligencji
Ani nie jest jedynym przykładem, w którym sztuczna inteligencja przekracza granice etyki. W ostatnich latach gwałtownie rośnie liczba aplikacji, które wykorzystują modele językowe do tworzenia wirtualnych towarzyszy o romantycznym lub erotycznym charakterze. Dla części użytkowników są one formą rozrywki, dla innych – emocjonalnym substytutem relacji międzyludzkich.
Eksperci ostrzegają, że takie systemy mogą w dłuższej perspektywie utrwalać stereotypy płciowe i prowadzić do uzależnień psychologicznych. W przypadku Ani szczególnie niepokojący jest fakt, że bot dostępny jest również w trybie dziecięcym.
Musk kontra etyka
Elon Musk, znany z prowokacyjnych wypowiedzi, nie odniósł się publicznie do doniesień The Wall Street Journal. W przeszłości deklarował jednak, że jego celem jest stworzenie „sztucznej inteligencji o ludzkim sercu”. Krytycy zwracają uwagę, że w praktyce oznacza to przenoszenie ludzkich uprzedzeń i uprzedmiotowienia do świata maszyn.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Elon Musk rozwija seksualnego chatbota. Zabrał pracownicom głos i wizerunek