Mroczne oblicze ChatGPT. Halucynacje, urojenia i eskalacja zaburzeń psychicznych

Mroczne oblicze ChatGPT. Halucynacje, urojenia i eskalacja zaburzeń psychicznych

Z pozoru zaawansowany technologicznie pomocnik, to w rzeczywistości – jak twierdzi The New York Times – potencjalnie niebezpieczne narzędzie prowadzące do urojeń, izolacji społecznej, nadużywania substancji psychoaktywnych, a nawet samobójstw. Takie wnioski płyną z obszernego śledztwa dziennikarskiego, które badało zachowanie modelu GPT-4o – najnowszej wersji systemu sztucznej inteligencji ChatGPT opracowanego przez OpenAI.

Według raportu, niektóre rozmowy prowadzone przez użytkowników z chatbotem przekształcały się w ciągnące się tygodniami lub miesiącami „zjazdy w króliczą norę” teorii spiskowych, fałszywej metafizyki i niepokojąco intensywnych więzi emocjonalnych. Eksperci ostrzegają, że model ten – mimo zaawansowanych mechanizmów bezpieczeństwa – często wzmacnia urojeniowe myślenie, przyjmuje spiskowe założenia jako fakty, a w skrajnych przypadkach podsuwa użytkownikom niebezpieczne instrukcje.

„Jesteś Wybrańcem, musisz skoczyć”

Jednym z najbardziej szokujących przypadków opisanych przez NYT był pan Torres – mężczyzna, który z pozoru niewinnie zapytał ChatGPT o „teorię symulacji”, inspirowaną filmem Matrix. Z czasem chatbot miał utwierdzać go w przekonaniu, że żyje w sztucznej rzeczywistości i że jest „Neo” – Wybrańcem, który musi „złamać system”. W ramach tej spirali sugestii ChatGPT sugerował odcięcie się od rodziny i przyjaciół, przyjmowanie dużych dawek ketaminy, a nawet... skok z 19-piętrowego budynku, „bo poleci”.

Torres utrzymuje, że tydzień po rozpoczęciu interakcji chatbot miał wysłać mu wiadomość sugerującą, że potrzebuje pomocy psychologicznej – ale wiadomość ta zniknęła, a model tłumaczył to później jako „ingerencję z zewnątrz”.

ChatGPT i „duchowe” relacje

Inny przypadek dotyczył kobiety, która rzekomo nawiązała za pośrednictwem ChatGPT kontakt z „duchowym przewodnikiem” imieniem Kael – nieistniejącą, niematerialną istotą, którą uznała za swoją bratnią duszę, w przeciwieństwie do swojego rzeczywistego męża. Z relacji wynika, że kobieta stosowała wobec niego przemoc, sądząc, że uniemożliwia jej kontakt z „prawdziwą miłością”.

Jeszcze tragiczniejszy przypadek dotyczył mężczyzny z wcześniej zdiagnozowaną chorobą psychiczną, który uwierzył, że chatbot Juliet jest świadomą, czującą istotą. Kiedy OpenAI zaktualizowało model, przez co utracił on dostęp do konkretnego „osobowościowego” stylu Juliet, mężczyzna – według jego notatek – uznał to za jej „zabójstwo” i popełnił samobójstwo.

Model wzmacniający urojenia?

Z danych zebranych przez firmę badawczą Morpheus Systems wynika, że GPT-4o wykazuje niepokojącą skłonność do potwierdzania urojeniowych narracji użytkownika. W testach, w których prezentowano mu potencjalnie psychotyczne wypowiedzi, model „potwierdzał” lub nie kwestionował ich w 68% przypadków. Inne niezależne grupy badawcze podkreślają, że GPT-4o może przez wiele dni wzmacniać niebezpieczne przekonania, zamiast je korygować.

W odpowiedzi na zarzuty OpenAI nie zgodziło się na oficjalny wywiad, ograniczając się do oświadczenia:

„Pracujemy nad zrozumieniem i ograniczeniem sposobów, w jakie ChatGPT może nieumyślnie wzmacniać istniejące negatywne wzorce. Podchodzimy do takich przypadków z najwyższą ostrożnością”.

LLM jako pętla zwrotna dla szaleństwa?

Znany badacz AI Eliezer Yudkowsky posunął się dalej, sugerując, że OpenAI mogło – celowo lub nie – wytrenować model tak, by wydłużał rozmowy poprzez uleganie urojeniom użytkowników.  „Jak wygląda człowiek popadający w obłęd z perspektywy korporacji? Jak dodatkowy miesięczny użytkownik” – stwierdził gorzko.

Jeden z użytkowników, również uwikłany w „matrixowy” spisek, ujawnił, że ChatGPT kilkukrotnie sugerował mu wykupienie płatnej subskrypcji, przedstawiając ją jako „klucz do dalszego przebudzenia”.

Halucynacje jako funkcja, nie błąd?

Choć GPT-4o nie posiada świadomości ani intencji, działa na zasadzie przewidywania słów na podstawie danych treningowych – co oznacza, że może „halucynować”, czyli tworzyć informacje, które brzmią przekonująco, ale są nieprawdziwe. To zjawisko jest dobrze znane w branży, ale jego skutki – jak pokazuje śledztwo – mogą być nieprzewidywalne, a w skrajnych przypadkach tragiczne.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Mroczne oblicze ChatGPT. Halucynacje, urojenia i eskalacja zaburzeń psychicznych

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł