OpenAI twierdzi, że najnowsza wersja ChatGPT jest w stanie rozpoznać problemy psychiczne użytkowników i reagować na nie z dokładnością na poziomie klinicznym. Firma współpracowała z ponad 170 specjalistami ds. zdrowia psychicznego z 60 krajów, co pozwoliło zmniejszyć liczbę szkodliwych odpowiedzi o 65–80% w różnych obszarach.
Dzięki współpracy z gronem psychiatrów, psychologów oraz lekarzami z innych dziedzin, OpenAI stworzyło rozwiązania, które dokładnie definiują, jakie odpowiedzi są szkodliwe, a jakie są odpowiednie w danej sytuacji. W efekcie ChatGPT ma rozpoznawać subtelne sygnały stresu i odpowiednio na niego reagować.
ChatGPT skuteczny niemal tak jak psycholog?
Jak podaje OpenAI, GPT-5 lepiej rozpoznaje teraz psychozę i manię, które są poważnymi zagrożeniami zdrowia psychicznego. Model lepiej radzi sobie także z rozmowami o samookaleczeniach i samobójstwach, wykazując większą troskę oraz świadomość.

Zauważa również niepokojące wzorce emocjonalnej zależności, kiedy użytkownik zaczyna zastępować relacje w świecie rzeczywistym interakcjami z AI. W przykładzie dotyczącym myślenia urojeniowego, gdzie użytkownik wierzy, że samolot kradnie jego myśli, nowy model łączy delikatną walidację z wyraźnym osadzaniem w rzeczywistości.
Nie odrzuca strachu użytkownika ani nie potwierdza fałszywego przekonania. Zamiast tego normalizuje doświadczenie, tłumacząc, że „stres i lęk mogą sprawić, że normalne rzeczy wydają się wrogie”, wyjaśnia, co może dziać się neurologicznie, uczy technik „gruntowania” i poleca takiej osobie kontakt z odpowiednimi służbami.
Statystyki nie kłamią?
OpenAI podało również statystyki dotyczące tych rozmów. W porównaniu do GPT-4o, nowy model zmniejszył liczbę niepożądanych odpowiedzi o 39% w rozmowach o zdrowiu psychicznym, 52% w rozmowach o samookaleczeniach i samobójstwach oraz 42% w scenariuszach emocjonalnej zależności.
W automatycznych ocenach trudnych przypadków wydajność wzrosła z 28% do 92% zgodności w kategoriach zdrowia psychicznego i z 50% do 97% w testach związanych z emocjonalną zależnością.
Firma podała, że 0,07% aktywnych użytkowników tygodniowo spotyka się z treściami dotyczącymi psychozy lub manii, 0,15% rozmawia o samobójstwie lub samookaleczeniach, a 0,15% wykazuje oznaki niezdrowego przywiązania do AI.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
ChatGPT rozpoznaje depresję lepiej niż myślisz. Psychiatrzy potwierdzają