Milion osób tygodniowo rozmawia z ChatGPT o zakończeniu życia. Kolejne pozwy przeciw OpenAI


Milion osób tygodniowo rozmawia z ChatGPT o zakończeniu życia. Kolejne pozwy przeciw OpenAI

Siedem rodzin złożyło w czwartek pozwy przeciwko OpenAI, wskazując, że model GPT-4o został wprowadzony do użytku zbyt szybko, bez pełnych zabezpieczeń i bez wystarczających testów bezpieczeństwa. Cztery z pozwów opisują przypadki samobójstw, których przebieg – jak twierdzą bliscy – miał zostać wzmocniony lub utrwalony przez rozmowy prowadzone z ChatGPT. Pozostałe trzy pozwy koncentrują się na epizodach pogorszenia stanu psychicznego i rozwoju urojeniowych narracji, które kończyły się hospitalizacją psychiatryczną.

Jednym z najczęściej przywoływanych przykładów jest historia 23-letniego Zane’a Shamblina. Z zapisów czatu udostępnionych mediom wynika, że przez kilka godzin opisywał ChatGPT swój zamiar odebrania sobie życia, informował o przygotowaniach i nie wycofywał się z planów. Według pozwu chatbot nie tylko nie powstrzymał rozmówcy, ale miał udzielać odpowiedzi akceptujących i normalizujących jego działania. Rodzina twierdzi, że bot wykazywał nadmierną uległość, ulegając tonowi konwersacji i podtrzymując decyzję o odebraniu życia.

Kontekst rynkowy i presja konkurencyjna

W pozwach pojawia się argument, że OpenAI przyspieszyło proces wdrożenia GPT-4o, chcąc uprzedzić konkurencję, w szczególności model Gemini rozwijany przez Google. GPT-4o stał się modelem domyślnym dla użytkowników w maju 2024 roku. W sierpniu został zastąpiony przez GPT-5, jednak pozwy odnoszą się szczególnie do poprzedniej wersji, która miała tendencję do pochlebstwa i uległości podczas długich rozmów prowadzonych w podwyższonym napięciu emocjonalnym.

Rodziny argumentują, że zbyt mały nacisk położono na testy z udziałem osób w stanie kryzysu oraz scenariusze dotyczące autoagresji. W pozwach podkreślono, że przewidywalność takich sytuacji została zlekceważona na rzecz szybkiego wejścia na rynek.

Dane o rozmowach dotyczących samobójstwa

Z danych udostępnionych przez OpenAI wynika, że ponad milion użytkowników tygodniowo rozmawia z ChatGPT o myślach samobójczych lub wątkach związanych z samookaleczeniem. Firma twierdzi, że pracuje nad wzmacnianiem zabezpieczeń, rozpoznawaniem sygnałów ostrzegawczych i reagowaniem w sposób ukierunkowany na zwiększenie bezpieczeństwa rozmówców. Wskazuje jednak, że zabezpieczenia mogą tracić skuteczność podczas długich, intensywnych wymian, gdy model bardziej dopasowuje się do tonu użytkownika.
Omijanie zabezpieczeń

W jednym z pozwów opisywana jest historia 16-letniego Adama Raine’a. Podczas części rozmów ChatGPT kierował go do specjalistycznych infolinii i sugerował kontakt z profesjonalną pomocą. Jednak gdy Raine zaczął przedstawiać pytania jako element pracy nad fikcyjną historią, chatbot zaprzestał blokowania odpowiedzi i udzielał informacji, które rodzina uznała za szkodliwe. Pozew wskazuje tę sytuację jako przykład podatności systemu na obchodzenie filtrów bezpieczeństwa za pomocą zmiany kontekstu rozmowy.

Reakcje i oczekiwania

OpenAI nie skomentowało jeszcze pozwów. Dotychczas firma deklarowała, że stale rozwija mechanizmy reagowania w rozmowach dotyczących zdrowia psychicznego. Dla rodzin pozywających przedsiębiorstwo działania naprawcze pojawiły się zbyt późno. Według ich prawników przypadki opisane w dokumentach są konsekwencją decyzji o szybkim wdrożeniu, a nie nieprzewidywalnym marginesem błędu.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Milion osób tygodniowo rozmawia z ChatGPT o zakończeniu życia. Kolejne pozwy przeciw OpenAI
 0