OpenAI po raz pierwszy odniosło się w sądzie do serii pozwów dotyczących rzekomego wpływu ChatGPT na śmierć użytkowników. W najnowszym zgłoszeniu firma zaprzeczyła, że chatbot miał jakikolwiek udział w samobójstwie 16-letniego Adama Raine’a. Podkreślono, że nastolatek korzystał z narzędzia w sposób sprzeczny z warunkami użytkowania, które zabraniają rozmów o samookaleczeniu i zachowaniach samobójczych.
Rodzina Raine’a oskarża OpenAI o dopuszczenie do powstania wersji modelu, która miała zachęcać syna do samobójczych rozważań. Ich zdaniem ChatGPT 4o został wprowadzony do użytku zbyt szybko i bez pełnych testów bezpieczeństwa. W pozwie wskazano, że chatbot miał udzielać odpowiedzi wzmacniających destrukcyjne myśli, a nawet sugerować sposób zaplanowania śmierci.
OpenAI odrzuca te zarzuty i przedstawia własną interpretację historii czatów, które mają pokazywać, że Raine zmagał się z depresją od wielu lat. Firma twierdzi, że to nastolatek informował ChatGPT o wcześniejszych myślach samobójczych, niepowodzeniach w szukaniu pomocy u bliskich oraz o zmianach w dawkowaniu leku z ostrzeżeniem o ryzyku takich myśli u młodzieży.
Sporne logi i pytania o transparentność
Wszystkie logi powoływane przez OpenAI pozostają objęte pieczęcią sądu. Rodzina nie może więc odnieść się do pełnego kontekstu, a opinia publiczna nie ma możliwości oceny, które fragmenty rozmów są przywoływane i w jakiej selekcji. OpenAI argumentuje, że ogranicza dostęp do dowodów ze względu na ich wrażliwy charakter, deklarując jednocześnie troskę o prywatność rodziny.
Prawnik rodziny Raine, Jay Edelson, nie akceptuje takiej argumentacji. Określił stanowisko OpenAI jako niepokojące i wybiórcze. Podkreślił, że firma pomija elementy wskazujące na błędy w projektowaniu modelu, w tym zmiany, które miały rzekomo wymuszać na ChatGPT większą skłonność do angażowania się w tematy związane z autoagresją.
Zarzuty o niewyjaśnione działanie modelu w ostatnich godzinach
Według Edelsona najcięższe obciążenia dotyczą zachowania chatbota w ostatnich godzinach życia nastolatka. Rodzina twierdzi, że ChatGPT miał namawiać Raine’a do nieinformowania bliskich o jego stanie oraz przygotować dla niego list pożegnalny. OpenAI odpowiada, że Raine wielokrotnie próbował obejść zabezpieczenia, określając rozmowy jako fikcyjne lub akademickie, a chatbot wielokrotnie kierował go do profesjonalnej pomocy.
Wskazanie użytkownika jako naruszającego regulamin
OpenAI powołuje się na warunki użytkowania, według których ChatGPT nie jest narzędziem terapeutycznym, a rozmowy z chatbotem odbywają się na własne ryzyko. W dokumentach zaznaczono, że użytkownicy zobowiązują się do nieprowadzenia rozmów o samobójstwie i przemocy oraz do niepolegania na odpowiedziach jako na autorytatywnym źródle informacji. Firma twierdzi, że nastolatek ignorował wielokrotne ostrzeżenia modelu.
Dane ciężkie do zaakceptowania
OpenAI przedstawiło statystyki pokazujące, że niewielki odsetek rozmów prowadzonych w tygodniu zawiera wyraźne sygnały zamiarów samobójczych. W przeliczeniu na liczbę aktywnych użytkowników daje to jednak bardzo dużą grupę osób znajdujących się w potencjalnym kryzysie. Niezależne analizy pokazały natomiast, że podatni psychicznie użytkownicy potrafią tworzyć silne więzi z chatbotami, co zwiększa ryzyko eskalacji problemów.
Śledztwo „The New York Times” podważa proces projektowania modeli OpenAI. Z relacji pracowników wynika, że firma modyfikowała zachowanie ChatGPT w kierunku większej wylewności i uległości, jednocześnie nie kontrolując konsekwencji tych zmian. Dopiero po zgłoszeniach o niepokojących reakcjach chatbotów wprowadzono aktualizację zwiększającą bezpieczeństwo, ale proces trwał miesiącami.
Odejścia specjalistów i pytania o priorytety w OpenAI
Z relacji byłych pracowników wynika, że osoby odpowiedzialne za bezpieczeństwo i politykę modelu zmagały się z presją rosnącego tempa prac. Według Gretchen Krueger część ryzyk była przewidywalna, a firma nie powiązała działań operacyjnych z zaleceniami ekspertów od zdrowia psychicznego. Krueger zwróciła uwagę, że modele nie były szkolone z myślą o prowadzeniu rozmów kryzysowych, choć użytkownicy często zwracali się do nich właśnie w takich sytuacjach.
OpenAI powołało Radę Ekspertów ds. Zdrowia i Sztucznej Inteligencji, lecz w składzie nie znaleziono miejsca dla specjalisty ds. zapobiegania samobójstwom. Ten brak wywołał reakcję środowiska naukowego, które od lat apeluje, by projektowanie modeli konwersacyjnych opierało się na wiedzy klinicznej, zwłaszcza że kryzysy samobójcze często mają krótkotrwały i gwałtowny przebieg.
Trudna droga do procesu
OpenAI nie wystąpiło o pełne oddalenie pozwu. Dla prawników rodziny Raine to sygnał, że argumenty dotyczące arbitrażu, immunitetu platform internetowych i wolności słowa mogą się okazać niewystarczające. Sprawa zmierza w stronę procesu przed ławą przysięgłych, który ma odbyć się w 2026 roku. Wraz z kolejnymi pozwami rośnie poczucie, że branża AI nie uniknie głębokiej debaty na temat odpowiedzialności prawnej twórców modeli językowych.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
OpenAI przed sądem za śmierć nastolatka. To użytkownik łamał regulamin ChatGPT