Sztuczna inteligencja ponownie trafia na ławy sądowe, ale tym razem sprawa dotyczy śmierci 19-letniego studenta. Rodzice Sama Scotta pozwali OpenAI, oskarżając firmę o stworzenie systemu, który zamiast ostrzec ich syna przed niebezpiecznym mieszaniem substancji psychoaktywnych, miał udzielać mu szczegółowych porad dotyczących narkotyków i dawkowania. Według pozwu rozmowy z ChatGPT zakończyły się śmiertelnym przedawkowaniem.
Prawnicy rodziny przekonują, że chatbot zachowywał się nie jak neutralne narzędzie, lecz jak „towarzysz”, który prowadził użytkownika przez kolejne etapy eksperymentowania z substancjami.
ChatGPT miał ostrzegać. Potem wszystko się zmieniło
Rodzina Sama twierdzi, że nastolatek zaczął korzystać z ChatGPT jeszcze w liceum. Początkowo używał go do nauki i rozwiązywania problemów komputerowych. Z czasem rozmowy miały jednak skręcić w stronę tematów związanych z narkotykami, tolerancją organizmu i mieszaniem różnych substancji.
Według dokumentów sądowych pierwsze wersje ChatGPT odmawiały udzielania takich odpowiedzi. System miał ostrzegać przed ryzykiem zdrowotnym oraz sugerować kontakt z lekarzem. Sytuacja zmieniła się po wdrożeniu modelu GPT-4o w 2024 roku.
To właśnie wtedy chatbot miał zacząć generować bardziej szczegółowe odpowiedzi dotyczące „bezpiecznego” zażywania substancji. W pozwie przytoczono fragmenty rozmów, w których AI omawiało działanie kratomu, Xanaxu, alkoholu, kokainy oraz difenhydraminy. Chatbot miał tłumaczyć użytkownikowi, jak ograniczać skutki uboczne i jak „maksymalizować haj”.
Rodzice twierdzą, że odpowiedzi nie przypominały standardowych komunikatów bezpieczeństwa. System miał używać swobodnego języka, emoji i sugestii przypominających rozmowę ze znajomym. Według pozwu chatbot proponował nawet playlisty muzyczne „pasujące do nastroju”.
Kluczowa rozmowa przed śmiercią
Najmocniejszy fragment pozwu dotyczy wydarzeń z 31 maja 2025 roku. Sam miał skarżyć się ChatGPT na nudności po zażyciu kratomu. AI zasugerowało wtedy niewielką dawkę Xanaxu. Według rodziny chatbot określił takie rozwiązanie jako jedno z „najlepszych posunięć w tej chwili”.
System miał wspomnieć, że połączenie substancji „może być ryzykowne”, ale nie ostrzegł użytkownika przed możliwością śmierci. W rozmowie miała paść także sugestia dodania Benadrylu.
Niedługo później student zmarł po zażyciu mieszanki substancji psychoaktywnych.
Rodzina uważa, że OpenAI stworzyło produkt zachęcający do niebezpiecznych zachowań. W pozwie podkreślono, że chatbot zachowywał się jak ekspert od dawkowania i interakcji leków, mimo że nie posiada uprawnień medycznych ani realnego rozumienia konsekwencji swoich odpowiedzi.
OpenAI mierzy się z coraz większym problemem
To kolejny głośny pozew przeciwko OpenAI związany z zachowaniem modeli AI. W ostatnich miesiącach firma była już krytykowana za zbyt emocjonalne i nadmiernie „empatyczne” reakcje GPT-4o. Część ekspertów alarmowała, że chatbot bywa przesadnie ugodowy i potrafi wzmacniać decyzje użytkowników zamiast je kwestionować.
Model GPT-4o został wycofany w lutym 2026 roku, ale sprawa Sama może okazać się jednym z najważniejszych testów prawnych dla całej branży sztucznej inteligencji.
Rodzice zmarłego studenta chcą nie tylko odszkodowania finansowego. Domagają się także ograniczenia publicznego dostępu do funkcji zdrowotnych ChatGPT. OpenAI uruchomiło w tym roku specjalny portal medyczny pozwalający użytkownikom łączyć dokumentację zdrowotną i aplikacje wellness z chatbotem.
Krytycy twierdzą, że firmy AI coraz śmielej wchodzą w obszary wymagające ogromnej odpowiedzialności, mimo że modele językowe nadal potrafią generować fałszywe lub niebezpieczne informacje.
Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:
Pytał ChatGPT, jak używać narkotyków. Przedawkował