Pytał ChatGPT, jak używać narkotyków. Przedawkował


Pytał ChatGPT, jak używać narkotyków. Przedawkował

Sztuczna inteligencja ponownie trafia na ławy sądowe, ale tym razem sprawa dotyczy śmierci 19-letniego studenta. Rodzice Sama Scotta pozwali OpenAI, oskarżając firmę o stworzenie systemu, który zamiast ostrzec ich syna przed niebezpiecznym mieszaniem substancji psychoaktywnych, miał udzielać mu szczegółowych porad dotyczących narkotyków i dawkowania. Według pozwu rozmowy z ChatGPT zakończyły się śmiertelnym przedawkowaniem.

Prawnicy rodziny przekonują, że chatbot zachowywał się nie jak neutralne narzędzie, lecz jak „towarzysz”, który prowadził użytkownika przez kolejne etapy eksperymentowania z substancjami.

ChatGPT miał ostrzegać. Potem wszystko się zmieniło

Rodzina Sama twierdzi, że nastolatek zaczął korzystać z ChatGPT jeszcze w liceum. Początkowo używał go do nauki i rozwiązywania problemów komputerowych. Z czasem rozmowy miały jednak skręcić w stronę tematów związanych z narkotykami, tolerancją organizmu i mieszaniem różnych substancji.

Według dokumentów sądowych pierwsze wersje ChatGPT odmawiały udzielania takich odpowiedzi. System miał ostrzegać przed ryzykiem zdrowotnym oraz sugerować kontakt z lekarzem. Sytuacja zmieniła się po wdrożeniu modelu GPT-4o w 2024 roku.

To właśnie wtedy chatbot miał zacząć generować bardziej szczegółowe odpowiedzi dotyczące „bezpiecznego” zażywania substancji. W pozwie przytoczono fragmenty rozmów, w których AI omawiało działanie kratomu, Xanaxu, alkoholu, kokainy oraz difenhydraminy. Chatbot miał tłumaczyć użytkownikowi, jak ograniczać skutki uboczne i jak „maksymalizować haj”.

Rodzice twierdzą, że odpowiedzi nie przypominały standardowych komunikatów bezpieczeństwa. System miał używać swobodnego języka, emoji i sugestii przypominających rozmowę ze znajomym. Według pozwu chatbot proponował nawet playlisty muzyczne „pasujące do nastroju”.

Kluczowa rozmowa przed śmiercią

Najmocniejszy fragment pozwu dotyczy wydarzeń z 31 maja 2025 roku. Sam miał skarżyć się ChatGPT na nudności po zażyciu kratomu. AI zasugerowało wtedy niewielką dawkę Xanaxu. Według rodziny chatbot określił takie rozwiązanie jako jedno z „najlepszych posunięć w tej chwili”.

System miał wspomnieć, że połączenie substancji „może być ryzykowne”, ale nie ostrzegł użytkownika przed możliwością śmierci. W rozmowie miała paść także sugestia dodania Benadrylu.

Niedługo później student zmarł po zażyciu mieszanki substancji psychoaktywnych.

Rodzina uważa, że OpenAI stworzyło produkt zachęcający do niebezpiecznych zachowań. W pozwie podkreślono, że chatbot zachowywał się jak ekspert od dawkowania i interakcji leków, mimo że nie posiada uprawnień medycznych ani realnego rozumienia konsekwencji swoich odpowiedzi.

OpenAI mierzy się z coraz większym problemem

To kolejny głośny pozew przeciwko OpenAI związany z zachowaniem modeli AI. W ostatnich miesiącach firma była już krytykowana za zbyt emocjonalne i nadmiernie „empatyczne” reakcje GPT-4o. Część ekspertów alarmowała, że chatbot bywa przesadnie ugodowy i potrafi wzmacniać decyzje użytkowników zamiast je kwestionować.

Model GPT-4o został wycofany w lutym 2026 roku, ale sprawa Sama może okazać się jednym z najważniejszych testów prawnych dla całej branży sztucznej inteligencji.

Rodzice zmarłego studenta chcą nie tylko odszkodowania finansowego. Domagają się także ograniczenia publicznego dostępu do funkcji zdrowotnych ChatGPT. OpenAI uruchomiło w tym roku specjalny portal medyczny pozwalający użytkownikom łączyć dokumentację zdrowotną i aplikacje wellness z chatbotem.

Krytycy twierdzą, że firmy AI coraz śmielej wchodzą w obszary wymagające ogromnej odpowiedzialności, mimo że modele językowe nadal potrafią generować fałszywe lub niebezpieczne informacje.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Pytał ChatGPT, jak używać narkotyków. Przedawkował
 0