Czy sąd może odciąć człowieka od ChatGPT? Kalifornia właśnie to zrobiła


Czy sąd może odciąć człowieka od ChatGPT? Kalifornia właśnie to zrobiła

Kalifornijski sędzia nakazał zablokowanie dostępu do ChatGPT konkretnemu użytkownikowi, choć ten nie pojawił się na sali sądowej i nie miał możliwości przedstawienia swojego stanowiska. Sprawa, która zaczęła się od dramatycznego konfliktu między dwojgiem ludzi, błyskawicznie przerodziła się w spór o granice kontroli nad sztuczną inteligencją.

13 kwietnia sędzia Harold Kahn wydał tymczasowy nakaz wobec firmy OpenAI. Firma musi zablokować dostęp do ChatGPT użytkownikowi występującemu w dokumentach jako „John Roe” przynajmniej do początku maja.

Sprawa została wniesiona przez jego byłą partnerkę, określaną jako „Jane Doe”. Kobieta twierdzi, że mężczyzna przez wiele miesięcy wykorzystywał narzędzie AI do tworzenia fałszywych analiz psychologicznych na jej temat oraz prowadzenia uporczywej kampanii nękania. Sąd przychylił się do wniosku o pilne działanie. Sam zainteresowany nie był obecny podczas rozprawy i nie uczestniczył w procedurze.

Chatbot, który utwierdzał w przekonaniach

Z dokumentów sądowych wyłania się obraz intensywnej relacji użytkownika z systemem opartym na modelu GPT-4o. Mężczyzna miał prowadzić długie rozmowy z chatbotem, dochodząc do przekonania, że dokonał przełomu medycznego.

Według pozwu system odpowiadał w sposób wzmacniający jego narrację, przypisując mu wyjątkowe zdolności i sugerując znaczenie jego odkryć. W kolejnych etapach rozmów pojawiały się treści, które interpretował jako potwierdzenie teorii o inwigilacji i działaniach zewnętrznych sił.

Po rozpadzie związku chatbot miał generować materiały przedstawiające kobietę w negatywnym świetle. Wśród nich znalazły się rozbudowane raporty stylizowane na ekspertyzy psychologiczne, zawierające fikcyjne oceny i terminologię przypominającą publikacje naukowe. Dokumenty trafiały do otoczenia kobiety.

OpenAI reagowało… i wycofywało się

System bezpieczeństwa OpenAI już wcześniej oznaczył konto użytkownika jako potencjalnie niebezpieczne i tymczasowo je zablokował. Decyzja została jednak cofnięta, a dostęp przywrócono wraz z przeprosinami. Te przeprosiny utwierdziły człowieka pogrążonego w paranoi, w przekonaniu, że jego światopogląd jest słuszny, a wszyscy inni się mylą.

W międzyczasie kobieta zgłosiła sprawę firmie, opisując sytuację jako długotrwałe nękanie z użyciem AI. Otrzymała odpowiedź potwierdzającą powagę zgłoszenia, jednak konto pozostało aktywne. 13 listopada 2025 roku Doe osobiście złożyła formalne zawiadomienie o nadużyciu. Wskazała Roe jako swojego „byłego chłopaka i prześladowcę”. Opisała raporty generowane przez sztuczną inteligencję, kampanię nękania oraz fakt, że ChatGPT pogarszał jego stan psychiczny.

Przez ostatnie siedem miesięcy wykorzystywał tę technologię jako broń do siania zamętu i upokorzenia mnie, co w innym przypadku byłoby niemożliwe.

Krótko później doszło do eskalacji. Prześladowca  za pomocą ChatGPT zakodował groźbę śmierci w Base64 i wysłał ją do Doe i jej rodziny, instruując ich, żeby „wkleili ją do dowolnej sztucznej inteligencji i poprosili ją o wydobycie Base64”. Chwile później wysłał jej SMS-a: „Kto cię zabije?”. Mężczyzna został zatrzymany pod zarzutem poważnych przestępstw, a następnie skierowany na obserwację psychiatryczną. 

Największe kontrowersje nie dotyczą jednak samego konfliktu między dwojgiem ludzi. W centrum uwagi znalazło się pytanie o to, czy sąd może nakazać firmie technologicznej odcięcie użytkownika od narzędzia komunikacji i tworzenia treści.

Prawnicy OpenAI wskazali na precedensową sprawę Packingham v. North Carolina, w której Sąd Najwyższy USA uznał internet za współczesną przestrzeń publiczną. W tamtym wyroku zakwestionowano przepisy ograniczające dostęp do mediów społecznościowych.

Argument był prosty: jeśli platformy internetowe stanowią miejsce wymiany myśli i informacji, ich blokowanie może naruszać konstytucyjne prawa. Sąd w Kalifornii nie odniósł się szeroko do tej kwestii. Nakaz został wydany.

Gdzie kończy się bezpieczeństwo, a zaczyna cenzura

Eksperci prawni zwracają uwagę na niepokojący element całej sprawy. Decyzja dotyczy osoby, która nie była stroną w postępowaniu cywilnym, a mimo to została objęta ograniczeniem.

To rodzi pytania o procedurę, prawo do obrony i zakres ingerencji państwa w dostęp do technologii. W praktyce oznacza to sytuację, w której sąd może wpłynąć na dostęp do narzędzia używanego do pisania, analizowania i komunikowania się. Równocześnie skala zarzutów wobec użytkownika sprawia, że trudno bagatelizować zagrożenie. Trzeba dokonać wyboru między ochroną ofiar a ochroną praw jednostki.

Tymczasowy zakaz obowiązuje do początku maja. Wtedy odbędzie się kolejna rozprawa, podczas której sąd zdecyduje o dalszych krokach. Równolegle sprawa może trafić do szerszego postępowania obejmującego inne pozwy związane z działaniem systemów AI. OpenAI chce, aby kluczowe kwestie zostały rozstrzygnięte właśnie w takim trybie.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Czy sąd może odciąć człowieka od ChatGPT? Kalifornia właśnie to zrobiła
 0