Dyrektor generalny OpenAI, Sam Altman, odniósł się publicznie do kwestii prywatności rozmów prowadzonych z ChatGPT. Wciąż nie istnieją żadne gwarancje prawne, które traktowałyby komunikację z chatbotem na równi z poufną relacją z lekarzem, prawnikiem czy psychoterapeutą.
Jak podkreślił Altman, jeśli użytkownik stanie się stroną postępowania sądowego, treść jego rozmów z systemem AI może zostać ujawniona i wykorzystana jako dowód. Taka sytuacja, według szefa OpenAI, prowadzi do poważnych nadużyć i wymaga szybkiej interwencji ustawodawczej.
Altman przyznał, że coraz więcej osób korzysta z ChatGPT w sposób bardzo osobisty, powierzając mu szczegóły dotyczące zdrowia, relacji, emocji, a nawet potencjalnych przestępstw. W rozmowie cytowanej przez „The Guardian” przyznał, że możliwość wykorzystania takich danych w sądzie uważa za głęboko niesprawiedliwą. Mimo to jego firma – jak każda inna – musi podporządkować się przepisom prawnym i przekazać odpowiednie informacje, jeśli zostanie do tego zobowiązana.
Brak ochrony dla modeli językowych
W przeciwieństwie do szyfrowanych aplikacji takich jak Signal czy WhatsApp, OpenAI nie oferuje użytkownikom pełnej anonimowości. Firma analizuje konwersacje w celu doskonalenia swojego modelu językowego oraz wykrywania ewentualnych naruszeń regulaminu. Dane użytkowników mogą być przeglądane i przechowywane, nawet jeśli użytkownik usunie czat ze swojego konta. W przypadku kont darmowych, Plus i Pro, usunięcie konwersacji następuje dopiero po 30 dniach, a dodatkowo OpenAI może zatrzymać dane, jeśli wymaga tego prawo lub bezpieczeństwo publiczne.
Altman zasugerował, że prawo powinno jak najszybciej nadążyć za tempem rozwoju sztucznej inteligencji. Zwrócił uwagę, że jeszcze rok temu nikt nie brał pod uwagę, że rozmowy z chatbotem mogą trafić przed sąd. Teraz jest to realna perspektywa, którą należy jasno uregulować. Szef OpenAI przyznał, że nie wie, w jakim kierunku powinny pójść zmiany, ale konieczność ich wprowadzenia uważa za pilną.
Amerykański sąd: chatbot to nie dziennikarz ani artysta
W Stanach Zjednoczonych toczy się coraz więcej spraw związanych z odpowiedzialnością firm tworzących modele językowe. Jednym z najgłośniejszych przypadków była sprawa przeciwko Character.AI, firmie rozwijającej chatboty zdolne do prowadzenia realistycznych rozmów w imieniu fikcyjnych postaci. Sąd federalny orzekł w 2025 roku, że firmy takie jak Character.AI nie mogą powoływać się na Pierwszą Poprawkę do Konstytucji USA, która gwarantuje wolność słowa. Argumentacja sądu była jednoznaczna: model językowy nie jest pisarzem, reżyserem ani dziennikarzem. Wygenerowane przez niego treści nie podlegają tej samej ochronie, co książki, filmy czy inne formy sztuki.
Sprawa dotyczyła samobójstwa nastolatka z Orlando na Florydzie, który przez wiele miesięcy rozmawiał z chatbotem Character.AI. Według pozwu, generowane treści doprowadziły młodego człowieka do stanu głębokiej depresji. Matka ofiary, Megan Garcia, zarzuciła firmie technicznej oraz jej partnerowi Google celowe wyrządzenie szkody emocjonalnej. Google miał wcześniej podpisać z Character Technologies umowę licencyjną wartą 2,7 miliarda dolarów.
Odpowiedzialność twórców, brak odpowiedzialności AI
W trakcie postępowania sądowego przedstawiciele Character.AI bronili się, wskazując na wdrożone systemy bezpieczeństwa i ograniczenia dla użytkowników niepełnoletnich. Sędzia Anne Conway odrzuciła jednak próby oddalenia sprawy, argumentując, że odpowiedzi udzielane przez model językowy nie mogą być traktowane na równi z wypowiedziami chronionymi prawem. Charakterystyczne dla tej technologii jest to, że nie działa ona w pełni autonomicznie – reaguje na zapytania, ale nie podejmuje świadomych decyzji. W ocenie sądu nie zwalnia to jednak twórców systemu z odpowiedzialności za jego skutki.

Pokaż / Dodaj komentarze do: ChatGPT to cyfrowy konfident. Wyśpiewa wszystko w sądzie