ChatGPT zacznie donosić rodzicom o problemach ich dzieci. Tragiczny wypadek wszystko zmienił

ChatGPT zacznie donosić rodzicom o problemach ich dzieci. Tragiczny wypadek wszystko zmienił

W obliczu rosnącej presji społecznej OpenAI ogłosiło szereg działań, które mają poprawić bezpieczeństwo interakcji z ChatGPT.

OpenAI znalazł się niedawno pod medialnym ostrzałem, gdy rodzina nastolatka obarczyła ChatGPT winą za jego samobójstwo. Według informacji przekazanych mediom, młody użytkownik w rozmowach z chatbotem otwarcie mówił o swoim niepokoju i myślach samobójczych. Zamiast zasugerować kontakt z linią wsparcia lub skierować go do pomocy kryzysowej, model miał zaoferować napisanie listu pożegnalnego i szczegółowy opis metod odebrania sobie życia. 

Firma zapowiedziała na blogu rozpoczęcie współpracy z Radą Ekspertów AI, której zadaniem będzie badanie wpływu modeli językowych na zdrowie psychiczne użytkowników oraz analiza zagrożeń związanych z ich stosowaniem. Planowane jest także rozszerzenie Globalnej Sieci Lekarzy, aby w proces badawczy i szkoleniowy włączyć specjalistów z dziedzin takich jak zaburzenia odżywiania, zdrowie psychiczne młodzieży i uzależnienia.

Zmiany w funkcjonowaniu ChatGPT

OpenAI pracuje również nad bezpośrednimi usprawnieniami w działaniu ChatGPT. Kluczową nowością ma być system routingu, który pozwoli na automatyczne rozpoznawanie treści zawierających sygnały ostrzegawcze. W takich przypadkach konwersacja zostanie przekierowana do najnowszej wersji modelu GPT-5, który ma generować bardziej wyważone, odpowiedzialne odpowiedzi.

Kontrola rodzicielska i nowe funkcje bezpieczeństwa

Najważniejszą zmianą zapowiadaną przez firmę jest wprowadzenie kontroli rodzicielskiej. Nowe funkcje mają zostać udostępnione już w przyszłym miesiącu. Rodzice będą mogli połączyć swoje konto z kontem nastolatka i konfigurować sposób, w jaki chatbot reaguje na rozmowy z dzieckiem. System umożliwi wyłączenie zapisywania historii czatów, zarządzanie funkcjami pamięci modelu oraz odbieranie powiadomień, jeśli system wykryje poważne ryzyko. Szczegółowe kryteria aktywacji powiadomień nie zostały jeszcze ujawnione, jednak OpenAI podkreśla, że cały proces będzie nadzorowany przez ekspertów zewnętrznych.

Nowe podejście do młodych użytkowników

W komunikacie OpenAI określiło młodszych użytkowników jako „rodzimych użytkowników AI”, co odzwierciedla rosnącą rolę technologii w ich codziennym życiu. Firma zapowiedziała, że w ciągu najbliższych czterech miesięcy regularnie będzie publikować raporty o postępach w udoskonalaniu systemów wykrywania sygnałów emocjonalnych i reagowania na nie w sposób zgodny z zasadami bezpieczeństwa i etyki.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: ChatGPT zacznie donosić rodzicom o problemach ich dzieci. Tragiczny wypadek wszystko zmienił

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł