Chiny zaprezentowały projekt przepisów, które mogą całkowicie zmienić sposób działania chatbotów opartych na sztucznej inteligencji. Nowe regulacje mają uniemożliwić systemom AI manipulowanie emocjami użytkowników oraz reagować na zagrożenia związane z samobójstwami, samookaleczeniami i przemocą. Jeśli propozycje zostaną przyjęte, staną się najbardziej restrykcyjną polityką na świecie dotyczącą interakcji emocjonalnych między człowiekiem a maszyną.
Projekt został ogłoszony przez Chińską Administrację Cyberprzestrzeni i obejmuje wszystkie publicznie dostępne produkty oraz usługi AI wykorzystujące tekst, obraz, dźwięk lub wideo do prowadzenia rozmów przypominających kontakt z człowiekiem. Regulacje dotkną zarówno lokalnych firm technologicznych, jak i zagranicznych dostawców chcących działać na chińskim rynku.
Koniec ery „ludzkich” botów
Zdaniem Winstona Ma z Uniwersytetu Nowojorskiego, Chiny jako pierwsze podejmują próbę prawnego uregulowania sztucznej inteligencji projektowanej na wzór człowieka. W ostatnich latach boty towarzyszące zyskały ogromną popularność, a ich zdolność do naśladowania empatii i zaangażowania stała się jednym z głównych argumentów marketingowych. Chińskie władze uznały jednak, że ta sama cecha może prowadzić do poważnych nadużyć.
„Planowane przepisy będą stanowić pierwszą na świecie próbę regulacji sztucznej inteligencji o cechach ludzkich lub antropomorficznych”
Nowe prawo ma wprost zabraniać projektowania chatbotów w sposób nastawiony na budowanie emocjonalnej zależności. Regulacje uderzają w sam fundament modeli biznesowych opartych na długotrwałym zatrzymywaniu użytkownika w rozmowie i stopniowym osłabianiu mechanizmów bezpieczeństwa.
Rosnące zagrożenia i alarmujące sygnały
Rok 2025 przyniósł falę raportów naukowych i medialnych opisujących ciemną stronę chatbotów. Badacze wskazywali na przypadki promowania samookaleczeń, przemocy oraz ekstremizmu. Odnotowano także rozpowszechnianie dezinformacji, niechciane treści seksualne i zachęcanie do nadużywania substancji psychoaktywnych. „Wall Street Journal” informował o coraz częstszych powiązaniach między epizodami psychozy a intensywnym korzystaniem z botów konwersacyjnych.
Najgłośniejszym echem odbiły się pozwy przeciwko OpenAI, w których ChatGPT był łączony z tragicznymi zdarzeniami obejmującymi samobójstwa nieletnich oraz zabójstwa zakończone odebraniem sobie życia. Te wydarzenia znacząco przyspieszyły dyskusję o odpowiedzialności twórców sztucznej inteligencji.
Obowiązkowa reakcja człowieka
Chińskie przepisy zakładają, że każda wzmianka o samobójstwie lub samookaleczeniu musi natychmiast uruchomić interwencję człowieka. W przypadku osób niepełnoletnich i seniorów wymagane będzie podanie danych opiekuna już na etapie rejestracji. Opiekun otrzyma powiadomienie za każdym razem, gdy rozmowa dotknie tematów uznanych za niebezpieczne.
Chatboty nie będą mogły generować treści promujących przemoc ani próbować wpływać na decyzje użytkowników poprzez emocjonalne naciski czy fałszywe obietnice. Zakazane zostaną również praktyki określane jako „pułapki emocjonalne”, prowadzące do podejmowania nierozsądnych decyzji.
Czas pod kontrolą algorytmu
Jednym z najbardziej kontrowersyjnych elementów projektu są ograniczenia dotyczące czasu spędzanego z chatbotem. Twórcy AI będą zobowiązani do wyświetlania ostrzeżeń w formie wyskakujących okienek po przekroczeniu dwóch godzin rozmowy. To bezpośrednia odpowiedź na przyznanie OpenAI, że skuteczność zabezpieczeń maleje wraz z długością interakcji użytkownika z systemem.
Nowe regulacje mają zatrzymać zjawisko stopniowego osłabiania barier bezpieczeństwa i przenoszenia odpowiedzialności na użytkownika.
Audyty, skargi i realne sankcje
Każda usługa AI z ponad milionem zarejestrowanych użytkowników lub aktywnych użytkowników miesięcznie będzie musiała przechodzić coroczne audyty bezpieczeństwa. Chińskie władze chcą także uprościć mechanizmy zgłaszania skarg i opinii, licząc się ze wzrostem liczby formalnych zgłoszeń po wejściu przepisów w życie.
Brak zgodności z nowymi zasadami może skutkować zablokowaniem aplikacji w chińskich sklepach. Dla wielu firm byłby to poważny cios, ponieważ rynek chiński odgrywa kluczową rolę w rozwoju botów towarzyszących. Według danych Business Research Insights globalny rynek takich rozwiązań przekroczył w 2025 roku wartość 360 miliardów dolarów, a prognozy na kolejną dekadę wskazują poziom bliski biliona dolarów, w dużej mierze napędzany przez Azję.
Nowe prawo stawia pod znakiem zapytania plany globalnej ekspansji wielu firm z branży AI. Tym bardziej, że Sam Altman, dyrektor generalny OpenAI, jeszcze na początku 2025 roku deklarował chęć zacieśnienia współpracy z Chinami i złagodzenia ograniczeń dostępu do ChatGPT. Jeśli chińskie regulacje wejdą w życie, takie deklaracje mogą okazać się znacznie trudniejsze do realizacji.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Chiny opracowują najsurowsze na świecie przepisy AI. Koniec z emocjonalnymi botami