Afrykański kraj stworzył politykę AI. Przypisy wymyślił ChatGPT


Afrykański kraj stworzył politykę AI. Przypisy wymyślił ChatGPT

Republika Południowej Afryki przyznała się do kompromitującej wpadki. Krajowy projekt polityki dotyczącej sztucznej inteligencji został wycofany po tym, jak ujawniono, że dokument zawierał źródła, które nigdy nie istniały.

To nie był drobny błąd redakcyjny. Chodziło o oficjalny rządowy materiał zatwierdzony przez Radę Ministrów i skierowany do publicznych konsultacji. Dopiero później okazało się, że przypisy, choć pozornie wyglądały wiarygodnie, zostały wygenerowana przez narzędzie oparte na sztucznej inteligencji.

Fikcyjne publikacje w oficjalnym dokumencie

Ministerstwo Komunikacji i Technologii Cyfrowych potwierdziło, że po ponownej analizie dokumentu wykryto kilka nieprawdziwych odniesień. Cytowane publikacje miały naukowo brzmiące tytuły, nazwiska autorów oraz daty wydania, jednak nie można było ich odnaleźć w żadnej bazie danych. W praktyce oznaczało to, że państwowy dokument dotyczący regulacji AI został oparty na materiałach stworzonych przez algorytm, a nie przez realnych ekspertów. Dla administracji była to wyjątkowo niezręczna chwila. Szczególnie dlatego, że projekt miał wyznaczać kierunek odpowiedzialnego wykorzystania sztucznej inteligencji w kraju.

Minister mówi o utracie wiarygodności

Minister komunikacji Solly Malatsi przyznał, że sytuacja podważyła zaufanie do całego projektu. W oficjalnym stanowisku zaznaczył, że problem nie ogranicza się do technicznego błędu, ponieważ naruszona została wiarygodność dokumentu przygotowanego przez państwo.

Resort natychmiast wycofał projekt i zapowiedział wewnętrzne postępowanie wobec osób odpowiedzialnych za przygotowanie oraz zatwierdzenie materiału.

„To niedopuszczalne zaniedbanie dowodzi, dlaczego czujny nadzór człowieka nad wykorzystaniem sztucznej inteligencji jest tak ważny. To lekcja, którą przyjmujemy z pokorą” – powiedział Malatsi. „Chcę zapewnić kraj, że traktujemy tę sprawę z należną powagą”.

Chatbot napisał więcej niż powinien

Eksperci zwracają uwagę, że to klasyczny przykład tzw. halucynacji sztucznej inteligencji. System generatywny tworzy informacje, które wyglądają przekonująco, ale nie mają żadnego związku z rzeczywistością. W przypadku zwykłej rozmowy z chatbotem może to być niegroźne. Gdy podobny mechanizm trafia do dokumentu rządowego, konsekwencje stają się znacznie poważniejsze.

Szczególnie niepokojące jest to, że fikcyjne źródła przeszły przez kolejne etapy administracyjnej akceptacji i nikt nie wychwycił problemu przed publikacją.

Polityka AI stała się ostrzeżeniem dla rządów

Problem nie ogranicza się jednak tylko do RPA. Rządy chcą tworzyć przepisy dotyczące sztucznej inteligencji, jednocześnie coraz częściej korzystając z narzędzi AI przy tworzeniu własnych dokumentów. W teorii takie rozwiązania mają przyspieszać pracę urzędów. W praktyce mogą prowadzić do sytuacji, w której państwo publikuje treści oparte na danych wymyślonych przez maszynę. 

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

Afrykański kraj stworzył politykę AI. Przypisy wymyślił ChatGPT
 0