Premier używa ChatGPT do podejmowania decyzji politycznych. Przyznał się

Premier używa ChatGPT do podejmowania decyzji politycznych. Przyznał się

Premier Szwecji Ulf Kristersson przyznał, że regularnie korzysta z narzędzi opartych na sztucznej inteligencji. W rozmowie ujawnił, że sięga po chatboty takie jak ChatGPT czy francuska platforma LeChat, aby analizować alternatywne punkty widzenia, porównywać strategie polityczne i zadawać sobie pytania o sensowność konwencjonalnych decyzji. Kristersson określił te narzędzia jako cyfrową przestrzeń do testowania myślenia politycznego i wymiany idei, z której korzysta osobiście i bezpośrednio.

Choć sam premier przedstawił swoje działania jako formę poszerzania perspektyw, jego szczerość szybko spotkała się z krytyką ze strony przedstawicieli całego spektrum politycznego, dziennikarzy oraz ekspertów ds. bezpieczeństwa technologicznego.

W stronę kryzysu zaufania

Redakcja Aftonbladet ostro skomentowała postępowanie Kristerssona, zarzucając mu uległość wobec trendów technologicznych lansowanych przez zagraniczne korporacje. W swoim komentarzu ostrzegła, że nawet pozornie niewinne użycie sztucznej inteligencji przez szefa rządu może prowadzić do sytuacji, w której decyzje polityczne zaczynają być kształtowane przez algorytmy działające poza kontrolą demokratycznych instytucji. W ocenie dziennika, premier mimowolnie otwiera drzwi dla wpływów ekonomicznych i geopolitycznych, których źródło znajduje się poza granicami Szwecji.

Rzecznik Kristerssona, Tom Samuelsson, odpowiedziałna krytykę i zapewnił, że premier nie przekazuje systemom AI żadnych informacji wrażliwych ani poufnych. Wyjaśnił, że chatboty pełnią jedynie funkcję intelektualnego punktu odniesienia, a nie narzędzia analizy operacyjnej. Pomimo tych deklaracji, zastrzeżenia ze strony specjalistów nie ustają.

Eksperci ostrzegają przed iluzją obiektywizmu

Virginia Dignum, profesor Uniwersytetu w Umeå i uznana ekspertka w dziedzinie etyki sztucznej inteligencji, wyraziła poważne wątpliwości co do używania technologii AI w procesie podejmowania decyzji politycznych. Zwróciła uwagę, że regularne posiłkowanie się sztuczną inteligencją może prowadzić do nadmiernego zaufania wobec systemów, które nie zostały stworzone z myślą o odpowiedzialności publicznej. Jej zdaniem, demokracja wymaga przejrzystości, a AI operuje na zasadach, które z definicji są trudne do pełnego zrozumienia przez użytkowników końcowych.

W podobnym tonie wypowiedział się Jakob Ohlsson, specjalista ds. komunikacji politycznej i zwolennik technologii. Jego krytyka nie dotyczyła samej idei korzystania z AI, lecz warunków, w jakich to się odbywa. Zwrócił uwagę, że premier powierza intelektualny proces narzędziom tworzonym przez firmy zewnętrzne, funkcjonujące w ramach prawnych innych państw. Dodał, że nawet pozornie neutralne pytania zadawane systemowi mogą być wystarczające, by ujawnić intencje lub luki w polityce rządu.

Signe Krantz, felietonistka Aftonbladet, poruszyła wątpliwość natury moralnej. Zastanawiała się, czy premier kraju powinien w ogóle zastępować zaufanych doradców systemami, które dostosowują odpowiedzi do stylu użytkownika, a nie do faktów. Zasugerowała, że AI bywa wygodne, ale niekoniecznie prawdziwe. Jej zdaniem, korekta błędów generowanych przez takie narzędzia może pochłaniać więcej czasu niż samodzielna analiza, a konsekwencje decyzji podejmowanych na tej podstawie mogą być dalekosiężne.

Ostrożne głosy poparcia

Nie wszystkie reakcje były jednoznacznie negatywne. Dagens industri, ten sam dziennik, w którym premier wypowiedział się o swoich nawykach, opublikował artykuł wstępny, w którym bronił jego postawy jako otwartej na innowacje. W komentarzu redakcyjnym zaznaczono, że eksperymenty z nowymi technologiami mogą pomóc politykom lepiej rozumieć świat, w którym muszą podejmować decyzje. Autorzy wskazali, że wiedza praktyczna z pierwszej ręki ma większą wartość niż teoretyczne dywagacje.

Choć w tym ujęciu postawa premiera zyskała cień uznania, nawet zwolennicy nie ignorowali potencjalnych zagrożeń. Przypomniano, że wyniki generowane przez sztuczną inteligencję nie powinny być traktowane jako niepodważalne źródła wiedzy. Mechanizmy, które stoją za ich powstawaniem, często pozostają nieprzejrzyste i podatne na błędy.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Premier używa ChatGPT do podejmowania decyzji politycznych. Przyznał się

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł