Sztuczna inteligencja zmienia sposób, w jaki ludzie zdobywają wiedzę. Coraz częściej zamiast przeglądać strony internetowe, użytkownicy sięgają po odpowiedzi generowane przez chatboty i wyszukiwarki oparte na AI. Nawet Google stawia dziś na automatyczne podsumowania, które pojawiają się przed klasycznymi wynikami wyszukiwania. Nowe badania pokazują jednak, że ta wygoda może mieć swoją cenę.
Uczestnicy eksperymentu otrzymywali krótkie streszczenia wydarzeń historycznych. Część z nich została napisana przez ludzi, a część przez narzędzia takie jak ChatGPT. Następnie badani odpowiadali na pytania sprawdzające ich wiedzę. Osoby korzystające z treści generowanych przez AI osiągały lepsze wyniki. Różnica była widoczna niezależnie od tego, czy uczestnicy wiedzieli, kto jest autorem tekstu.
Badacze wskazują na styl prezentacji informacji. Teksty tworzone przez sztuczną inteligencję były bardziej przejrzyste i uporządkowane. Przypominały uproszczoną, łatwiejszą do przyswojenia wersję encyklopedii.
Zespół kierowany przez Daniel Karell z Uniwersytet Yale sprawdził, jak użytkownicy przyswajają wiedzę z treści przygotowanych przez ludzi i przez AI. Wyniki okazały się zaskakujące.
Problem zaczyna się tam, gdzie kończy się nauka
Na tym jednak nie kończą się wnioski. W kolejnej analizie opublikowanej w PNAS Nexus naukowcy zauważyli coś znacznie bardziej niepokojącego. Treści generowane przez AI nie tylko przekazują wiedzę. Potrafią także wpływać na poglądy czytelników. Jeśli tekst miał określony wydźwięk polityczny, odbiorcy częściej przyjmowali podobne stanowisko po jego przeczytaniu.
Efekt działał w obie strony. Liberalny ton prowadził do bardziej liberalnych opinii, konserwatywny wywoływał odwrotną reakcję.
AI nie tylko informuje. AI przekonuje
Zdaniem badaczy klucz tkwi w sposobie formułowania treści. Sztuczna inteligencja układa informacje w logiczną i spójną narrację, która brzmi przekonująco i naturalnie. To sprawia, że odbiorcy nie tylko zapamiętują więcej, ale także łatwiej akceptują przedstawiony punkt widzenia. Granica między informacją a interpretacją zaczyna się zacierać.
W praktyce oznacza to, że narzędzia, które mają pomagać w zdobywaniu wiedzy, mogą jednocześnie kształtować sposób myślenia użytkowników. W kolejnym artykule opublikowanym w czasopiśmie PNAS Nexus ci sami badacze odkryli, że podsumowania oparte na sztucznej inteligencji nie tylko uczą lepiej, ale także wpływają na poglądy polityczne.
Jeśli streszczenie AI miało liberalny wydźwięk, czytelnicy odnosili bardziej liberalne opinie. Konserwatywny wydźwięk przyniósł odwrotny skutek. Naukowcy uważają, że dzieje się tak, ponieważ AI nie tylko przedstawia fakty, ale także przedstawia je w sposób bardziej logiczny i przekonujący.
Cień dezinformacji i ryzyko manipulacji
W tle pojawia się jeszcze jeden problem. Systemy AI wciąż zmagają się z tzw. halucynacjami, czyli generowaniem nieprawdziwych informacji. Połączenie wysokiej wiarygodności przekazu z potencjalnymi błędami tworzy niebezpieczną mieszankę.
Badania prowadzone przez University of Southern California Information Sciences Institute wskazują, że sztuczna inteligencja może być wykorzystywana do prowadzenia złożonych kampanii wpływu przy minimalnym udziale człowieka. W takiej rzeczywistości rola użytkownika zmienia się diametralnie. Odbiorca nie tylko konsumuje treści, ale musi też samodzielnie oceniać ich wiarygodność.
Nowa era wiedzy i nowe pytania
Sztuczna inteligencja staje się głównym źródłem informacji dla milionów ludzi. Tempo zmian jest ogromne, a wygoda korzystania z AI przyciąga kolejnych użytkowników. Badanie z Uniwersytet Yale pokazuje, że to narzędzie ma ogromny potencjał edukacyjny. Jednocześnie ujawnia jego drugie oblicze. Pytanie nie dotyczy już tego, czy AI pomaga się uczyć. Coraz częściej chodzi o to, jak bardzo wpływa na to, co uznajemy za prawdę.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Badania pokazują, że AI zmienia poglądy polityczne użytkowników