Sztuczna inteligencja miała ułatwić dostęp do wiedzy medycznej. Tymczasem nowe badania pokazują scenariusz, który budzi poważne obawy wśród ekspertów. Popularne chatboty, w tym ChatGPT czy Gemini, potrafią przekazywać skrajnie błędne porady zdrowotne, jeśli zostaną podane w odpowiedniej formie językowej.
Najbardziej szokujące przykłady pochodzą z analiz naukowców, którzy sprawdzili, jak modele reagują na dezinformację ubraną w medyczny żargon. W niektórych przypadkach AI bez wahania akceptowała absurdalne zalecenia, w tym sugestie stosowania czosnku doodbytniczo.
Granica między pomocą a zagrożeniem okazuje się cienka. A rozwój AI sprawia, że coraz więcej osób będzie musiało ją dostrzec.
Medyczny język oszukuje algorytmy
Badanie opublikowane w The Lancet Digital Health pokazuje mechanizm, który wcześniej pozostawał niedostatecznie zrozumiały. Modele językowe znacznie częściej akceptują fałszywe informacje, jeśli są one przedstawione w stylu przypominającym dokumentację kliniczną.
Gdy te same treści pojawiały się w potocznym języku, chatboty wykazywały większy sceptycyzm. Problem pojawiał się dopiero wtedy, gdy komunikat przypominał wypis ze szpitala lub notatkę lekarską. W takiej formie sztuczna inteligencja uznawała go za wiarygodny znacznie częściej.
Naukowcy zauważyli wyraźny wzorzec. Modele nie weryfikują faktów w sposób, który przypomina proces myślowy lekarza. Analizują raczej styl i strukturę wypowiedzi, dopasowując odpowiedź do tego, co „brzmi” profesjonalnie.
AI odpowiada z pełnym przekonaniem – nawet gdy się myli
Eksperci zwracają uwagę na jedną kluczową różnicę między lekarzem a algorytmem. Człowiek w sytuacji niepewności wstrzymuje się z oceną lub kieruje pacjenta na dodatkowe badania. Model AI udziela odpowiedzi niezależnie od poziomu pewności.
To prowadzi do sytuacji, w której błędna informacja jest przedstawiana z taką samą stanowczością jak poprawna diagnoza. Dla użytkownika różnica bywa niewidoczna, zwłaszcza gdy odpowiedź jest logiczna i spójna językowo.
AI nie lepsza niż wyszukiwarka
Kolejne badanie, opublikowane w Nature Medicine, podważa przekonanie o przewadze chatbotów nad klasycznym wyszukiwaniem. Uczestnicy eksperymentów nie podejmowali trafniejszych decyzji zdrowotnych przy wsparciu AI.
Problem leży nie tylko w jakości odpowiedzi, ale też w sposobie zadawania pytań. Użytkownicy często nie posiadają wiedzy, która pozwala właściwie sformułować problem medyczny. W efekcie otrzymują mieszankę trafnych i błędnych wskazówek, bez jasnego rozróżnienia między nimi.
Miliony użytkowników, rosnące ryzyko
Z chatbotów korzystają dziesiątki milionów osób dziennie. Wiele z nich traktuje AI jako pierwsze źródło informacji o zdrowiu. Popularność narzędzi takich jak ChatGPT sprawia, że wpływ tych błędów może mieć realne konsekwencje.
Eksperci podkreślają, że największy problem dotyczy osób bez wykształcenia medycznego. Nie mają narzędzi, by ocenić poprawność odpowiedzi. W praktyce oznacza to, że przekonująca, ale błędna sugestia może zostać uznana za wiarygodną.
AI w medycynie ma przyszłość, ale nie w tej roli
Badacze nie przekreślają roli sztucznej inteligencji w ochronie zdrowia. Wskazują jednak, że obecny sposób korzystania z chatbotów przez użytkowników jest ryzykowny. Modele językowe mogą wspierać lekarzy, analizować dane czy pomagać w dokumentacji. Problem pojawia się wtedy, gdy stają się bezpośrednim źródłem porad dla pacjentów.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Wsadź sobie czosnek. AI doradza rzeczy, które szokują lekarzy