Wprowadzenie tzw. AI do wyszukiwania informacji miało przyspieszyć dostęp do wiedzy i uprościć codzienne korzystanie z internetu. Tymczasem najnowsze analizy pokazują, że rozwiązania oparte na sztucznej inteligencji w Google mogą generować ogromną liczbę nieprawidłowych odpowiedzi każdego dnia. Skala zjawiska zaczyna robić wrażenie nawet na najbardziej optymistycznych obserwatorach zmian.
Wyszukiwarka Google Search przetwarza rocznie około 5 bilionów zapytań. Nawet jeśli systemy oparte na AI działają poprawnie w zdecydowanej większości przypadków, niewielki odsetek błędów przekłada się na gigantyczne liczby. Testy wskazują, że około 10 procent odpowiedzi generowanych przez modele językowe może zawierać nieścisłości lub całkowicie błędne informacje. W przeliczeniu na skalę globalną daje to dziesiątki milionów problematycznych wyników na godzinę. To tempo, które trudno zignorować.
Wprowadzenie podsumowań AI zmieniło sposób korzystania z internetu. Użytkownik coraz rzadziej klika w linki, polegając na gotowej odpowiedzi wyświetlanej na górze strony.
Gemini poprawia wyniki, ale problem nie znika
Za generowanie podsumowań odpowiada model Gemini. Jego rozwój jest zauważalny. W ciągu kilku miesięcy dokładność wzrosła z około 85 do ponad 90 procent.
Mimo tej poprawy błędy nadal pojawiają się regularnie. Co więcej, zdarzają się sytuacje, w których identyczne zapytanie wpisane w krótkim odstępie czasu daje różne odpowiedzi. Taka niespójność utrudnia ocenę wiarygodności wyników i budzi wątpliwości wśród użytkowników.
Źródła, które nie potwierdzają odpowiedzi
Jednym z największych wyzwań okazuje się powiązanie odpowiedzi AI z rzeczywistymi źródłami. W teorii system powinien wskazywać strony internetowe potwierdzające wygenerowane informacje. W praktyce bywa inaczej. Linki prowadzą czasem do treści, które nie zawierają kluczowych danych, a w niektórych przypadkach prezentują zupełnie inne informacje niż te podane w podsumowaniu. Rozbieżności między odpowiedzią a źródłem pojawiają się coraz częściej po kolejnych aktualizacjach modeli.
AI podatna na manipulacje
Badania pokazały również, że system może powielać nieprawdziwe treści znalezione w sieci. W jednym z eksperymentów fałszywy wpis opublikowany w internecie został szybko podchwycony i przedstawiony jako wiarygodna informacja w wynikach wyszukiwania.
To pokazuje, jak duży wpływ na odpowiedzi AI mają dane wejściowe. Jeśli w sieci pojawia się błędna informacja, istnieje ryzyko, że zostanie ona wzmocniona przez algorytmy i trafi do szerokiego grona odbiorców.
Firmy same ostrzegają użytkowników
Twórcy technologii nie ukrywają ograniczeń. Microsoft w przypadku swojego rozwiązania Copilot zaznacza, że narzędzie nie powinno być wykorzystywane do podejmowania istotnych decyzji.
Podobne sygnały wysyła Google, zachęcając do weryfikowania informacji. Widoczne jest tutaj zjawisko określenie „halucynacji AI”, opisujące sytuacje, w których model generuje przekonujące, lecz nieprawdziwe treści.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Miliony fałszywych odpowiedzi dziennie. Tak działa AI w Google