Badania przeprowadzone przez firmę Originality.ai wskazują, że w wyszukiwarce Google zaczyna się pojawiać zjawisko, którego wielu ekspertów obawiało się od lat.
Przeglądy AI (AI Overviews – AIO), funkcja prezentująca syntetyczne podsumowania w wynikach wyszukiwania, coraz częściej cytują treści wygenerowane przez inne modele sztucznej inteligencji. Z analizy wynika, że około 10,4 procent źródeł AIO powstało nie dzięki pracy dziennikarzy, badaczy czy specjalistów, lecz za sprawą generatywnych algorytmów.
Analiza danych YMYL
Badanie objęło 29 tysięcy zapytań z obszaru YMYL (Your Money or Your Life) – tematów dotyczących zdrowia, bezpieczeństwa i finansów, czyli dziedzin, w których wiarygodność informacji ma kluczowe znaczenie. Zespół Originality.ai prześledził wyniki prezentowane w AIO, cytowane linki oraz pierwszą setkę tradycyjnych wyników organicznych. Wykorzystując własny model AI Detection Lite 1.0.1, firma oszacowała, które źródła zostały stworzone przez ludzi, a które przez systemy automatyczne.
Rezultat budzi niepokój. Oprócz wspomnianych 10,4 procent materiałów generowanych przez AI, aż 15,2 procent analizowanych źródeł uznano za „nieklasyfikowalne” z powodu problemów technicznych, takich jak zbyt krótki tekst, uszkodzone linki lub treści w formacie wideo i PDF. Jednocześnie 52 procent odwołań pojawiających się w AIO nie znalazło się wśród stu najpopularniejszych stron prezentowanych przez Google w klasycznych wynikach wyszukiwania.
Ryzyko pętli zwrotnej
Problem, przed którym ostrzegają badacze, nosi nazwę „model collapse”, czyli załamanie się modelu. Koncepcja ta została opisana już w 2023 roku w pracy naukowców z Wielkiej Brytanii i Kanady, którzy nazwali to zjawisko „klątwą rekursji”. Polega ono na tym, że modele sztucznej inteligencji uczą się od siebie nawzajem, powielając błędy i stopniowo tracąc zdolność generowania wartościowych danych.
Nowe ustalenia sugerują, że choć same przeglądy AI nie są bezpośrednio włączane do zestawów treningowych, to przez eksponowanie treści tworzonych przez inne systemy sztucznej inteligencji zwiększają ich widoczność i wiarygodność. To z kolei podnosi ryzyko, że w przyszłości takie materiały trafią do baz treningowych kolejnych modeli.
Odpowiedź Google
Google nie zgadza się z interpretacją wyników. Rzecznik firmy nazwał badanie wadliwym i podważył skuteczność detektorów treści generowanych przez AI, w tym rozwiązania Originality.ai. Zaznaczył, że narzędzia tego typu często mylą się w ocenie i nie zapewniają jednoznacznych rezultatów. Firma argumentuje także, że linki prezentowane w AIO są dynamiczne, dopasowane do konkretnego kontekstu i zmieniają się w zależności od tego, co w danej chwili jest najbardziej aktualne i pomocne.
Originality.ai broni się jednak, wskazując na wysoką dokładność swojego systemu w niezależnych testach. Firma utrzymuje, że problem istnieje i ma potencjał do pogłębienia się, jeśli udział treści tworzonych przez algorytmy w sieci będzie rósł. Jeśli zjawisko będzie się nasilać, sieć może zacząć przypominać zamknięty ekosystem, w którym dane powstają w obiegu zamkniętym, bez udziału człowieka. Taki scenariusz oznacza nie tylko utratę różnorodności treści, ale też ryzyko powielania błędnych informacji na masową skalę.

Pokaż / Dodaj komentarze do: Podsumowania Google coraz gorsze. Sztuczna inteligencja zaczyna cytować sztuczną inteligencję