Nowe śledztwo opublikowane przez The New York Times wskazuje na gwałtowny wzrost liczby filmów generowanych przez sztuczną inteligencję, które trafiają do najmłodszych użytkowników YouTube.
Analiza pokazuje, że po obejrzeniu jednego materiału z popularnego kanału dziecięcego ponad 40 procent rekomendowanych krótkich filmów w ciągu zaledwie piętnastu minut zawierało syntetyczne wizualizacje.
Algorytm i zalew syntetycznych treści
Dziennikarze przeprowadzili kilkutygodniową obserwację w trybie prywatnym przeglądarki, oglądając treści z kanałów takich jak CoComelon oraz Ms. Rachel. Następnie analizowali sekcję polecanych filmów Short w krótkich, powtarzalnych sesjach. W jednej z nich, po emisji „Wheels on the Bus”, niemal połowa rekomendacji nosiła ślady generowania przez AI.
Część materiałów była oznaczona etykietą „zmodyfikowana lub syntetyczna treść”. Inne wymagały użycia zewnętrznych narzędzi do detekcji, ponieważ grafika przypominała klasyczną animację. W wielu przypadkach pojawiały się zniekształcone twarze, dodatkowe kończyny, nieczytelne napisy i nielogiczne ciągi zdarzeń. Każdy klip trwał mniej niż pół minuty.
Te same konta i filmy powracały w kolejnych sesjach. Obserwacja wskazuje na aktywną promocję takich materiałów przez algorytm rekomendacji. Kanały publikują po kilka filmów dziennie, koncentrując się na krótkiej formie i dużej rotacji treści.
Format niedostosowany do najmłodszych
Eksperci cytowani w śledztwie podkreślają, że ultrakrótki format nie sprzyja rozwojowi poznawczemu małych dzieci. Brakuje powtórzeń i spójnej narracji, które odgrywają istotną rolę w procesie uczenia się. Materiały określane jako edukacyjne często ograniczają się do chaotycznych animacji liter alfabetu lub zwierząt, bez struktury i kontekstu.
Mimo tych zastrzeżeń filmy osiągają milionowe, a nawet setki milionów wyświetleń. Jeden z klipów o tematyce halloweenowej przekroczył 370 milionów odsłon. Popularność napędza widoczność, a widoczność przyciąga kolejne wyświetlenia.
Ekonomia niskiej bariery wejścia
Wiele kanałów produkujących dziecięce treści AI działa anonimowo. Brakuje informacji o twórcach, dane kontaktowe nie są publikowane, a identyfikacja właścicieli kont bywa niemożliwa. Narzędzia wykorzystywane do produkcji wideo są ogólnodostępne. Wśród nich wymieniane są Whisk oraz Runway rozwijany przez Google.
Samouczki i gotowe szablony pozwalają tworzyć animacje bez doświadczenia w montażu czy rysunku. Model biznesowy opiera się na szybkim generowaniu dużej liczby klipów i liczeniu na działanie algorytmu. Krótka forma, intensywne kolory, dynamiczna muzyka i chwytliwy tytuł mają przyciągnąć uwagę w pierwszych sekundach.
Reakcja platformy i odpowiedzialność rodziców
Po przekazaniu przykładów przez redakcję „The New York Times” platforma zawiesiła pięć wskazanych kanałów w programie partnerskim. Oznacza to utratę możliwości zarabiania na reklamach oraz wykluczenie z aplikacji YouTube Kids. Usunięto również kilka filmów uznanych za naruszające zasady bezpieczeństwa dzieci.
Działania miały charakter reaktywny. YouTube wymaga oznaczania realistycznych treści generowanych przez AI, lecz regulacja nie obejmuje animacji kierowanych do najmłodszych. W praktyce odpowiedzialność za selekcję materiałów spada na rodziców.
Część rodzin tworzy własne playlisty z zaufanymi kanałami lub ogranicza dostęp do aplikacji. American Academy of Pediatrics zaleca unikanie treści sensacyjnych oraz materiałów generowanych przez sztuczną inteligencję. Rozpoznanie takich filmów staje się jednak coraz trudniejsze wraz z postępem narzędzi.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
YouTube zalewa dzieci filmikami AI. Platforma nie panuje nad treściami