Roblox to najpopularniejsza platforma gamingowa wśród dzieci w wieku 8–12 lat, ale niezależny deweloper tworzący gry na tę platformę zdradza, że jej wbudowane mechanizmy ochrony są niewystarczające. To kolejny głos w trwającej debacie o bezpieczeństwie najmłodszych w internecie.
Deweloper ukrywający się pod pseudonimem „Sam" - który poza tworzeniem gier działa w organizacji zajmującej się bezpieczeństwem online, twierdzi, że widział na platformie gry symulujące strzelaniny w szkołach oraz treści nawiązujące do głośnych spraw kryminalnych. Według niego zgłoszenia przez dedykowany formularz skutkują działaniem jedynie w około 30% przypadków. „Dzieci muszą być monitorowane 24 na dobę. Jeśli nie jest to możliwe, nie powinny w ogóle grać w Roblox" - stwierdził wprost.
Weryfikacja wieku to krok w dobrą stronę, ale daleki od rozwiązania problemu.
Roblox podkreśla, że bezpieczeństwo to priorytet, a od stycznia 2026 roku w Wielkiej Brytanii obowiązkowa jest weryfikacja wieku dla wszystkich użytkowników. Platforma deklaruje też blokowanie możliwości komunikacji dzieci z dorosłymi oraz ciągłe monitorowanie zachowań użytkowników.
Roblox weryfikuje wiek, ale to za mało
Roblox skupia globalnie ponad 80 milionów aktywnych graczy dziennie, z czego prawie 40% to osoby poniżej 13. roku życia - skala potencjalnych zagrożeń jest więc ogromna. Kraje takie jak Rosja, Turcja czy Indonezja już zdecydowały się na całkowite lub częściowe zablokowanie platformy dla nieletnich.
To istotne przede wszystkim dla rodziców dzieci w wieku szkolnym, ale też dla regulatorów i samych twórców aplikacji. Na razie weryfikacja wieku to krok w dobrą stronę, ale daleki od rozwiązania problemu.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Moderacja Roblox nie działa. Rodzice powinni pilnować bez przerwy co widzą ich dzieci