Algorytmy są niemal wszechobecne, a ich zasięg obejmuje coraz to nowsze obszary mediów cyfrowych. Teraz FACEIT przenosi uczenie maszynowe na nowe terytoria: toksyczny czat w grach online. Firma współpracuje z Google Cloud i Jigsaw (wcześniej Google Labs) w celu stworzenia sztucznej inteligencji poświęconej banowaniu toksycznych graczy i pozbycia się negatywnych zachowań. Nowość jest już w użyciu i jak dotąd zbanowano ponad 20000 graczy Counter-Strike: Global Offensive.
FACEIT twierdzi, że od czasu wprowadzenia Minervy nastąpił spadek toksycznych wiadomości o 20,13%, z 2280769 w sierpniu do 1821723 we wrześniu.
Algorytm od FACEIT AI nazywa się Minerva, a "po miesiącach treningów w celu zminimalizowania fałszywych interwencji", oprogramowanie pod koniec sierpnia weszło w etap produkcyjny na platformie firmy. Od tego czasu AI wydało 90000 ostrzeżeń i 20000 banów w związku z niewłaściwym zachowaniem podczas komunikacji i spamem, wszystko to "bez ręcznej interwencji". "Jeśli wiadomość jest postrzegana jako toksyczna w kontekście rozmowy" - wyjaśnia FACEIT w poście na blogu - "Minerva wydaje ostrzeżenie za słowne nadużycie, podczas gdy podobne wiadomości na czacie są oznaczane jako spam.
Minerva jest w stanie podjąć decyzję zaledwie kilka sekund po zakończeniu meczu: jeśli zostanie wykryte nadużycie, wysyła powiadomienie zawierające ostrzeżenie lub blokadę sprawcy" FACEIT twierdzi, że od czasu wprowadzenia Minerwy nastąpił spadek toksycznych wiadomości o 20,13%, z 2280769 w sierpniu do 1821723 we wrześniu. Nie powinno nikogo dziwić, że Minerva pojawia się najpierw Counter-Strike: Global Offensive, w końcu to ta gra może się "pochwalić" jedną z najbardziej toksycznych społeczności. Mamy nadzieję, że dzięki AI sytuacja ta zacznie się poprawiać i przeniesie również na inne tytuły.
Pokaż / Dodaj komentarze do: Sztuczna inteligencja w miesiąc zbanowała 20000 toksycznych graczy CS:GO