Facebook w końcu się przyznaje. "Wiemy, że istnieje problem"

Facebook w końcu się przyznaje. "Wiemy, że istnieje problem"

Moderacja treści na Facebooku od zawsze wzbudza kontrowersje. Nawet Meta, właściciel serwisu przyznaje, iż istnieje problem z moderacją treści na Facebooku oraz Instagramie.

Meta przyznaje, że ma problem z moderowaniem treści na Instagramie i Facebooku

Nick Clegg, prezes ds. globalnych w Meta przyznał, że wskaźnik błędów jeżeli chodzi o moderację treści na takich platformach jak Facebook i Instagram jest zbyt wysoki. Przedstawiciel firmy zapewnił, iż trwają prace nad zwiększeniem precyzji oraz dokładności. Jego zdaniem jest to proces konieczny, bowiem Meta zdaje sobie sprawę z tego, że zbyt często nieszkodliwe rzeczy są kasowane albo ograniczane, a zbyt wielu ludzi niesłusznie karanych.

Przedstawiciel Meta Platforms przyznał, że istnieje problem z moderowaniem treści na Facebooku i Instagramie.

Meta Platforms

„Wiemy, że podczas egzekwowania naszych zasad wskaźniki błędów są nadal zbyt wysokie, co utrudnia swobodę wypowiedzi, którą chcieliśmy umożliwić. Zbyt często nieszkodliwe treści są usuwane lub ograniczane, a zbyt wiele osób zostaje niesprawiedliwie ukaranych” — powiedział Clegg.

Wrócił do czasów pandemii COVID-19 i przyznał, iż Meta żałuje agresywnego usuwania postów na temat koronawirusa. Co ciekawe dyrektor generalny Mark Zuckerberg niedawno powiedział kierowanej przez Republikanów Komisji Sądowniczej Izby Reprezentantów, że polityka moderowania treści związanych z tym tematem miała błędy.

„Mieliśmy bardzo rygorystyczne zasady usuwania bardzo dużych ilości treści podczas pandemii. Nikt podczas pandemii nie wiedział, jak się rozwinie, więc to naprawdę mądre z perspektywy czasu. Ale z perspektywy czasu uważamy, że trochę przesadziliśmy. Jesteśmy tego świadomi, ponieważ użytkownicy słusznie podnieśli głos i narzekali, że czasami nadmiernie egzekwujemy, popełniamy błędy i usuwamy lub ograniczamy nieszkodliwe treści”.

Zawiódł system, nadchodzi czas zmian?

Słowa Clegga sugerują, że po latach zwiększania wydatków na moderowanie treści do miliardów dolarów rocznie, zautomatyzowane systemy Meta nie zdały rezultatu i potrzebne są zmiany, które ograniczą kasowanie nieszkodliwych treści.

Meta nie wprowadziła jeszcze żadnych poważnych znanych zmian w swojej polityce związanej z moderowaniem treści, chociaż stanowisko firmy zdaje się sugerować, że takowe nadejdą.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Facebook w końcu się przyznaje. "Wiemy, że istnieje problem"

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł