Moderacja Facebooka to farsa, do tego mocno przesunięta w prawo

Moderacja Facebooka to farsa, do tego mocno przesunięta w prawo

Moderacja Facebooka to farsa, do tego mocno przesunięta w prawo
18.07.2018 12:56, aktualizacja: 18.07.2018 13:59

Jeśli podejrzewaliście, że moderacja Facebooka jest stronnicza i przymyka oko na mowę nienawiści z niektórych stron, mieliście rację. Trudno tego nie zauważyć. Potwierdziło to dochodzenie brytyjskiego dziennikarza, który pod przykrywką zatrudnił się jako moderator.

Dziennikarz pracował w firmie Cpl Resources plc z Dublina, świadczącej usługi dla Facebooka od 2010 roku. Podczas przygotowywania filmu dokumentalnego, który został wyemitowany w brytyjskiej telewizji (Inside Facebook: Secrets of the Social Network, Channel 4 Dispatches), przeszedł szkolenie i poznał zasady traktowania wątpliwych wpisów. Dochodzenie wykazało, że Facebook przymyka oko na wiele treści, które według zasad korzystania z serwisu nie powinny być dostępne.

Pod ochroną są na przykład skrajnie prawicowe poglądy, dyskryminacja i mowa nienawiści z tej strony. Grupy szerzące takie idee podlegają innemu traktowaniu i są w tej samej kategorii, co strony rządowe i agencje informacyjne. Grupy posługujące się skrajną retoryką nie są kasowane, jeśli mają wielu członków. Ponadto moderatorów instruuje się, by ignorowali mowę nienawiści skierowaną przeciwko imigrantom, bazującą na pochodzeniu etnicznym i religii.

Ta polityka poważnie podkopuje rzekome starania Facebooka w walce z dezinformacją i propagandą, która może przenieść się do realnego świata i mieć wpływ na działania społeczeństwa. A jednak strony prowadzące wojny informacyjne wciąż działają na równi z pełnoprawnymi agencjami informacyjnymi, co może doprowadzić do prawdziwej tragedii. Przykładem może być teoria spiskowa Pizzagate, która popchnęła pewnego mężczyznę do wtargnięcia z bronią do pizzerii. Był on przekonany, że sieć lokali to przykrywka dla handlu ludźmi.

Osoby, które nie skończyły 13. roku życia oficjalnie nie mogą korzystać z Facebooka, ale na to także moderacja przymyka oko. Jeśli moderatorzy zauważą zdjęcia publikowane przez dziecko wyglądające na młodsze, według wytycznych nie powinni go zgłaszać, o ile osoba wprost się nie przyzna, że jest młodsza. Dotyczy to także zdjęć sugerujących samookaleczanie. Ignorowane są również posty starszych osób, zawierające informacje o planowanym samobójstwie czy samookaleczeniu. Przeciwdziałanie samobójstwom na Facebooku to kolejny mit, który został obalony w dokumencie.

Odkrycia brytyjskiego dziennikarza pokazują pasywność moderatorów Facebooka w odniesieniu do brutalnych materiałów i fanatyzmu, o ile pochodzi ze skrajnie prawej strony. Ignorowane są nawet bezczelne kłamstwa. Powodem jest zapewne to, że angażują odwiedzających na dłużej, a to przekłada się bezpośrednio na większe zyski. Inni moderatorzy potwierdzili, że jeśli zbyt dobrze przyłożą się do swojej pracy, społeczeństwo straci zainteresowanie platformą i zyski spadną. W dokumencie pokazane zostały przykłady filmów, które powinny były zniknąć, ale są dostępne od lat – na przykład mężczyzna depczący przedszkolaka albo film przedstawiający pobicie nastolatki, której twarz jest dobrze widoczna. Ten drugi film został udostępniony ponad tysiąc razy. Matka widocznej na nim dziewczyny martwi się, że film zniszczy życie córki, ale nic nie może z tym zrobić.

Facebook odpowiedział wpisem, w którym zarzeka się, że stara się utrzymać platformę bezpieczną i przyjazną. W końcu gdyby ludzie nie czuli się na Facebooku dobrze, to by z niego nie korzystali. Materiały szkoleniowe, przeznaczone dla moderatorów, zostaną podobno zaktualizowane, a praktyki szkoleniowe zweryfikowane, by osoby nie podzielające wartości Facebooka nie zajmowały się moderacją. W Dublinie od razu zaplanowane zostały nowe szkolenia, które mają zapobiec podobnym niedopatrzeniom. Nie możemy jednak spodziewać się, że mowa nienawiści z prawej strony ucichnie. Ze wpisu można wywnioskować, że Facebook obawia się bardziej stanowczych działań przeciwko niektórym bardziej konserwatywnym społecznościom.

W reportażu pojawił się jeszcze jeden problem – ilość zgłoszeń, jakie zalewają moderatorów, jest nie do przetworzenia. 24-godzinny czas reakcji moderatorów to kolejny mit, który został obalony. Niektóre materiały czekały w kolejce nawet przez 6 dni. Być może pomoże w tym SI, ale póki co mamy z nią marne doświadczenia.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (253)