Dekapitacje, zamęczanie zwierząt, porno. Oto co muszą oglądać moderatorzy Facebooka

Dekapitacje, zamęczanie zwierząt, porno. Oto co muszą oglądać moderatorzy Facebooka

Young male hacker sitting in a room, working on his computer
Young male hacker sitting in a room, working on his computer
Źródło zdjęć: © Getty Images | perinjo
Barnaba Siegel
24.05.2021 16:16

Zespół ok. 15 tysięcy moderatorów rozsianych po całym świecie przegląda dziennie 3 miliony wpisów. Nieodpowiednich i okrutnych treści jest tak dużo, że pracownicy wprost mówią o traumie, nocnych koszmarach i atakach paniki.

Gazeta Wyborcza dotarła do pracowników działającej w Warszawie firmy, która świadczy usługi dla Facebooka. Ta miała kusić dobrze płatną pracą jako "analityk danych". Na rozmowie rekrutacyjnej dowiadywano się, że klientem jest właśnie Facebook.

O pracy jako moderator treści w mediach społecznościowych od lat krążą legendy. I pozwy. Jeszcze w 2018 roku pisaliśmy o tym, że była moderatorka podała Facebooka do sądu. Identyczna sytuacja wydarzyła się rok temu, ale pozywającą stroną była moderatorka treści w serwisie YouTube. Kobieta stwierdziła, że ta praca doprowadziła ją nie tylko do depresji, ale wręcz spowodowała objawy zespołu stresu pourazowego.

Co takiego dzieje się na monitorach tych osób?

Moderatorzy Facebooka - tak wygląda ich praca

Jak opisują autorzy Wyborczej, moderatorzy pracują w systemie zmianowym w godzinach 7-15, 15-23 i 23-7, a ekipa z Warszawy obsługuje zlecenia z Polski, Rosji, Białorusi, Ukrainy, Czech, Słowacji, Litwy, Hiszpanii i Portugalii. Ich zadaniem jest przeglądanie zdjęć, filmów i postów, a czasem nadzorowanie transmisji - wszystko pod kątem sprawdzania zgodności z regulaminem platformy.

"Klikają: 'zignoruj', czyli następne zdjęcie; 'usuń' - treść narusza warunki korzystania z Facebooka. Weryfikują zgłoszone profile użytkowników, grupy i strony. Sprawdzają, czy podczas transmisji na żywo nikt nie próbuje popełnić samobójstwa albo przestępstwa. W razie potrzeby 'eskalują', czyli wysyłają zgłoszenie do odpowiednich organów".

Liczba drastycznych materiałów nie jest wielka w skali dnia, rozmówcy mówią o 1-2, ale problemem ma być skala i regularność tych doświadczeń. Co najgorzej wspominają? Wymyślne znęcanie się nad zwierzętami lub ich zabijanie na wizji. "Nigdy nie zapomnę widoku ust dziewczyny, która żuła żywą mysz i ją połknęła".

Są też morderstwa i tortury na ludziach. "Pamiętam wideo z kamienowania człowieka z jakiegoś afrykańskiego kraju. To standardowe rzeczy, które oglądają moderatorzy". Analitycy danych często dostają też zgłoszenia, zawierające nagie zdjęcia dzieci, młodzieży i dorosłych

Na "polskim Facebooku" najwięcej jest za to mowy nienawiści, skierowanej zazwyczaj wobec Żydów i homoseksualistów, a także nękania, zastraszania innych czy pokazywania samookaleczenia.

Trauma i zespół stresu pourazowego

Warszawscy moderatorzy Facebooka mają na miejscu cotygodniowe sesje psychologiczne oraz zajęcia z medytacji i jogi w ramach pracy. Nie bez przyczyny. "Rozumiemy, że oglądanie niektórych rodzajów treści może być trudne, ściśle współpracujemy z naszymi partnerami, aby zapewnić moderatorom wsparcie na każdym etapie pracy" - informuje biuro prasowego Facebooka.

Ten pakiet najwyraźniej nie wystarcza, bo rozmówcy Wyborczej mówią wprost o traumie i koszmarach sennych, depresji, atakach paniki oraz próbach radzeniu sobie z drastycznymi treściami przy pomocy alkoholu i narkotyków. Część z tych reakcji jest określana przez specjalistów jako zbieżna z objawami PTSD, czyli zespołu stresu pourazowego, przez lata wiązanego najczęściej ze świadkami bezpośredniej przemocy czy żołnierzami na misjach.

Facebook od lat uczy algorytmy, jak szybko wykrywać nieodpowiednie treści. Dyskusja o tym powraca regularnie, jak np. po niesławnej transmisji masakry muzułmanów w nowozelandzkim Christchurch w 2019 roku. W przyszłości AI i uczenie maszynowe ma z powodzeniem zastąpić człowieka w moderacyjnych decyzjach. Jednocześnie to zapowiedź, którą słyszymy od lat i w 2021 roku nadal brzmi jak pieśń odległej przyszłości.

Programy

Zobacz więcej
Źródło artykułu:dobreprogramy
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (30)