Dekapitacje, zamęczanie zwierząt, porno. Oto co muszą oglądać moderatorzy Facebooka

Strona głównaDekapitacje, zamęczanie zwierząt, porno. Oto co muszą oglądać moderatorzy Facebooka
24.05.2021 16:16
Young male hacker sitting in a room, working on his computer
Young male hacker sitting in a room, working on his computer
Źródło zdjęć: © Getty Images | perinjo

Zespół ok. 15 tysięcy moderatorów rozsianych po całym świecie przegląda dziennie 3 miliony wpisów. Nieodpowiednich i okrutnych treści jest tak dużo, że pracownicy wprost mówią o traumie, nocnych koszmarach i atakach paniki.

bEKjifuJ

Gazeta Wyborcza dotarła do pracowników działającej w Warszawie firmy, która świadczy usługi dla Facebooka. Ta miała kusić dobrze płatną pracą jako "analityk danych". Na rozmowie rekrutacyjnej dowiadywano się, że klientem jest właśnie Facebook.

O pracy jako moderator treści w mediach społecznościowych od lat krążą legendy. I pozwy. Jeszcze w 2018 roku pisaliśmy o tym, że była moderatorka podała Facebooka do sądu. Identyczna sytuacja wydarzyła się rok temu, ale pozywającą stroną była moderatorka treści w serwisie YouTube. Kobieta stwierdziła, że ta praca doprowadziła ją nie tylko do depresji, ale wręcz spowodowała objawy zespołu stresu pourazowego.

Wpadka TVP. Wiadomości dopuściły do wycieku danych osobowych
Wpadka TVP. Wiadomości dopuściły do wycieku danych osobowych
bEKjifuL

Co takiego dzieje się na monitorach tych osób?

Moderatorzy Facebooka - tak wygląda ich praca

Jak opisują autorzy Wyborczej, moderatorzy pracują w systemie zmianowym w godzinach 7-15, 15-23 i 23-7, a ekipa z Warszawy obsługuje zlecenia z Polski, Rosji, Białorusi, Ukrainy, Czech, Słowacji, Litwy, Hiszpanii i Portugalii. Ich zadaniem jest przeglądanie zdjęć, filmów i postów, a czasem nadzorowanie transmisji - wszystko pod kątem sprawdzania zgodności z regulaminem platformy.

"Klikają: 'zignoruj', czyli następne zdjęcie; 'usuń' - treść narusza warunki korzystania z Facebooka. Weryfikują zgłoszone profile użytkowników, grupy i strony. Sprawdzają, czy podczas transmisji na żywo nikt nie próbuje popełnić samobójstwa albo przestępstwa. W razie potrzeby 'eskalują', czyli wysyłają zgłoszenie do odpowiednich organów".

Liczba drastycznych materiałów nie jest wielka w skali dnia, rozmówcy mówią o 1-2, ale problemem ma być skala i regularność tych doświadczeń. Co najgorzej wspominają? Wymyślne znęcanie się nad zwierzętami lub ich zabijanie na wizji. "Nigdy nie zapomnę widoku ust dziewczyny, która żuła żywą mysz i ją połknęła".

bEKjifuR

Są też morderstwa i tortury na ludziach. "Pamiętam wideo z kamienowania człowieka z jakiegoś afrykańskiego kraju. To standardowe rzeczy, które oglądają moderatorzy". Analitycy danych często dostają też zgłoszenia, zawierające nagie zdjęcia dzieci, młodzieży i dorosłych

Na "polskim Facebooku" najwięcej jest za to mowy nienawiści, skierowanej zazwyczaj wobec Żydów i homoseksualistów, a także nękania, zastraszania innych czy pokazywania samookaleczenia.

Trauma i zespół stresu pourazowego

Warszawscy moderatorzy Facebooka mają na miejscu cotygodniowe sesje psychologiczne oraz zajęcia z medytacji i jogi w ramach pracy. Nie bez przyczyny. "Rozumiemy, że oglądanie niektórych rodzajów treści może być trudne, ściśle współpracujemy z naszymi partnerami, aby zapewnić moderatorom wsparcie na każdym etapie pracy" - informuje biuro prasowego Facebooka.

Uważaj, ktoś może wziąć na ciebie pożyczkę, nawet jeśli twoje dane nie "wyciekły"
Uważaj, ktoś może wziąć na ciebie pożyczkę, nawet jeśli twoje dane nie "wyciekły"
bEKjifuS

Ten pakiet najwyraźniej nie wystarcza, bo rozmówcy Wyborczej mówią wprost o traumie i koszmarach sennych, depresji, atakach paniki oraz próbach radzeniu sobie z drastycznymi treściami przy pomocy alkoholu i narkotyków. Część z tych reakcji jest określana przez specjalistów jako zbieżna z objawami PTSD, czyli zespołu stresu pourazowego, przez lata wiązanego najczęściej ze świadkami bezpośredniej przemocy czy żołnierzami na misjach.

Facebook od lat uczy algorytmy, jak szybko wykrywać nieodpowiednie treści. Dyskusja o tym powraca regularnie, jak np. po niesławnej transmisji masakry muzułmanów w nowozelandzkim Christchurch w 2019 roku. W przyszłości AI i uczenie maszynowe ma z powodzeniem zastąpić człowieka w moderacyjnych decyzjach. Jednocześnie to zapowiedź, którą słyszymy od lat i w 2021 roku nadal brzmi jak pieśń odległej przyszłości.

Programy

Aktualizacje
Aktualizacje
Nowości
Udostępnij:
bEKjifvH