Media społecznościowe pomagają terrorystom? Raport w sprawie masakry w Nowej Zelandii

Strona główna Aktualności
fot. Pexels
fot. Pexels

O autorze

Eksperci są zdania, że media społecznościowe, takie jak YouTube czy Facebook odegrały znaczącą rolę w radykalizacji terrorystów w ostatnich latach. Sprawa zyskała na rozgłosie po tym, jak w Nowej Zelandii doszło do masakry w miasteczku Christchurch. W marcu 2019 roku mężczyzna zabił 51 wiernych w meczecie. I chociaż sprawca został ujęty i osądzony, to jego zachowanie zwróciło uwagę na szerszy problem.

Według raportu, który ukazał się w grudniu bieżącego roku, terrorysta odpowiedzialny za atak w Christchurch, regularnie oglądał w internecie treści ekstremistyczne i przekazywał darowizny organizacjom skrajnie prawicowym. Jak podano w raporcie, mężczyzna przyznał również, że YouTube był dla niego znaczącym źródłem informacji oraz inspiracji.

Od czasu masakry w Nowej Zelandii serwis Google’a oraz inne portale społecznościowe zaczęły o wiele bardziej przyglądać się potencjalnie niebezpiecznym treściom. Wiele ekstremistycznych materiałów zostało usuniętych, ale eksperci od radykalizacji w internecie, rozmawiający z WIRED, twierdzą, że "podstawowe modele biznesowe stojące za najpopularniejszymi portalami społecznościowymi nadal odgrywają rolę w radykalizacji postaw online".

"Problem sięga znacznie głębiej"

Aktywność mężczyzny na forach skrajnie prawicowych oraz jego zainteresowanie tego typu treściami w mediach społecznościowych nie są zaskakujące. Jednak dopiero najnowszy raport ujawnił szczegóły na temat wpływu tych treści na popełnione przestępstwo. Chociaż poszczególne platformy społecznościowe zgodziły się, że część odpowiedzialności za rozprzestrzenianie tego typu treści leży po ich stronie, to zdaniem ekspertów firmy te wciąż robią za mało.

"Problem sięga znacznie głębiej niż identyfikacja i usuwanie problematycznych treści", powiedział rzecznik rządu Nowej Zelandii w rozmowie z WIRED. "Te same algorytmy, które zapewniają użytkownikom dostęp do platformy i dobierają dla nich reklamy, mogą również promować szkodliwe treści, gdy dane osoby wykażą nimi zainteresowanie", dodał rzecznik.

Raport szczegółowo opisuje napastnika również jako osobę podatną na wpływy skrajnie prawicowych materiałów, które znalazł w książkach czy internecie. Również jego najbliżsi, których zeznania zostały udostępnione w raporcie, uważają, że od wielu lat jego zachowanie było niepokojące, a aktywność w mediach społecznościowych wskazywała na rosnący ekstremizm.

Kluczowe błędy

Jeszcze w 2018 roku ukazał się raport badaczki ze Stanford Becci Lewis, która opisała, jak YouTube jest wykorzystywany przez media alternatywne do karmienia młodych widzów skrajnie prawicową propagandą. Jej zdaniem utworzona sieć powiązań kierowała użytkowników do coraz bardziej ekstremistycznych treści.

Jako przykład podała kanał Stefana Molyneuksa, który "twierdził, że istnieją naukowe różnice między rasami i promował obaloną pseudonaukę. Ale ponieważ nie był jawnym neonazistą, jego kanał na YouTubie był promowany jak każdy inny".. YouTube usunął treści Molyneuksa w czerwcu tego roku, ale Lewis zauważa, że takie sytuacje są "produktem ubocznym" modelu biznesowego platformy. Przychody są bezpośrednio powiązane z oglądalnością, więc twórcy stają się bardziej radykalni, by przyciągnąć nowych widzów i zarobić więcej<. Za tym z kolei idzie radykalizacja poglądów ich widzów, co może prowadzić do groźnych sytuacji.

Firmy podejmują realne działania?

Rzecznik prasowy YouTube’a w wiadomości przesłanej do WIERD przyznał, że firma poczyniła "znaczące postępy w działaniach na rzecz zwalczania mowy nienawiści w serwisie od czasu tragicznego ataku w Nowej Zelandii". W 2019 roku wprowadzono nową politykę dotyczącą tego typu treści, co zaowocowało usunięciem pięciokrotnie większej liczby nagrań niż w poprzednich latach.

Te nowe zasady weszły w życie w czerwcu 2019 roku i YouTube zapewnia, że z 1,8 mln kanałów zamkniętych z powodu naruszenia regulaminu w zeszłym roku, 54 tys. dotyczyło szerzenia nienawiści. Ponadto skasowano 9 tys. kanałów naruszających zasady dotyczące promowania brutalnego ekstremizmu oraz 200 tys. nagrań, które naruszały te punkty regulaminu serwisu.

Podobny ruch poczynił również Facebook, który zapewnia, że zablokował dostęp do ponad 250 grup szerzących rasizm i antysemityzm. Dodatkowo serwis miał wzmocnić swoją politykę dotyczącą niebezpiecznych treści oraz użytkowników i grup, który je udostępniają. "Poprawili swój algorytm, wyrzucili kilka osób z platformy, ale nie rozwiązali tego podstawowego problemu", uważa Lewis, która sceptycznie podchodzi do działań podejmowanych przez firmy.

Oczywiście nie chodzi tylko o treści udostępniane na YouTubie czy Facebooku. Podstawą biznesową mediów społecznościowych jest rozszerzanie zasięgów na różnych serwisach. Według raportu rządu Nowej Zelandii terrorysta z Christchurch regularnie udostępniał skrajnie prawicowe posty na Reddicie, Wikipedii oraz innych serwisach. A według autorów raportu: "osoba ta nie zaakceptowała faktu, że jego aktywność w siecii mogłyby wzbudzić niepokój agencji antyterrorystycznych, ponieważ w internecie pojawia się cała masa podobnych komentarzy".

Eksperci zwracają również uwagę, że ciężko jest ocenić efektywność działań podejmowanych przez serwisy społecznościowe w celu zapobiegania rozprzestrzeniania się niebezpiecznych treści. Badacze nie wiedzą, np. jak działają algorytmy rekomendacji, czy jak definiowane są "treści z pogranicza".

© dobreprogramy
s