Algorytm YouTube'a nie rekomenduje prawicowych treści. Zamiast tego je ukrywa Strona główna Aktualności31.12.2019 13:17 Udostępnij: O autorze Arkadiusz Stando @coldrain Algorytm, którego zadaniem jest rekomendowanie treści użytkownikom, faworyzuje lewicowe i neutralne kanały – donosi amerykański serwis CNBC. Tym samym materiały tworzone przez pro-radykalnych i prawicowych twórców mają niższe zasięgi. Dwoje niezależnych naukowców, analityk danych Mark Ledwich i Anna Zaitsev z Uniwersytetu Kalifornijskiego przez 2 lata analizowali ponad 23 miliony rekomendacji prezentowanych im przez algorytm YouTube'a. Aby to zrobić, najpierw posegregowali 800 kanałów zawierających treści polityczne. Opis ich badania znajdziecie tutaj. Każdemu przyznawali jedną z poniższych kategorii: teorie spiskowe, libertarianizm, przeciwne SJW (społecznej równości), identytaryzm, polityczno-edukacyjne, talk showy, stronnicze lewicy, stronnicze prawicy, antyreligijne, konserwatywno-religijne, socjalistyczne, rewolucyjne, prowokacyjne(czerpiące radość z obrażania i wszelkiej uwagi), nie mainstreamowe media, finansowane przez rząd oraz anty-białoskóre. Algorytm YouTube'a miał być niezależny politycznie, a promuje lewicę Wedle wniosków badaczy, algorytm nie tylko nie proponuje prawicowych/radykalnych kanałów i treści, ale wręcz praktycznie zeruje ich zasięgi. System faworyzuje treści lewicowe lub neutralne. Częściej proponuje też materiały opracowane przez wielkie korporacje medialne czy sieci telewizyjne. Mniejsi twórcy polityczni mają znacznie utrudnione zadanie. Badacze zaobserwowali, że pomimo sporej ilości dostępnych filmów o tematyce radykalnie-prawicowej YouTube nie proponuje ich swoim użytkownikom. Statystyki były zbierane na urządzeniach z przeglądarkami niezalogowanymi do kont YouTube. Tym samym rekomendacje nie były oparte na wcześniej oglądanych filmach. Algorytm nie miał możliwości wywnioskować, jakich materiałów chce poszukiwać odbiorca, a mimo to, stało się. Badanie dwójki naukowców było odpowiedzią na serię artykułów w New York Times. Kevin Roose, dziennikarz renomowanego serwisu, informował wówczas o radykalizacji YouTube'a, czyli miał totalnie przeciwne wnioski. W jednym z nich przytaczał historię 26-latka, który po rezygnacji ze studiów miał stać się ofiarą radykalnej prawicy, która wyprała mu mózgu swoimi materiałami. Internet Udostępnij: © dobreprogramy Zgłoś błąd w publikacji Zobacz także YouTube zaczyna walkę z fejkami na całego. Nadchodzą spore zmiany 29 kwi 2020 Jakub Krawczyński Internet Bezpieczeństwo 154 Facebook chciał mnie zablokować. Algorytmu nikt nie pilnuje, bo jest COVID-19 18 cze 2020 Arkadiusz Stando Oprogramowanie Internet Koronawirus 46 Google pozwane przez YouTuberów. "Cenzurują nasze filmiki, bo jesteśmy czarni" 19 cze 2020 Jakub Krawczyński Internet 171 Facebook powraca do korzeni. To koniec z algorytmami 31 mar Arkadiusz Stando Internet Bezpieczeństwo 17
Udostępnij: O autorze Arkadiusz Stando @coldrain Algorytm, którego zadaniem jest rekomendowanie treści użytkownikom, faworyzuje lewicowe i neutralne kanały – donosi amerykański serwis CNBC. Tym samym materiały tworzone przez pro-radykalnych i prawicowych twórców mają niższe zasięgi. Dwoje niezależnych naukowców, analityk danych Mark Ledwich i Anna Zaitsev z Uniwersytetu Kalifornijskiego przez 2 lata analizowali ponad 23 miliony rekomendacji prezentowanych im przez algorytm YouTube'a. Aby to zrobić, najpierw posegregowali 800 kanałów zawierających treści polityczne. Opis ich badania znajdziecie tutaj. Każdemu przyznawali jedną z poniższych kategorii: teorie spiskowe, libertarianizm, przeciwne SJW (społecznej równości), identytaryzm, polityczno-edukacyjne, talk showy, stronnicze lewicy, stronnicze prawicy, antyreligijne, konserwatywno-religijne, socjalistyczne, rewolucyjne, prowokacyjne(czerpiące radość z obrażania i wszelkiej uwagi), nie mainstreamowe media, finansowane przez rząd oraz anty-białoskóre. Algorytm YouTube'a miał być niezależny politycznie, a promuje lewicę Wedle wniosków badaczy, algorytm nie tylko nie proponuje prawicowych/radykalnych kanałów i treści, ale wręcz praktycznie zeruje ich zasięgi. System faworyzuje treści lewicowe lub neutralne. Częściej proponuje też materiały opracowane przez wielkie korporacje medialne czy sieci telewizyjne. Mniejsi twórcy polityczni mają znacznie utrudnione zadanie. Badacze zaobserwowali, że pomimo sporej ilości dostępnych filmów o tematyce radykalnie-prawicowej YouTube nie proponuje ich swoim użytkownikom. Statystyki były zbierane na urządzeniach z przeglądarkami niezalogowanymi do kont YouTube. Tym samym rekomendacje nie były oparte na wcześniej oglądanych filmach. Algorytm nie miał możliwości wywnioskować, jakich materiałów chce poszukiwać odbiorca, a mimo to, stało się. Badanie dwójki naukowców było odpowiedzią na serię artykułów w New York Times. Kevin Roose, dziennikarz renomowanego serwisu, informował wówczas o radykalizacji YouTube'a, czyli miał totalnie przeciwne wnioski. W jednym z nich przytaczał historię 26-latka, który po rezygnacji ze studiów miał stać się ofiarą radykalnej prawicy, która wyprała mu mózgu swoimi materiałami. Internet Udostępnij: © dobreprogramy Zgłoś błąd w publikacji