Sztuczna inteligencja nie radzi sobie na YouTube. Wracają moderatorzy Strona główna Aktualności22.09.2020 16:38 fot. GettyImages Udostępnij: O autorze Arkadiusz Stando @coldrain YouTube ostatnio coraz mocniej inwestował w algorytmy sztucznej inteligencji, które wydawałoby się, są idealnym narzędziem do moderacji. Tak dotąd sądzili włodarze Google'a. Eksperyment okazuje się jednak niewypałem. W marcu tego roku YouTube wszedł na nowy poziom walki z dezinformacją i mową nienawiści. Jednym z efektów było wprowadzenie nowego algorytmu. Jego zadaniem było flagowanie tego typu treści, a w niektórych przypadkach nawet podejmowanie decyzji o ich usunięciu. Szybko się okazało, że algorytm nie jest w stanie skutecznie rozpoznawać niezgodnej z regulaminem treści. Wraz z wprowadzeniem nowego narzędzia, rosła liczba odwołań od usunięcia treści z serwisu. Na przełomie kwietnia i czerwca usunięto 11 milionów filmów, czyli ponad dwa razy więcej, niż zwykle w tym samym czasie. W 320 tysiącach przypadków doszło do odwołania, a połowa z filmów została przywrócona. To również dwa razy więcej niż zwykle, a tym samym znak, że algorytm pracował zbyt nadgorliwie. YouTube stwierdza, że moderacja z użyciem AI to porażka W rozmowie z serwisem Finnacial Times, przedstawiciel YouTube'a przyznał, że wprowadzenie algorytmu do wykrywania treści niezgodnych z regulaminem było błędem. Stwierdził, że tego typu narzędzia nie mogą być tak precyzyjne jak człowiek. Tym samym, zapowiedziano powrót do wcześniejszych praktyk, czyli przywrócenie zespołu ludzkich moderatorów. Niekiedy treści zawarte na YouTube mogą być trudne do oceny nawet dla człowieka. Stwierdzenie, czy film zaledwie wspominający o teorii spiskowej, czy zawierający krótkie sceny rasizmu, ale nie skupiający się na nim, jest niezgodny z regulaminem, może zależeć od wielu czynników. Tego typu kwestie po prostu nie są zero-jedynkowe. Oprogramowanie Internet Biznes Udostępnij: © dobreprogramy Zgłoś błąd w publikacji Zobacz także Moderowanie YouTube'a powodem depresji i zespołu stresu pourazowego? Jest pozew 22 wrz 2020 Oskar Ziomek Internet Biznes Bezpieczeństwo 57 Szukasz pracy? Dobra rada: usuń Facebooka i nie wychylaj się w sieci 5 lut 2020 Jakub Krawczyński Internet Biznes 88 Disney chce ulepszyć kompresję obrazu. Nowy algorytm mógłby trafić na Disney+ 25 lut 2020 Jakub Krawczyński Oprogramowanie 19 Facebook tłumaczy, jak sztuczna inteligencja eliminuje fałsz związany z COVID-19 13 maj 2020 Oskar Ziomek Internet Biznes Bezpieczeństwo Koronawirus 17
Udostępnij: O autorze Arkadiusz Stando @coldrain YouTube ostatnio coraz mocniej inwestował w algorytmy sztucznej inteligencji, które wydawałoby się, są idealnym narzędziem do moderacji. Tak dotąd sądzili włodarze Google'a. Eksperyment okazuje się jednak niewypałem. W marcu tego roku YouTube wszedł na nowy poziom walki z dezinformacją i mową nienawiści. Jednym z efektów było wprowadzenie nowego algorytmu. Jego zadaniem było flagowanie tego typu treści, a w niektórych przypadkach nawet podejmowanie decyzji o ich usunięciu. Szybko się okazało, że algorytm nie jest w stanie skutecznie rozpoznawać niezgodnej z regulaminem treści. Wraz z wprowadzeniem nowego narzędzia, rosła liczba odwołań od usunięcia treści z serwisu. Na przełomie kwietnia i czerwca usunięto 11 milionów filmów, czyli ponad dwa razy więcej, niż zwykle w tym samym czasie. W 320 tysiącach przypadków doszło do odwołania, a połowa z filmów została przywrócona. To również dwa razy więcej niż zwykle, a tym samym znak, że algorytm pracował zbyt nadgorliwie. YouTube stwierdza, że moderacja z użyciem AI to porażka W rozmowie z serwisem Finnacial Times, przedstawiciel YouTube'a przyznał, że wprowadzenie algorytmu do wykrywania treści niezgodnych z regulaminem było błędem. Stwierdził, że tego typu narzędzia nie mogą być tak precyzyjne jak człowiek. Tym samym, zapowiedziano powrót do wcześniejszych praktyk, czyli przywrócenie zespołu ludzkich moderatorów. Niekiedy treści zawarte na YouTube mogą być trudne do oceny nawet dla człowieka. Stwierdzenie, czy film zaledwie wspominający o teorii spiskowej, czy zawierający krótkie sceny rasizmu, ale nie skupiający się na nim, jest niezgodny z regulaminem, może zależeć od wielu czynników. Tego typu kwestie po prostu nie są zero-jedynkowe. Oprogramowanie Internet Biznes Udostępnij: © dobreprogramy Zgłoś błąd w publikacji