Facebook opublikował raport pracy moderatorów: 583 mln fałszywych kont

Facebook opublikował raport pracy moderatorów: 583 mln fałszywych kont

Facebook opublikował raport pracy moderatorów: 583 mln fałszywych kont
15.05.2018 20:25

Facebook podjął się niełatwego zadania – walki z treściami niezgodnymi z zasadami serwisu. Warto tutaj podkreślić, że wszystkich kont jest ponad 2 mld, produkują one ogromną ilość danych, więc wychwycenie przynajmniej większości nieodpowiednich zdjęć i postów wymaga ogromnego nakładu pracy. Z opublikowanego raportu wynika, że chociażby samych fałszywych kont w pierwszym kwartale tego roku usunięto ponad 583 mln.

Trzy tygodnie temu Facebook ujawnił wewnętrze wytyczne dla moderatorów. Opublikowany dokument zawiera niemal 10 tysięcy słów, które dokładnie przedstawiają, co jest dozwolone, a za co grożą kary. Jasne stało się, że dostać bana na Facebook jest naprawdę łatwo. Nie powinny więc dziwić wysokie liczby w opublikowanym nowym raporcie dotyczącym zablokowanych naruszeń praw Facebooka.

Wśród ciekawszych danych warto wymienić: 837 mln usuniętego spamu, który prawie w 100% miał zostać zdjęty zanim został przez kogoś zgłoszony, wspomniane we wstępie 583 mln fałszywych kont – większość została usunięta w zaledwie kilka minut od utworzenia. Obie wartości dotyczą okresu od początku stycznia do końca marca 2018 roku.

Facebook chwali się ponadto usunięciem 21 mln elementów uznanych za treści dla dorosłych zawierające nagość. Prawie wszystkie (96%) z tych treści miała zidentyfikować wykorzystywana technologia, która umożliwiła ich usunięcie jeszcze przed pierwszymi zgłoszeniami naruszeń regulaminu. Jeśli chodzi o przemoc przedstawioną na zdjęciach i filmach, w pierwszym kwartale Facebook usunął lub zastosował ostrzeżenia dla 3,5 mln treści. Z kolei w przypadku mowy nienawiści usuniętych zostało 2,8 mln elementów, chociaż tutaj technologia Facebooka okazała się zawodna, wykrywając automatycznie tylko 38% niezgodnych z regulaminem treści.

Facebook dodaje, że jest jeszcze wiele pracy, która pozwoli na skuteczniejsze egzekwowanie wytycznych standardów społeczności. Wciąż sztuczna inteligencja nie jest skuteczna na tyle, aby mogła sama bez pomocy człowieka usuwać nieprawidłowe treści. Duży problem sprawia jej zrozumienie kontekstu wypowiedzi.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (79)