Google Perspective wykryje obraźliwe komentarze – to koniec internetowej nienawiści?

Google Perspective wykryje obraźliwe komentarze – to koniec internetowej nienawiści?

Google Perspective wykryje obraźliwe komentarze – to koniec internetowej nienawiści?
Oskar Ziomek
24.02.2017 17:41

Sztuczna inteligencja i uczenie maszynowe to dziedziny, które ostatnio coraz częściej pojawiają się w skomputeryzowanym życiu codziennym. Nie tak dawno temu wspominaliśmy o planach Facebooka na wykorzystanie AI do odróżniania dziennikarskich wpisów od propagandy oraz publikowaliśmy informacje o przeprowadzanych przez Google testach autonomicznych maszyn.

Tym razem AI wykorzystane zostało do stworzenia narzędzia pomagającego moderatorom. Mowa o Google Perspective – systemie, który powstał, aby samodzielnie wykrywać obraźliwe, trollujące i w inny sposób uznawane za nieodpowiednie komentarze w Sieci, ułatwiając tym samym pracę osób odpowiedzialnych dotychczas za ich ręczne analizowanie.

Projekt jest efektem wspólnych działań firm Alphabet oraz Jigsaw, ściśle związanej z Google. Do Perspective można dostać się przez API, którego celem jest rozpoznawanie nieodpowiednich treści, ale o tym jak będą one obsługiwane, będą już mogli zdecydować lokalni programiści:

Perspective API wykorzystuje modele uczenia maszynowego, aby ocenić wpływ konkretnych komentarzy na całą konwersację. Programiści będą mogli wykorzystać tę ocenę, by w czasie rzeczywistym informować komentujących oraz wspomóc pracę moderatorów (…).

W późniejszym czasie w tym roku uruchomimy nowe modele uczenia maszynowego, ale nasz pierwszy model potrafi już rozpoznawać, czy dany komentarz będzie „toksyczny” (szkodliwy) dla dyskusji, pod którą jest publikowany.

Rozpoznawanie i ocena komentarzy przebiegają na podstawie innych, które publikowane były już wcześniej. Sztuczna inteligencja analizuje ich historię i w oparciu o model sprawdza, jaki wpływ na dalszy rozwój rozmowy miały te komentarze, które uznane zostały przez innych za nieodpowiednie.

Na tej podstawie potrafi wykryć, czy aby na pewno użytkownik ma dobre zamiary, a nie chce na przykład kogoś oczerniać lub jedynie wprowadzić dodatkowy zamęt. Informacje o tym mogą być na bieżąco przesyłane komentującemu, który przed publikacją będzie mógł zastanowić się, zanim zdecyduje się na zatwierdzenie szkodliwej dla wątku treści.

Perspective zostało już przetestowane przez dziennikarzy New York Times, ale w planach Google jest także objęcie testami innych redakcji oraz niezwiązanych z nimi stron internetowych.

Mając na uwadze, że jest to raczkująca edycja całego rozwiązania, skuteczność tego mechanizmu można już teraz samodzielnie sprawdzić, wprowadzając różnego rodzaju komentarze w zaimprowizowanym polu na stronie Perspective API. Pamiętajmy, że rozwiązanie to działa aktualnie jedynie w języku angielskim. Wykorzystanie innych języków jest w planach, ale obecnie nie jest to priorytet.

Jak wpłynie to na wolność słowa?

W formie, jaką aktualnie proponuje zespół Perspective – najprawdopodobniej w niewielkim stopniu. Ideą, która przyświeca twórcom jest bowiem wyłącznie wspomaganie pracy moderatorów, a nie ich zastępowanie przez maszynę. Ostatnie słowo i implementacja odpowiedniej reakcji na wykryte komentarze i tak należeć będzie do programistów odpowiedzialnych za konkretny serwis. Sztuczna inteligencja ma jedynie przyspieszyć cały proces.

Zespół odpowiedzialny za tworzenie Perspective API nie ukrywa, że prace nad nim wciąż trwają i w aktualnej formie rozwiązanie jest dalekie od perfekcyjnego. Na finalną wersję pozostanie więc jeszcze trochę poczekać, a mając na uwadze plany firmy na wprowadzenie nowych modeli uczenia maszynowego w nieprecyzyjnie określonej przyszłości w tym roku, trudno przewidzieć, kiedy można będzie spodziewać się ostatecznego wydania.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (26)