Make love, not troll. Algorytm rozpozna mowę nienawiści po pięciu komentarzach

Make love, not troll. Algorytm rozpozna mowę nienawiści po pięciu komentarzach

Make love, not troll. Algorytm rozpozna mowę nienawiści po pięciu komentarzach
23.04.2015 17:51

Mowa nienawiści urasta dla wielu do najistotniejszego problemu w postrzeganiu Internetu jako miejsca wymiany poglądów. Naukowcy z uniwersytetów Cornell i Stanford opracowują algorytm, który może choć częściowo rozwiązać tę kwestię. Wkrótce do rozpoznania trolla wystarczy zaledwie pięć jego wypowiedzi.

Badacze przez 18 miesięcy analizowali ponad 35 milionów komentarzy w serwisach CNN, IGN i Breibart. Prześledzili oni komentarze użytkowników, którym w tym czasie zablokowano możliwość publikowania własnej opinii. To właśnie na tych około 50 tysiącach użytkowników się skupiono. Na podstawie analizy ich zachowań udało się stworzyć model złożony z kilku cech stanowiących potencjalnego trolla.

Według raportu Zachowania antyspołeczne w internetowej społeczności dyskusyjnej można zauważyć kilka cech wspólnych zbanowanych użytkowników. Przede wszystkim osoby używające mowy nienawiści więcej czasu poświęcają na zainteresowanie jednym wątkiem. Wydaje się to dość oczywiste – z czasem zainteresowanie tematem wśród przeciętnych użytkowników spada, jednak zaangażowani w mniej lub bardziej kulturalną dyskusję wymieniają się tam opiniami jeszcze długo po tym. Przeciętny troll realizuje się w dość wąskiej tematyce niż przeciętny użytkownik.

Obraz

Dużą wartość dla naukowców miało także przeanalizowanie leksyki zablokowanych użytkowników. Na ogół posługiwali się oni większą od przeciętnej liczbą potocyzmów oraz, jak nietrudno się było domyślić, wulgaryzmów. Środki te służyły jednak formułowaniu wypowiedzi znacznie odbiegających od głównego nurtu dyskusji. Paradoksalnie generowały one jednak ponadprzeciętną liczbę odpowiedzi.

Na podstawie opracowanej w ten sposób charakterystyki stworzono model rozpoznawania trolli. Według naukowców jego skuteczność wynosi nawet do 80%. Imponujący jest także fakt, że algorytm uzyskuje taki wynik już na podstawie pięciu wypowiedzi użytkownika. Czy możemy się spodziewać w pełni zautomatyzowanego systemu banowania irytujących użytkowników?

Sami twórcy algorytmu są w tej kwestii sceptyczni. Pod uwagę został bowiem wzięty aspekt możliwości niesprawiedliwego stwierdzenia u kogoś cech trolla. Mogłoby to powodować negatywne zachowania u osób, które wcześniej nie wykazywały takich tendencji. W końcu lepiej jest bowiem pozostawić nieukarany występek złoczyńcy niż skazać niewinnego.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (30)