r   e   k   l   a   m   a
r   e   k   l   a   m   a

Internetowi potentaci razem przeciw mowie nienawiści. Facebookowi pomoże w tym sztuczna inteligencja

Strona główna AktualnościINTERNET

W świetle wczoraj ujawnionego porozumienia amerykańskich wielkich firm internetowych z Komisją Europejską o zwalczaniu tzw. „mowy nienawiści” w Sieci, najnowsze posunięcie Facebooka wydaje się całkiem zrozumiałe. Największy serwis społecznościowy świata sięgnie po sztuczną inteligencję w walce z wizerunkami, które mogłyby zaszkodzić wrażliwej psychice ludzkich cenzorów.

Przypomnijmy: najważniejsi operatorzy usług w chmurze, serwisów społecznościowych i wyszukiwarek poinformowali wczoraj, że porozumieli się z Komisją Europejską w sprawie przyjęcia unijnego kodeksu postępowania w Internecie. Znalazły się w tym gronie Microsoft, Facebook, Twittter i YouTube (co ciekawe, na razie nie ma mowy o innych usługach Google'a). Sygnatariusze porozumienia zapewnią, że wszelka „mowa nienawiści” – nielegalne nawoływanie do nienawiści w Internecie – publikowana na ich serwisach zostanie w ciągu 24 godzin usunięta.

Nie należy sądzić, że amerykańskie firmy zdecydowały się na to z pobudek ideologicznych – powód był bardziej prozaiczny. Chodziło o pieniądze, a właściwie o uniknięcie kar finansowych wobec operatorów, którzy nie usunęliby zakazanych treści. Podpisując porozumienie, firmy mogą zadeklarować, że przestrzegają unijnych wytycznych – zachowują tzw. compliance, zgodność z wymogami prawa.

r   e   k   l   a   m   a

Co tu jeszcze zakazać?

Problemem oczywiście pozostaje to, czym jest „mowa nienawiści” i jak się to ma do wolności słowa. I tu wkraczamy na prawdziwe pole minowe, gdyż w różnych krajach Unii kwestia ta jest różnie definiowana. Z oficjalnego komunikatu Komisji można jednak wyczytać tematy, które zostały uznane za mogące osłabić demokratyczny dyskurs na platformach internetowych. Mowa jest więc o przekazie rasistowskim, ksenofobicznym, podżegającym do przemocy, nietolerancji, w szczególności na tle antysemickim i antymuzułmańskim, treściami, które obrażają, szokują lub zakłócają państwo lub jakąkolwiek część społeczeństwa.

Zarazem jednak skala tej cenzury będzie globalna – nawet jeśli ktoś spoza UE opublikuje na globalnych platformach treść uznaną za „mowę nienawiści” w Europie, operatorzy usług będą musieli ją usunąć, by nie obraziła czasem kogoś na Starym Kontynencie. Firmy-sygnatariusze, chcąc zjeść ciastko i je mieć, stwierdziły zarazem, że nie popierają cenzury i chcą, by użytkownicy mogli wyrażać swoje autentyczne przekonania. Oczywiście, o ile nie są dla kogoś obraźliwe lub nienawistne.

Nie tylko o usuwanie niewłaściwych treści chodzi, ale też o promowanie właściwych. Z treści porozumienia możemy się dowiedzieć, że przedsiębiorstwa z branży IT i Komisja Europejska mają również na celu kontynuację prac w zakresie określania i promocji niezależnych treści alternatywnych, nowych pomysłów i inicjatyw oraz wspierania programów edukacyjnych, które zachęcają do krytycznego myślenia.

Ludzie zbyt delikatni na nieocenzurowany Internet

Chyba jednak nie byłoby dobrze, by moderatorzy serwisów społecznościowych musieli być sami wystawieni na niekończący się strumień przesyconych nienawiścią treści, szczególnie tych w postaci obrazów czy filmów. Jak wiadomo, co zostało zobaczone, nie może już zostać odzobaczone. Dlatego też Facebook ogłosił, że osiągnął ważny kamień milowy w pracach nad Sztuczną Inteligencją. Jego systemy potrafią teraz samodzielnie wykrywać i usuwać treści naruszające regulamin serwisu. Mowa nienawiści, pornografia, nagość, czy przemoc – zanim ktoś oznaczy to jako naruszające regulamin, zobaczą to setki, a nawet tysiące ludzi, szkoda zostanie poczyniona.

Facebook poszedł więc w stronę aktywnej moderacji, przeprowadzanej przez AI i jego algorytmy już teraz wykrywają więcej naruszających regulamin treści, niż ludzcy moderatorzy – przyznał szef pionu maszynowego uczenia w Facebooku, Joaquin Candela. Zautomatyzowana policja myśli jest w stanie przejrzeć setki tysięcy nowych wpisów, jakie pojawiają się co minutę w serwisie, rozpoznając nie tylko ich treść, ale i kontekst. W ten sposób serwis staje się nie tylko bezpieczniejszy dla społeczności, ale też chroni moderatorów, którzy wcześniej zmuszeni byli patrzeć na to, co najgorsze w człowieku i szybko się wypalali, zdradzając symptomy zbliżone do zespołu stresu pourazowego.

W tym samym kierunku chce podążać Twitter. Choć nie dysponuje zasobami swojego wielkiego konkurenta, robi co może – tylko po to, by walczyć z naruszającymi regulamin obrazami, zakupił specjalizujące się w maszynowym przetwarzaniu obrazu startupy Madbits i Whetlab. Zbudowane przez nich AI myli się podobno nie częściej niż w 7% przypadków i już teraz pozwoliło znacznie ograniczyć liczbę ludzkich moderatorów (choć wciąż zawieszanie kont na Twitterze odbywa się „ręcznie”).

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.