r   e   k   l   a   m   a
r   e   k   l   a   m   a

Wstępniak: Facebook wie lepiej niż Facebook, co masz widzieć na Facebooku

Strona główna AktualnościDOBREPROGRAMY

Gdy w amerykańskich mediach gruchnęła wieść, że grono pracowników Facebooka zadało oficjalnie zarządowi spółki pytanie o to, co robi, by Donald Trump nie został prezydentem USA, największy serwis społecznościowy świata szybko się od sprawy odżegnał, zapewniając, że nie robi niczego przeciwko żadnemu z kandydatów. Teraz jednak trudniej będzie się z tego wszystkiego wyłgać – pojawiają się dowody na to, że Facebook aktywnie manipuluje rozpowszechnianiem treści politycznych – i w sumie nie tylko politycznych.

Z ujawnionych przez serwis Gizmodo informacji wynika, że serwis Marka Zuckerberga zatrudnia całe zespoły moderatorów, mających zadbać o to, by treści prawicowe i konserwatywne nie miały zbyt dużego przebicia. Zapytacie pewnie, czy to nie jest naruszenie wolności słowa, gwałt na Konstytucji USA? Otóż nie. Słynna Pierwsza Poprawka przeciwko cenzurze dotyczy wyłącznie działań władzy. Do firm i organizacji zapisy te nie stosują się. Co więc po Pierwszej Poprawce (i jej odpowiednikach w innych krajach) w czasach mediów społecznościowych?

W Facebooku nazywać ich miano „kuratorami newsów”, ręcznie zarządzającymi tym, co pojawić się miało na liście Najpopularniejsze, pilnującymi, by niektóre organicznie rosnące w popularności tematy nie znalazły tam miejsca. Wykluczane z listy miały być tematy dotyczące samego Facebooka, chyba że nie dało się już tego uniknąć – ale i wtedy konieczna była akceptacja wyżej stojących w hierarchii. Czasem też należało na listę popularnych historii coś dodać, mimo że nic nie usprawiedliwiało takiego ich potraktowania.

r   e   k   l   a   m   a

Od decyzji kuratorów zależało to, co pojawi się na jednej z najcenniejszych powierzchni w Internecie, oglądanej tylko w USA przez ponad 167 mln użytkowników. Zatrudnieni na umowę o dzieło młodzi dziennikarze, absolwenci prywatnych, liberalnych uczelni Wschodniego Wybrzeża, przejawiali w swoich wyborach dalekie od neutralności postawy. Niemal wszystko to, co w USA uznawane jest za treść „konserwatywną”, czy też co pochodziło z prawicowych publikatorów, było po prostu wycinane. Od czasu do czasu pojawiała się tam jakaś historia z „prawej strony”, ale wówczas zadaniem kuratorów było znalezienie dla niej źródła bardziej „neutralnego” i to właśnie stamtąd jej opublikowanie.

Oficjalnie żadnych wytycznych w kwestii doboru treści Facebook nie przedstawiał, kuratorzy mieli tu wolną rękę. Ich menedżerowie jedynie czasem nakazywali coś do Najpopularniejszych dołożyć, stosując w tym celu „strzykawkę”, narzędzie pozwalające wprowadzić na listę temat spoza algorytmicznego doboru. Niekiedy w ten sposób treści zupełnie znikąd stawały się najważniejszymi tematami na Facebooku. Nie zawsze chodziło tu o ideologię. Czasem po prostu algorytmy zawodziły, i gdy coś ewidentnie powinno być najważniejsze, pozostawała ręczna interwencja. Tak np. było w wypadku ataku na redakcję Charlie Hebdo w Paryżu, która jakoś sama do Najważniejszych trafić nie mogła. Tutaj wyznacznikiem trendów był Twitter – kuratorzy zbierali cięgi, gdy coś co było ważne na Twitterze, nie znalazło się na facebookowej liście.

Z opowieści jednego z byłych kuratorów wynika, że Facebook zdawał sobie sprawę, jak kiepskim źródłem newsów jest. Jego algorytmy nie potrafiły wychwycić nawet inicjatyw, które z Facebooka wypłynęły, jak np. ruch #BlackLivesMatter, występujący przeciwko przemocy policyjnej skierowanej wobec czarnoskórych. Czasem można było zobaczyć, że użytkownikom Facebooka pewne tematy się nudzą, jak np. w wypadku wojny w Syrii – i po prostu nie chcą ich „share'ować”, mimo ich niewątpliwej wagi.

Jak już wspomniałem, w teorii Mark Zuckerberg może ze swoim serwisem robić co zechce – przynajmniej do czasu, gdy udziałowcy nie powiedzą mu „dość”. Gdy jednak deklaruje się, że twój serwis jest neutralnym potokiem informacji, w którym pojawić się może na równych prawach wszystko, a potem okazuje się, że zatrudniasz ludzi do manipulowania tym, co zobaczą setki milionów użytkowników, to konieczne staje się zapytanie – w jakim stopniu można w ogóle zaufać Facebookowi jako źródłu newsów, rzekomo dobieranych przez neutralny algorytm?

Facebook przyjął wspomniane tu zarzuty bardzo poważnie. Najpierw rzecznik serwisu ogłosił, że stosowane są rygorystyczne wytyczne, zabraniające blokowania politycznych poglądów czy uprzywilejowywania jednych punktów widzenia kosztem innych. Nie ogranicza się też dostępu żadnego ze źródeł do pojawienia się w Najpopularniejszych.

Chwilę później odezwał się sam wiceprezes pionu usług wyszukiwania, p. Tom Stocky, a jego wpis został polubiany przez samego Marka Zuckerberga. I on podkreślił, jak bardzo neutralny i uczciwy w tym wszystkim Facebook jest, ale zarazem przyznał, że coś tam ręczne poprawki nad wynikami działania algorytmu się przydarzają. Oczywiście nie by manipulować trendami, nic takiego, jedynie po to, aby np. łączyć wątki w pojedyncze zdarzenia, by dostarczyć użytkownikom bardziej spójnych doświadczeń. Wszelkie te operacje są logowane, i gdyby ktoś gdzieś regularnie dyskryminował jakieś źródła czy ideologie, to wyleciałby z pracy.

Tyle Facebook. Jak ktoś chce, może oczywiście Zuckerbergowi wierzyć. Neutralność algorytmów, neutralni kuratorzy treści, brzmi to wszystko wspaniale. Komitet ds. Handlu amerykańskiego Senatu nie do końca w to uwierzył, jego przewodniczący wysłał niedawno oficjalny list do Facebooka, z listą pytań, które w obliczu zapewnień Toma Stocky'ego wydają się być nadmiernie wnikliwe – jak np. dopytywanie się, w jaki sposób serwis ustala zgodność działań swoich kuratorów ze swoimi wytycznymi i czy prowadzi w tej kwestii niezależne audyty. Żąda też pełnej listy tematów usuniętych i wstrzykniętych w Najpopularniejsze od stycznia 2014 roku.

Z naszej perspektywy sprawa ta przynosi co najmniej trzy interesujące aspekty:

  1. Jak wygląda zaangażowanie Facebooka w ulepszanie algorytmicznych wyników w innych krajach?
  2. Czy właśnie zobaczyliśmy zawód, który bardzo trudno będzie zautomatyzować?
  3. Co się stanie, jeśli kiedyś sam Mark Zuckerberg zdecyduje się ubiegać o wysokie, wybieralne stanowisko?

My sami powinniśmy zaś zastanowić się, jaki obraz świata faktycznie Facebook nam serwuje – i czy chcemy właśnie taki świat widzieć. Bo to, że sam Mark Zuckerberg ma dość wyraźne poglądy polityczne i społeczne, wiadomo nie od dzisiaj. Świadczy choćby o tym regulamin społeczności Facebooka i wytyczne pracy moderatorów. Można oczywiście deklarować, że przecież po co komu Facebook, że można żyć bez niego, ale powiedzmy sobie szczerze – w wielu zawodach to już niemożliwe, wiele osób nie może sobie pozwolić na takie wykluczenie społecznościowe. Co więc robić?

W rozwiązania polityczne i prawne tej kwestii raczej nie wierzę, jedyną nadzieją jest wzrost inteligencji oprogramowania działającego po stronie użytkownika. Obecnie zbyt duża jest dysproporcja: z jednej strony wielki serwis, wielkie serwery, Big Data, pełna analiza behawioralna, z drugiej ten nieszczęsny użytkownik, złapany w strumień moderowanych newsów jak ryba w sieć. I taka wierzę powinna być dalsza droga ewolucji przeglądarek – w platformy pozwalające zarówno umknąć do jakiegoś stopnia inwigilacji, jak i uniknąć manipulacji doborem treści, poprzez sprytne przeglądanie sieci, integrowanie danych z licznych źródeł, ich porównywanie i weryfikowanie.

Tymczasem – zapraszam do kolejnego tygodnia z dobrymiprogramami.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.