YouTube dla dzieci miał dostać lepszą moderację, zrzucił pracę na rodziców

Strona główna Aktualności

O autorze

YouTube Kids, czyli wersja YouTube'a dla dzieci, miała dostać lepszą moderację treści, by nie straszyć najmłodszych mrocznymi bajkami i nie mącić w głowach teoriami spiskowymi. Jednak zamiast bezpieczeństwa rodzice dostaną więcej roboty. Na nich spadnie część odpowiedzialności za to, co znajdują ich pociechy.

Na początku miesiąca informowaliśmy, że po kilku wpadkach YouTube zamierza zrezygnować z niewiele wartej automatycznej moderacji treści w aplikacji dla dzieci. Zamiast tego obiecał bardziej polegać na „żywych” moderatorach. Do tego grona zaliczeni zostali też rodzice. Nieprawdą okazały się też doniesienia o zupełnie nowej aplikacji dla dzieci – skończyło się na rozbudowaniu kontroli rodzicielskiej.

Pod przykrywką „większej kontroli nad aplikacją” rodzice dostaną więcej obowiązków. Ludzka moderacja rzeczywiście jest stosowana przez YouTube Kids, ale to rodzice decydują, do czego dostęp będą miały dzieci. Do wyboru jest katalog wybranych przez moderatorów filmów, playlist i zatwierdzonych kanałów, albo wszystkich materiałów, które trafiły do aplikacji. Będzie nawet możliwość ograniczenia dziecięcego katalogu tylko do filmów wybranych przez rodziców, co może nieść dodatkowe niebezpieczeństwo w ekstremalnych modelach wychowania. Za tymi ograniczeniami idzie uszczuplenie rekomendacji i blokada wyszukiwarki.

Przekazanie większej kontroli rodzicom to prawdopodobnie próba zredukowania liczby skarg na to, że dzieci w rzekomo bezpiecznej aplikacji trafiają na filmy zupełnie nieodpowiednie. Niektórych z nich nie powinni oglądać nawet dorośli, ale to już inna sprawa.

Przeniesienie części odpowiedzialności na rodziców jest sprytnym zabiegiem, ale nie rozwiązuje problemu, który w ogóle nie powinien mieć miejsca w takiej aplikacji. Wszystkie te zmiany nie byłyby potrzebne, gdyby nie to, że moderacja YouTube Kids od początku miała wady.

© dobreprogramy
s