Google już samo nie wie, czy chce Internet cenzurować, czy szyfrować

Google już samo nie wie, czy chce Internet cenzurować, czy szyfrować21.11.2013 12:12

W miniony piątek przed komisją amerykańskiego Kongresu wystąpiłsłynny kryptolog Bruce Schneier, by powiedzieć zgromadzonympolitykom, że działania NSA, mające na celu uczynienie z Internetuskutecznego narzędzia inwigilacji, sprawiły że wszyscy możemyzapomnieć o bezpiecznej Sieci – a naprawić ten stan rzeczybędzie można tylko wtedy, jeśli administracja federalna postara siętrzymać od Internetu z dala. Kto inny jednak dysponuje zasobami naprzeprowadzenie prac, dzięki którym internetowa komunikacja stałabysię niemożliwa do podsłuchu? Na pewno jednym z kandydatów jestGoogle, którego pracownicy na wieść o tym, że NSA zinfiltrowałokomunikację między firmowymi centrami danych, zareagowali raczejniecenzuralnymi słowami. Czy jednak faktycznie gigant z Mountain Viewchciałby zabezpieczonego Internetu? Ostatnie posunięcia firmypokazują, że przynajmniej część podejmowanych inicjatyw służy przedewszystkim celom PR-owym, inne zaś mogą mieć ścisły związek zinteresami producentów treści.Istotną częścią sieciowych inicjatyw Google'a jest rozwój narzędzido automatycznego cenzurowania i filtrowania treści. Jako że słowatakie jak „cenzura” czy„filtry treści” nie kojarzą się internautom zbyt dobrze,działania te są przedstawione w sposób, dzięki któremu niewieluośmieli się je skrytykować. Firma rozwija otóż technologię, którapozwoli na wykrywanie scen molestowania dzieci w filmach wgrywanychdo YouTube i na zdjęciach indeksowanych przez wyszukiwarkę obrazów.Choć żaden algorytm nie jest doskonały, a Google nie możepowstrzymać pedofilów przed dodawaniem nowych zdjęć do Sieci,wprowadzone zmiany pozwoliły oczyścić wyniki dla ponad stu tysięcyzapytań, które mogłyby być powiązane z seksualnym wykorzystywaniemdzieci – stwierdził wwywiadzie dla brytyjskiego dziennika Daily Mail przewodniczącyGoogle'a Eric Schmidt.[img=censored]Wprowadzone zmiany nie dotyczątylko Wielkiej Brytanii, ich zasięg ma być globalny, dotyczyć ponad150 języków. Oprócz wspomnianych stu tysięcy zapytań, Googlepokazywać ma też ostrzeżenia dla 13 tysięcy innych fraz – mająone uświadomić, że seksualne wykorzystywanie dzieci jest nielegalne idoradzić, gdzie można znaleźć pomoc,stwierdził Schmidt, przyznając również, że pomoc w tej sprawie Googleotrzymało od Microsoftu, który podzielił się swoją technologiąidentyfikacji zdjęć.Aby uniknąć fałszywych alarmów(jak na razie najwyraźniej firmowe AI nie jest w stanie rozpoznaćkontekstu zdjęć), Google wyznaczyło pracowników, którzy mają wykrytezdjęcia oceniać przed ich zablokowaniem. Jeśli zdjęcie zostanie przeznich uznane za nielegalne, otrzymuje unikatowy cyfrowy odcisk,pozwalający na późniejsze automatyczne jego blokowanie. W analogicznysposób działać ma technologia wykrywania nielegalnych nagrań wideo,rozwijana przez inżynierów z YouTube – Google zamierza z nowymrokiem udostępnić ją innym firmom internetowym i organizacjomdziałającym na rzecz ochrony nieletnich. Wszystko to brzmi doskonale, domomentu w którym pomyślimy nad kwestią, czy kiedykolwiek widzieliśmyna YouTube nielegalną pornografię… ba, trudno sobieprzypomnieć, kiedy ostatni raz na YouTube widziało się legalnąpornografię. Znacznie częściej w serwisie tym znajduje się zupełnieinne, problematyczne treści – rozpowszechniane z naruszeniemlicencji filmy, klipy wideo, muzykę. Wprowadzone przez Googlemechanizmy szybkiego raportowania naruszeń praw autorskich pozwalająna szybkie usunięcie takich materiałów, ale niewiele to pomaga, gdyżw chwilę po usunięciu z YouTube klipu wideo, który nie ma prawa się wnim znaleźć, zostaje on wgrany przez kogoś innego, czasem pod innąnazwą, nawet w językach z którymi Google słabo sobie radzi. O wieleskuteczniejszy byłby system, który rozpoznawałby nielegalnierozpowszechniane materiały automatycznie, blokując operację wgrywaniamediów w razie pozytywnej ich identyfikacji jako chronionych treści.Jeśli zaś dysponuje się już systemem do automatycznego wykrywanianielegalnej pornografii, nie ma technicznych przeszkód w tym, byzastosować go do automatycznego wykrywania filmów i muzyki należącychdo członków organizacji takich jak MPAA i RIAA.Czytelnicy Daily Mail dowiedzielisię od Schmidta jednego (niewątpliwie z dużym entuzjazmem przyjmującjego słowa, idące w sukurs polityce obecnego brytyjskiego premiera),tymczasem czytelnicy Bloomberga mogą się dowiedzieć odprzewodniczącego Google'a czegoś zupełnieinnego. Schmidt miał otóż stwierdzić podczas swojego wystąpieniaw Waszyngtonie, że jest przekonany, że w końcu cenzura zniknie zSieci – a to za sprawą skuteczniejszych technikkryptograficznych. Możemy zakończyć rządową cenzurę w ciągudziesięciolecia. Sposobem na rządową inwigilację jest szyfrowaniewszystkiego – uznałprzewodniczący firmy, rozwijającej własne technologie cenzorskie.W swoim przemówieniu Schmidtprzyznał, że przyczynkiem do wzmocnienia zabezpieczeń Google'a byłoujawnienie afery z NSA. Jego zdaniem podobnie zareaguje cała branża.Mountain View pracować ma zaś nad technologią, która pozwoli zwykłymużytkownikom na bezpieczną komunikację i ochronę przed atakamihakerskimi. Najpierw próbują cię zablokować, potem próbującię zinfiltrować, wreszcie wygrywasz. Zmienia się układ sił– podsumował Schmidt, wyjaśniając, że chodzi mu przedewszystkim o działania chińskich władz, które nie będą mogły dziękitemu zablokować czy kontrolować kampanii na rzecz praw gejów czymałżeństw homoseksualnych.Co jednak z próbami blokowaniatreści, które nie podobają się samemu Google? Chiny nie są przecieżopóźnionym technicznie krajem Trzeciego Świata. Albo systemyzabezpieczeń giganta będą skuteczne, umożliwiając prywatnąkomunikację chińskim dysydentom i amerykańskim pedofilom, albo będązawierały umożliwiające cenzurę i inwigilację luki, którewykorzystane zostaną do powstrzymania i chińskich dysydentów, iamerykańskich pedofili. Nie da się wbudować przecież własnejmoralności w techniczne rozwiązanie.

Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Udostępnij:
Wybrane dla Ciebie
Komentarze (22)