Wprowadzony w ramach szokującej decyzji Apple analizator zdjęć w iOS, przeprowadzający skan prywatnych zdjęć użytkownika na jego telefonie, został zidentyfikowany, poddany analizie odwrotnej i udostępniony w postaci kodu napisanego w Pythonie. Przypomnijmy, że sam fakt istnienia analizatora jest poważnym zagrożeniem dla prywatności użytkownika.

bETWStFh

Sam cel jest szczytny: skan szuka zdjęć przedstawiających akty wykorzystywania seksualnego dzieci, korzystając z zamkniętej bazy cech takich zdjęć, stworzonej przez służby na podstawie przejętych materiałów.

Tenże skan odbywa się jednak bezpośrednio na telefonie, a nie w chmurze - mimo, że ma być przeprowadzany wyłącznie na zdjęciach archiwizowanych w iCloud. Ponadto, jedyną gwarancją tego, że skaner nie zostanie wykorzystany do szukania innych zdjęć niż obecnie deklarowane, jest obietnica Apple. Firma składała już podobne obietnice. Czasem podtrzymywała je w konfrontacji z rządami, a czasem nie.

Wprowadzony po cichu

Analizator, którego wprowadzenie ogłoszono dla nadchodzącej wersji iOS 15 został odnaleziony... już w wersji 14.3. W dodatku pod zaciemnionymi nazwami klas. Fakt ten do niedawna był nieznany i skłania do zadawania pytań o to, ile jeszcze "podejrzanych" rzeczy ogłaszanych w ostatniej chwili jest obecnych na telefonach Apple już teraz.

Eksperci od początku ostrzegali nie tylko o tym, że wprowadzenie takiej funkcji jest tylną furtką potencjalnie zmieniającą wszystkie iPhone'y na świecie w gigantyczną sieć szpiegowską (z czym swego czasu zgadzał się sam Apple). Poważny problem stanowi też prawdopodobieństwo kolizji, czyli wyliczenia skrótu sygnalizującego "nielegalne" zdjęcie dla całkowicie niewinnego. Zablokowanie konta i zainteresowanie służb ma zawsze negatywne konsekwencje dla życiorysu, więc znajomość ryzyka jest kluczowa dla bezpieczeństwa.

bETWStFj

Oczywiście, pojawił się już generator kolizji. Jest idealny do wysyłania użytkownikom WhatsAppa bomby obrazków, które iPhone masowo uzna za zabronione. WhatsApp domyślnie zapisuje odebrane zdjęcia, synchronizacja z iCloud jest domyślnie włączona, a próg alarmowy w Apple to 30 oznaczonych zdjęć.

Trudno uwierzyć w to, że Apple nie miał świadomości tego zagrożenia. Jest to tym trudniejsze w świetle reakcji Apple na żądania FBI sprzed kilku lat. Prawdopodobnie wady automatycznych skanerów były dobrze znane w Cupertino. Być może firma postanowiła je po prostu przemilczeć. Wyjaśniałoby to, dlaczego algorytm pozostawał niejawny, a jego obecność w iOS 14.3 nie była publicznie znana.

Nie ma odwrotu

Apple pozostaje niewzruszony i nie wycofuje się ze swoich planów. W wewnętrznej korespondencji wyraża się niepochlebnie o krytykujących pomysł analizatora ekspertów. Krytyka płynie także od zwykłych użytkowników oraz niemieckiego parlamentu. Finalną konsekwencją wynajmowania zamkniętego oprogramowania na osobiste telefony jest ryzyko dokonywania ogólnoświatowych przeszukań.

Programy

Aktualizacje
Aktualizacje
Nowości
Komentarze (60)
bETWStGf