Internet odkrył, że AI Apple'a rozpoznaje damską bieliznę na zdjęciach

Przyzwyczailiśmy się już do tego, że aplikacja Zdjęcia na Androidzie analizuje nasze dzieła i pozwala wyszukać na nich samochody albo psy. Użytkowniczki iOS-a odkryły za to, że aplikacja dla iPhone'a doskonale radzi sobie ze znajdowaniem w ich galeriach biustonoszy, gorsetów, bandeau, pasów wyszczuplających i wielu innych. Zaskakuje fakt, że panowie nie mogą liczyć na podobne efekty przy wyszukiwaniu bokserek lub slipów.

Obraz

Słowa kluczowe, jakie rozpoznaje aplikacja Zdjęć na iOS-ie, zyskały rozgłos na Twitterze. Jedna z użytkowniczek wpisała do wyszukiwarki brassiere (biustonosz) i znalazła kolekcję swoich zdjęć w bieliźnie. Kilka osób zamieściło nawet zrzuty ekranu ze swoich iPhone'ów z analogicznymi kolekcjami zdjęć.

all mine are pictures and videos with my titties peeking ?? pic.twitter.com/TENtwy8AQR

— OG Lady Tyrell (@LexingtonDrive_) 30 października 2017Oczywiście użytkownicy szukali nie tylko bielizny. Zaczęli sprawdzać, co znajdzie się na ich urządzeniach, jeśli będą szukać psów, kotów i innych tego typu rzeczy. Trudno jednak powiedzieć, czy większym problemem jest obecność kilku słów kluczowych dla damskiej bielizny, czy raczej to, że użytkownicy nie mieli pojęcia, że Apple analizuje ich zdjęcia pod kątem zawartości. Niektórzy popadli w paranoję i oskarżyli firmę o wykradanie zdjęć w bieliźnie.

Trzeba bowiem wiedzieć, że lista słów kluczowych w języku angielskim dla AI Apple'a liczy około 4,5 tysiąca słów i jest dostępna w Sieci. Udostępniono ją w czerwcu ubiegłego roku, kiedy to iOS 10 dorobił się głębokiego uczenia i rozpoznawania obrazów. Apple na każdym kroku podkreśla, że analiza odbywa się lokalnie na urządzeniu. Biorąc pod uwagę, że Google promuje swoje rozpoznawanie obrazów od 2015 roku, a do tego przechowuje nasze zdjęcia w chmurze, aż trudno uwierzyć, że tak istotna funkcja u konkurencji przeszła niemal niezauważona aż do dziś.

Zastanawia też brak męskiej garderoby na liście słów kluczowych. Nie wygląda to na przypadek. Ktoś musiał podjąć decyzję w tej sprawie i na pewno przemawiały za tym jakieś argumenty. Może po prostu nikt nie chce oglądać mężczyzn w bieliźnie?

Źródło artykułu: www.dobreprogramy.pl
Wybrane dla Ciebie
WhatsApp testuje nowość. "Zajrzy" do wszystkich rozmów
WhatsApp testuje nowość. "Zajrzy" do wszystkich rozmów
Potężne narzędzie. ChatGPT wygeneruje jeszcze lepsze grafiki
Potężne narzędzie. ChatGPT wygeneruje jeszcze lepsze grafiki
Wiadomości od "kuriera DPD" i fałszywa prośba o dopłatę
Wiadomości od "kuriera DPD" i fałszywa prośba o dopłatę
200 tys. plików w darknecie. Wyciek z Uniwersytetu Warszawskiego niepokoi
200 tys. plików w darknecie. Wyciek z Uniwersytetu Warszawskiego niepokoi
Fala fałszywych e-maili. "Potwierdzenie zwrotu podatku"
Fala fałszywych e-maili. "Potwierdzenie zwrotu podatku"
Uważaj na takie połączenia. Nie są przypadkowe
Uważaj na takie połączenia. Nie są przypadkowe
BMW sięga po AI. Wykorzystają je przy bateriach
BMW sięga po AI. Wykorzystają je przy bateriach
Microsoft zmienił zdanie? Tłumaczy, kiedy warto zastąpić Defendera
Microsoft zmienił zdanie? Tłumaczy, kiedy warto zastąpić Defendera
Walka z botami. Tinder i Zoom wprowadzają skan tęczówki
Walka z botami. Tinder i Zoom wprowadzają skan tęczówki
Rusza WhatsApp Plus. Płatna wersja z dodatkowymi opcjami
Rusza WhatsApp Plus. Płatna wersja z dodatkowymi opcjami
ChatGPT ma dużą awarię. Użytkownicy zgłaszają liczne problemy
ChatGPT ma dużą awarię. Użytkownicy zgłaszają liczne problemy
CERT Polska ostrzega przed fałszywymi powiadomieniami KSeF
CERT Polska ostrzega przed fałszywymi powiadomieniami KSeF
NIE WYCHODŹ JESZCZE! MAMY COŚ SPECJALNIE DLA CIEBIE 🎯