r   e   k   l   a   m   a
r   e   k   l   a   m   a

Niewspółmierność obrazów: maszyny widzą świat zupełnie inaczej niż my

Strona główna AktualnościSPRZĘT

Wykorzystanie technologii głębokiego uczenia ma coraz większy wpływ na codzienne korzystanie z Sieci nawet w przypadku mniej zaawansowanych użytkowników, o czym mogą świadczyć ostatnie wieści o automatycznych tłumaczeniach w komunikatorze Skype. Głębokie uczenie gra szczególnie ważną rolę w przypadku rozpoznawania obrazów. Naukowcy z Uniwersytetu w Wyoming zaprezentowali wyniki badań dowodzących, że sztuczną inteligencję można oszukać!

Standardowa procedura uczenia się wyglądu obiektu przez sztuczną inteligencję polega na przekazywaniu jej milionów zdjęć tego obiektu w różnych wariantach kolorystycznych i geometrycznych. Tak zdobyte informacje można wykorzystać na przykład do procesu rozpoznawania twarzy czy zarządzania ruchem drogowym. Okazuje się jednak, że w oparciu o tę procedurę, maszyna generująca obraz jakiegoś obiektu może nauczyć się oszukiwać drugą, która ma go rozpoznać.

Jeff Clune z Uniwersytetu w Wyoming do eksperymentu wykorzystał dwie wersje sztucznej inteligencji AlexNet, jednej z najbardziej efektywnych w zakresie rozpoznawaniu obiektów na zdjęciach. W tym przypadku była to gitara. Pierwsza z wersji AlexNetu nie posiadała żadnych informacji o wyglądzie gitary – to właśnie tę poproszono o stworzenie obrazu instrumentu poprzez wygenerowanie losowych pikseli.

r   e   k   l   a   m   a

Druga z wersji inteligencji przeszła wspomnianą procedurę, która przygotowała ją do rozpoznawania gitar na zdjęciach. Po tysiącach nieudanych prób, przy jednoczesnym informowaniu pierwszej inteligencji o niepowodzeniu, udało jej się wygenerować obraz, który druga maszyna rozpoznała jako gitarę. Co ciekawe, dla ludzkiego oka wizerunek ten wyglądał jedynie jako chaotyczne kolorowe wzory nie mające nic wspólnego z jakimikolwiek elementami budowy instrumentu.

Badacz tłumaczy ten wynik faktem, że AlexNet nie traktował wizerunku gitary jako całość, a skupiał się na takich cechach analizowanego obrazu, jak odległości pomiędzy obiektami, relacje między pikselami, kolorystyka i tekstura. Wynik eksperymentu nie jest zaskoczeniem także dla Ryana Adamsa, profesora Harvardu, który uważa, że obiektem zainteresowania sztucznej inteligencji jest najczęściej tylko mała część analizowanego obrazu, jego reszta jest uznawana za nieistotną i odrzucana.

Adams pozwala sobie na daleko idące i bardzo ciekawe wnioski dotyczące podobieństw mechanizmów poznawczych inteligencji ludzkiej i sztucznej. Jako przykład podaje takie zjawiska jak rozpoznawanie przez ludzi znanych obiektów w kształtach chmur, układzie gwiazd czy wzorach na tapetach. Eksperci ustosunkowali się tez do oszukiwania sztucznej inteligencji w zakresie metod używanych przez Google na przykład do odfiltrowywania z wyników stron pornograficznych. Takie wykorzystanie jest przez nich oceniane jako mało prawdopodobne, gdyż zainteresowanym takimi działaniami niezbędna byłaby bardzo szczegółowa wiedza na temat oprogramowania oraz funkcjonowania sztucznej inteligencji.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.