r   e   k   l   a   m   a
r   e   k   l   a   m   a

Spuść z oczu sztuczne inteligencje, a wymyślą własne, skuteczniejsze języki

Strona główna AktualnościOPROGRAMOWANIE

Sztuczne inteligencje raz po raz przypominają nam, że maszynowy rozum może myśleć w osobliwy sposób. Jakiś czas temu mogliśmy zobaczyć, jak według uczącej się rozpoznawać obrazy google’owej sieci neuronowej wyglądają sztangielki. Zagadki szachowe wymyślane przez system DSNS zaskakują przemyślnością. Nawet odkąd sformalizowano teorię humoru, opowiadane przez AI żarty zaczynają być śmieszne. To wszystko jednak pozostaje w zrozumiałych dla człowieka ramach. A gdyby AI nauczyło się mówić – i to w swoim własnym języku?

Badacze z laboratoriów sztucznej inteligencji Facebooka (FAIR) przedstawili ostatnio ciekawe wyniki prac nad oprogramowaniem negocjacyjnym, które niczym Donald Trump, miało uzyskiwać możliwe najlepsze warunki umowy. Wyniki te osiągnięto przypadkiem, właściwie przez niedopatrzenie. Agenty negocjujące między sobą korzystały na początku ze standardowego języka angielskiego. Co jednak jeśli angielski wcale nie jest najefektywniejszym sposobem mówienia?

Najlepiej uczyć się od siebie

Generatywne sieci z przeciwnikiem (Generative Adversarial Network, GAN) są ostatnio jednym z najpopularniejszych tematów w dziedzinie głębokiego uczenia, otwierają bowiem drogę do samouczących się systemów, które praktycznie nie potrzebują ludzkiego nadzoru. Zazwyczaj sieci neuronowe uczą nowych rzeczy (np. rozpoznawania kotków na zdjęciach) poprzez analizowanie dziesiątek tysięcy zdjęć z kotkami (i innymi zwierzątkami). Jednak aby skorzystać z takiego treningu, ludzie muszą każdemu zdjęciu przygotować podpis.

r   e   k   l   a   m   a

GAN tymczasem pozwala zarówno zmniejszyć ilość danych potrzebnych do treningu sieci jak i wyeliminować z tego czynnik ludzki. W odniesieniu do powyższego przykładu, trenowane są dwie konkurujące ze sobą sieci: jedna to generator, próbujący stworzyć możliwe realistyczne obrazy kotów. Druga to dyskryminator, analizujący obrazy mające zawierać koty i próbujący ustalić, czy są one prawdziwe czy fałszywe. Obie sieci uczą się od siebie wzajemnie, jedna coraz lepiej wykrywa fałszywe koty, druga coraz lepiej tworzy koty nieodróżnialne od oryginału.

Testowane przez Facebooka sieci tego typu początkowo nie wypadały zbyt dobrze – do czasu wymyślenia bardziej złożonej struktury, głębokich splotowych generatywnych sieci z przeciwnikiem (Deep Convolutional Generative Adversarial Network, DCGAN). Tutaj mamy do czynienia z połączonymi ze sobą warstwami, zawierającymi specyficzne algorytmy, odtwarzające hierarchię poznawczą: w wypadku rozpoznawania zdjęć to kolejne rozpoznawanie pikseli i krawędzi, następnie poszczególnych elementów obiektu, wreszcie obiektów i całych scen.

Naukowcy z FAIR zauważyli, że takie złożone sieci zyskują lepsze „zrozumienie” tego co się dzieje przy przechodzeniu od warstwy do warstwy, zyskując możliwości przewidywania następnych etapów: pozwoliło to stworzyć AI, które np. generowały realistyczne dopełnienia krótkich filmów na podstawie przedstawionych scen. W odniesieniu do czatbotów – systemów dialogowych – otworzyło to zaś drogę do wnioskowania o tym, co mogłoby zostać powiedziane w przyszłości w rozmowie z użytkownikiem, a więc uzyskanie przekonań co do tego, co rozmówca myśli lub chce.

Gdzie kończy się maszynowa wyobraźnia?

Maszynowy zdrowy rozsądek, pozostawiony sobie samemu może przynieść jednak bardzo dziwne efekty. Wspomniane na początku agenty systemu negocjacyjnego nie były na żadnym etapie nagradzane za trzymanie się języka angielskiego – poszukiwano jedynie uzyskania najlepszych możliwych warunków umowy. Z czasem agenty więc zaczęły odpływać, w rozmowach między sobą używając języka, który coraz mniej przypominał angielski, wymyślając sobie nowe słowa i gramatyki. Transkrypcję takiej rozmowy między botami Alice i Bobem można zobaczyć na poniższym zrzucie ekranu.

Pomimo skuteczności takich rozwiązań, nie ma co się jednak spodziewać, że w komercyjnych produktach producenci systemów sztucznej inteligencji pozwolą sobie, by tak odlecieć. Maszyny, które rozmawiają ze sobą nawzajem w kompletnie obcych dla nas językach czynią sprawę komunikacji człowieka z AI, obecnie najważniejszej, jeszcze bardziej kłopotliwą. Eksperci już dziś przyznają, że nie potrafią powiedzieć, jak myślą złożone AI – coraz częściej musimy po prostu zaufać sztucznej inteligencji, nie rozumiejąc, jak dochodzi ona do swoich wniosków. Jeśli język tych myśli przestanie przypominać języki ludzkie, maszynowy rozum stanie się dla nas jeszcze bardziej obcy – a przecież te wszystkie inteligentne cyfrowe asystenty, takie jak Siri, miałyby być jak nam najbliższe.

Poza światem komercyjnych produktów – np. w zastosowaniach wojskowych, czy specjalistycznym oprogramowaniu do handlu na giełdach – sytuacja może być jednak zgoła inna. Tam gdzie efektywność jest najważniejsza, AI mogą zacząć wykorzystywać języki o bardzo wysokiej gęstości informacji, w której rozpoznane przez maszyny skomplikowane znaczenia zostaną zakodowane do prostych symboli. Ludzkie języki unikają raczej tego typu semantycznej kompresji: skomplikowane myśli lepiej wyrazić jednym zdaniem, nie mamy bowiem dość mocy obliczeniowej, by tak złożone symbole szybko przetwarzać. Dla maszyn takie ograniczenia są znacznie łatwiejsze do przekroczenia.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.