Spuść z oczu sztuczne inteligencje, a wymyślą własne, skuteczniejsze języki

Spuść z oczu sztuczne inteligencje, a wymyślą własne, skuteczniejsze języki

Spuść z oczu sztuczne inteligencje, a wymyślą własne, skuteczniejsze języki
21.07.2017 15:19

Sztuczne inteligencje raz po raz przypominają nam, że maszynowyrozum może myśleć w osobliwy sposób. Jakiś czas temu mogliśmyzobaczyć, jak według uczącej się rozpoznawać obrazy google’owejsieci neuronowej wyglądająsztangielki. Zagadki szachowe wymyślane przez system DSNSzaskakują przemyślnością.Nawet odkąd sformalizowano teorięhumoru, opowiadane przez AI żarty zaczynają być śmieszne. Towszystko jednak pozostaje w zrozumiałych dla człowieka ramach. Agdyby AI nauczyło się mówić – i to w swoim własnym języku?

Badacze z laboratoriów sztucznej inteligencji Facebooka (FAIR)przedstawili ostatnio ciekawe wyniki prac nad oprogramowaniemnegocjacyjnym, które niczym Donald Trump, miało uzyskiwać możliwenajlepsze warunki umowy. Wyniki te osiągnięto przypadkiem,właściwie przez niedopatrzenie. Agenty negocjujące między sobąkorzystały na początku ze standardowego języka angielskiego. Cojednak jeśli angielski wcale nie jest najefektywniejszym sposobemmówienia?

Najlepiej uczyć się od siebie

Generatywne sieci z przeciwnikiem (Generative Adversarial Network,GAN) są ostatniojednym z najpopularniejszych tematów w dziedzinie głębokiegouczenia, otwierają bowiem drogę do samouczących się systemów,które praktycznie nie potrzebują ludzkiego nadzoru. Zazwyczaj siecineuronowe uczą nowych rzeczy (np. rozpoznawania kotków nazdjęciach) poprzez analizowanie dziesiątek tysięcy zdjęć zkotkami (i innymi zwierzątkami). Jednak aby skorzystać z takiegotreningu, ludzie muszą każdemu zdjęciu przygotować podpis.

GAN tymczasem pozwala zarówno zmniejszyć ilość danychpotrzebnych do treningu sieci jak i wyeliminować z tego czynnikludzki. W odniesieniu do powyższego przykładu, trenowane są dwiekonkurujące ze sobą sieci: jedna to generator, próbujący stworzyćmożliwe realistyczne obrazy kotów. Druga to dyskryminator,analizujący obrazy mające zawierać koty i próbujący ustalić,czy są one prawdziwe czy fałszywe. Obie sieci uczą się od siebiewzajemnie, jedna coraz lepiej wykrywa fałszywe koty, druga corazlepiej tworzy koty nieodróżnialne od oryginału.

Testowane przez Facebooka sieci tego typu początkowo nie wypadałyzbyt dobrze – do czasu wymyślenia bardziej złożonej struktury,głębokich splotowych generatywnych sieci z przeciwnikiem (DeepConvolutional Generative Adversarial Network, DCGAN). Tutaj mamy doczynienia z połączonymi ze sobą warstwami, zawierającymispecyficzne algorytmy, odtwarzające hierarchię poznawczą: wwypadku rozpoznawania zdjęć to kolejne rozpoznawanie pikseli ikrawędzi, następnie poszczególnych elementów obiektu, wreszcieobiektów i całych scen.

Naukowcy z FAIR zauważyli, że takie złożone sieci zyskująlepsze „zrozumienie” tego co się dzieje przy przechodzeniu odwarstwy do warstwy, zyskując możliwości przewidywania następnychetapów: pozwoliło to stworzyć AI, które np. generowałyrealistyczne dopełnienia krótkich filmów na podstawieprzedstawionych scen. W odniesieniu do czatbotów – systemówdialogowych – otworzyło to zaś drogę do wnioskowania o tym, comogłoby zostać powiedziane w przyszłości w rozmowie zużytkownikiem, a więc uzyskanie przekonań co do tego, co rozmówcamyśli lub chce.

Gdzie kończy się maszynowa wyobraźnia?

Maszynowy zdrowy rozsądek, pozostawiony sobie samemu możeprzynieść jednak bardzo dziwne efekty. Wspomniane na początkuagenty systemu negocjacyjnego nie były na żadnym etapie nagradzaneza trzymanie się języka angielskiego – poszukiwano jedynieuzyskania najlepszych możliwych warunków umowy. Z czasem agentywięc zaczęły odpływać, w rozmowach między sobą używającjęzyka, który coraz mniej przypominał angielski, wymyślającsobie nowe słowa igramatyki. Transkrypcję takiej rozmowy między botami Alice iBobem można zobaczyć na poniższym zrzucie ekranu.

Obraz

Pomimo skuteczności takich rozwiązań, nie ma co się jednakspodziewać, że w komercyjnych produktach producenci systemówsztucznej inteligencji pozwolą sobie, by tak odlecieć. Maszyny,które rozmawiają ze sobą nawzajem w kompletnie obcych dla nasjęzykach czynią sprawę komunikacji człowieka z AI, obecnienajważniejszej, jeszcze bardziej kłopotliwą. Eksperci już dziśprzyznają, że nie potrafią powiedzieć, jak myślą złożone AI –coraz częściej musimy poprostu zaufać sztucznej inteligencji, nie rozumiejąc, jakdochodzi ona do swoich wniosków. Jeśli język tych myśliprzestanie przypominać języki ludzkie, maszynowy rozum stanie siędla nas jeszcze bardziej obcy – a przecież te wszystkieinteligentne cyfrowe asystenty, takie jak Siri, miałyby być jak namnajbliższe.

Poza światem komercyjnych produktów – np. w zastosowaniachwojskowych, czy specjalistycznym oprogramowaniu do handlu na giełdach – sytuacja może być jednak zgoła inna. Tam gdzie efektywnośćjest najważniejsza, AI mogą zacząć wykorzystywać języki obardzo wysokiej gęstości informacji, w której rozpoznane przezmaszyny skomplikowane znaczenia zostaną zakodowane do prostychsymboli. Ludzkie języki unikają raczej tego typu semantycznejkompresji: skomplikowane myśli lepiej wyrazić jednym zdaniem, niemamy bowiem dość mocy obliczeniowej, by tak złożone symboleszybko przetwarzać. Dla maszyn takie ograniczenia są znaczniełatwiejsze do przekroczenia.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (102)