Asystent Google nie przeszedł Testu Turinga – a czy w ogóle idzie we właściwą stronę?

Strona główna Aktualności

O autorze

Najważniejszy news mijającego tygodnia – Asystent Google przeszedł Test Turinga. Podczas konferencji Google I/O zaprezentowano Android Duplex, wykorzystaniu Asystenta Google do rozmów telefonicznych w naszym imieniu, np. zarezerwowaniu stolika w restauracji czy wizyty u fryzjera. Poruszeni widzowie mogli doświadczyć charakterystycznych dla ludzkiej mowy pauz i wykrzykników namysłu. To wystarczyło, by zbiorowo orzeczono, że oto Android Duplex przeszedł Test Turinga, innymi słowy osiągnął w swojej komunikacji poziom pozwalający mu udawać człowieka. Ale co na to sam Alan Turing, pomysłodawca testu?

Dyrektor wykonawczy Google’a Sundar Pichai uruchomił Duplexa, prosząc Asystenta o umówienie porannego strzyżenia na wtorek. Sztuczna inteligencja zadzwoniła do salonu fryzjerskiego, który podobno nic nie wiedział o prowadzonym eksperymencie. Korzystając z modułu syntezy mowy, przeprowadziła 57-sekundową rozmowę, podczas której głosem młodej kobiety dogadała się z pracownicą salonu co do terminu i opcji. Faktycznie, brzmiało to całkiem przekonująco: słowa pracownicy salonu spotykały się z sensownymi, spełniającymi cel rozmowy odpowiedziami.

Drugi pokaz był jeszcze bardziej przekonujący: męskim głosem Asystent próbował zarezerwować stolik dla czterech osób w restauracji – i sensownie zareagował na odpowiedź pracownicy, która wyjaśniła, że nie musi rezerwować stolika, może przyjść, rezerwacje przyjmowane są dla grup od pięciu osób. Zrozumienie niuansów mowy? Niewątpliwie tak, przynajmniej z funkcjonalnego punktu widzenia. Była to naprawdę przekonująca rozmowa, daleko wyprzedzająca wszystko to, co prezentują dziś Siri, Cortana czy Alexa. Przy cyfrowym asystencie Google’a to zwykłe papugi.

Jak osiągnięto ten postęp? To co obserwujemy to ogromne postępny w dziedzinie rozumienia, interakcji, synchronizacji i mowy, możliwe dzięki rekurencyjnej sieci neuronowej (RNN), bazującej na algorytmach TensorFlow uruchomionych na czipach TPU (Tensor Processing Unit). Sami inżynierowie Google’a wyjaśniają to następująco:

Trenowaliśmy RNN Dupleksa na zbiorze zanonimizowanych rozmów. Sieć korzysta z tego co na wyjściu google’owej technologii automatycznego rozpoznawania mowy (ASR), jak również właściwości dźwięki, historii rozmowy, parametrów rozmowy (np. potrzebnej usługi czy określonej pory dnia). Trenowaliśmy model rozumienia oddzielnie dla każdego zadania, ale wykorzystaliśmy dla wszystkich zadań wspólny zbiór danych. Finalnie użyliśmy hiperparametrycznej optymalizacji z TensorFlow Extended, by jeszcze bardziej ulepszyć model.

W efekcie powstał system zdolny do zaawansowanych rozmów i wykonania większości postawionych przed nim zadań całkowicie autonomicznie, bez ludzkiego zaangażowania. Gdy jednak rozpozna zadanie zbyt skomplikowane dla siebie, daje sygnał ludzkiemu operatorowi, by ten przejął zadanie. System ten może też uczyć się nowych dziedzin swoich operacji, wykorzystując nadzorowany trening w czasie rzeczywistym – doświadczeni operatorzy służą tu jako instruktorzy. Monitorują połączenia telefoniczne Duplexa w nowej dziedzinie i mogą wpływać na bieżąco na zachowania systemu w razie potrzeby. Robią to do momentu, aż osiągnięty zostanie oczekiwany poziom jakości i system będzie mógł samodzielnie wykonywać połączenia.

To naprawdę fantastyczne osiągnięcie, które już dziś (przynajmniej w krajach anglojęzycznych) zapowiada bezrobocie dla wszystkich pracowników call center. Takie są przecież ich rozmowy: schematyczne interakcje w obrębie wskazanej dziedziny. Spróbujcie dzwoniącemu z bankowego telecentrum zadać egzystencjalne pytanie, radzą sobie z tym równie źle, co czatboty. Pod tym względem Duplex, obficie korzystający z artefaktów ludzkiej mowy dla zmylenia rozmówcy (wywołania przekonania, że rozmawia z człowiekiem), może w całości przejąć ludzkie zadania, wystarczy go wyćwiczyć. Póki co oszukał dwóch ludzi, dlaczego nie miałby oszukać milionów?

Od oszukania dwóch ludzi do przejścia Testu Turinga droga jednak daleka. Być może w ogóle poczynione tu kroki wcale nas nie zbliżają do przejścia przez maszynę takiego testu. Niektórzy Czytelnicy mogą pamiętać niejakiego Eugene Goostmana, czatbota udającego trzynastoletniego chłopca z Ukrainy, który w 2014 roku miał jako pierwszy przejść test Turinga – jak to wówczas stwierdziły media.

Przypomnijmy jednak, czym jest Test Turinga. Sam wielki matematyk wymyślił go w swoim klasycznym artykule z 1950 roku, Computing Machinery and Intelligence. Zaproponował, aby zamiast zastanawiać się, czy maszyna może myśleć, zastanowić się, czy maszyna może wygrać towarzyską grę w naśladownictwo.

W oryginalnej wersji gry w naśladownictwo uczestniczą trzej gracze: A jest mężczyzną, B jest kobietą, a C odgrywający śledczego może być dowolnej płci. Gracz C nie widzi graczy A i B, komunikuje się z nimi tylko drogą tekstową, nic nie wie też o A i B, zna ich jedynie pod literami „X” i „Y”. Zadając pytania graczom A i B, gracz C próbuje odkryć, które z pytanych jest mężczyzną a które kobietą, zadając im rozmaite pytania o nich samych i ich rozumienie świata. Ale uwaga: zadaniem gracza A jest oszukać śledczego, podczas gdy gracz B próbuje pomóc śledczemu w poprawnym rozpoznaniu ich płci.

Turing zapytał: a co by się stało, gdyby gracza A zastąpić maszyną? Czy śledczy równie często popełniałby błąd jak wówczas gdy gra jest rozgrywana między mężczyzną i kobietą? W zmodyfikowanej wersji zabaw mamy więc trzech oddzielonych od siebie uczestników: komputer, człowieka oraz ludzkiego śledczego. Śledczy rozmawia zarówno z człowiekiem jak i maszyną poprzez terminal tekstowy. Komputer kłamie, że jest człowiekiem. Człowiek prawdziwie przekonuje, że jest człowiekiem. Jeśli sędzia nie jest w stanie powiedzieć, które z nich jest człowiekiem, a które komputerem, wówczas można powiedzieć, że maszyna przeszła test Turinga.

Oczywiście test ten w żaden sposób nie mówi, czy komputer może myśleć. Mówi jedynie o pewnej sprawności w naśladowaniu zachowań człowieka, mowy traktowanej jako zbiór performatywnych aktów. Na wielu frontach krytykuje się jednak zasadność samego testu nawet i do oceny sprawności oszukiwania, ale to już temat wychodzący poza tematykę tego felietonu. Istotne jest to, że Alan Turing poczynił pewną prognozę. Stwierdził mianowicie:

Wierzę, że za około 50 lat stanie się możliwe programowanie maszyn cyfrowych o pojemności pamięci rzędu 109 tak, aby grały w grę w naśladownictwo tak dobrze, że przeciętny pytający po pięciu minutach zadawań pytań nie będzie miał więcej niż 70 procent szansy dokonania prawidłowej identyfikacji.

Śmiała prognoza, która jak widać, nie spełniła się. W 2018 roku żaden sztuczny system, włącznie z czatbotem Eugene Goostmanem i Google Duplexem nie jest w stanie przetrwać przez pięć minut pytań ludzkiego śledczego, starającego się odkryć, czy ma do czynienia z człowiekiem czy maszyną. Nic jeszcze nie przeszło Testu Turinga, choć zasugerowane przez wielkiego matematyka ścieżki rozwijania sztucznych inteligencji (np. poprzez algorytmy genetyczne) zostały faktycznie podjęte np. w budowaniu programów szachowych.

Dlatego bez zbędnych nadziei czy obaw – osiągnięcia Google’a, choć inżynieryjnie bardzo ciekawe i znaczące, w dziedzinie samych podstaw sztucznej inteligencji nic nie zmieniają. A właściwie to sprawiają wrażenie, że za chwilę wpadniemy na kolejną ścianę, i rozpocznie się kolejna długa zima w AI. Pomyślcie o tym tak: jeszcze nigdy takie pieniądze i tyle wysiłku nie poszło w prace nad sztuczną inteligencją. Tymczasem do dzisiaj nie osiągnięto niczego poza coraz sprawniejszą klasyfikacją danych i wzorców według wyćwiczonych reguł. Mamy po prostu coraz lepszych sztucznych idiotów. Czy dalsze ich doskonalenie może zbliżyć nas do maszynowego myślenia?

© dobreprogramy