r   e   k   l   a   m   a
r   e   k   l   a   m   a

Wstępniak: mały krok Google, wielki skok maszyn – AlphaGo i komputerowa intuicja

Strona główna AktualnościDOBREPROGRAMY

Wszystkiego najlepszego w dniu liczby Pi! Dziś powinniśmy zachwycać się rosnącą mocą obliczeniową domowych komputerów, dzięki którym możemy sobie wyliczać dziesiętne rozwinięcie tej niezwykle ciekawej liczby niewymiernej z dokładnością do bilionów cyfr po przecinku. Obecny rekord z 2014 roku, uzyskany za pomocą programu y-cruncher, to 13,3 biliona cyfr , tj. 208 dni pracy dwóch procesorów Xeon. Tymczasem jeszcze w poprzedniej dekadzie rekordy w tej dziedzinie bito wyłącznie za pomocą uniwersyteckich superkomputerów. Powinniśmy – a jednak dziś zachwyca coś innego. Niektórzy nazywają to największym osiągnięciem w dziedzinie sztucznej inteligencji od pojawienia się pierwszych systemów eksperckich w latach osiemdziesiątych. Zwycięstwo google'owej AI w meczu w go z jednym z najlepszych zawodowych graczy w tę klasyczną grę strategiczną było niespodzianką dla wszystkich, dowodząc zarazem efektywności sztucznych sieci neuronowych i technik głębokiego uczenia. Zwycięstwo tym bardziej znaczące, że przecież jeszcze w zeszłym roku mogliśmy wysłuchać serii ostrzeżeń przed AI, wystosowanych przez najwybitniejszych uczonych.

Poszło szybko – i znany transhumanista Ray Kurzweil, dyrektor techniczny Google'a, może tylko zacierać ręce. Kluczowa praca dotycząca technik głębokiego uczenia, A fast learning algorithm for deep belief nets, opublikowana została raptem 10 lat temu. Kilka dni temu zaś system AlphaGo podczas drugiej gry z Lee Sedolem zaszokował praktycznie wszystkich obserwatorów, robiąc coś, co nie przyszłoby do głowy żadnemu człowiekowi. 37. ruch, wyłożenie czarnego kamienia tak wybiło z równowagi ludzkiego gracza, że wstał od stołu i wyszedł obmyć twarz – a gdy wrócił, spędził dobry kwadrans zastanawiając się nad kolejnym ruchem.

Ze słów komentatorów wynikało, że uważają to za błąd, pomyłkę oprogramowania, czymś co idzie wbrew całej tradycji ludzkiego go, gry mającej przecież już ponad 2500 lat. Jednak już w kolejnych ruchach doceniono geniusz 37. ruchu – jeden z ekspertów mówił tylko: to nie jest ludzki ruch, nigdy nie widziałem, by człowiek zrobił takich ruch, to takie piękne, takie piękne…

r   e   k   l   a   m   a

By zrozumieć problem, trzeba spojrzeć na skalę problemu, jaki Go stanowiło dla badaczy sztucznej inteligencji. Wygrać z człowiekiem w szachy to dziś żadna sztuka, ludzcy arcymistrzowie nie mają już żadnych szans, a co dopiero zwykli gracze. W każdym posunięciu tej strategicznej gry istnieje średnio 35 możliwych rozwinięć, tymczasem w go średnio każdy ruch przynosi 250 możliwych rozwinięć. Użycie siłowych metod, stosowanych w szachach (a mówią, że szachy to gra dla ludzi inteligentnych) nie wchodzi w rachubę, użycie w go popularnych algorytmów dla gier dwuosobowych, takich jak Alfa-beta, minimax, przechodzenie drzewa czy wyszukiwanie heurystyczne wiąże się z zastosowaniem niewyobrażalnej mocy obliczeniowej, długo jeszcze niedostępnej dla naszej cywilizacji.

Tak więc mimo tego, że od rozgromienia w meczu szachowym Garriego Kasparowa przez komputer IBM DeepBlue minęło już 19 lat, możliwości programów grających w Go były nikłe, co najwyżej grały one na poziomie doświadczonych amatorów (nawet mi, mimo że grywam w go bardzo sporadycznie, udało się raz czy dwa z komputerem wygrać). Największym dotychczas osiągnięciem było pokonanie w 2013 roku przez program Crazy Stone japońskiego mistrza Yoshio Ishidy, tyle że komputer miał tu handicap czterech kamieni.

Zbudowane przez ludzi z kupionej przez Google firmy DeepMind oprogramowanie AlphaGo zmieniło drastycznie sytuację. W październiku zeszłego roku podczas swojego debiutu pokonało bez handicapu europejskiego czempiona go, Fana Hui, w pięciu grach pięć do zera. Co szczególnie ważne, nie wykorzystywało w tym jakiegoś niewyobrażalnego sprzętu. Testowano je na klastrach obliczeniowych o różnej liczbie CPU i GPU – przeciwko Lee Sedolowi mecz rozegrano korzystając z wcale nie najbardziej rozbudowanej konfiguracji, z 1202 procesorami głównymi (Intel Xeon) i 176 procesorami graficznymi (karty Tesla Nvidii).

O tym jak działa AlphaGo, dowiedzieliśmy się jednak dopiero pod koniec stycznia, gdy w Nature opublikowano artykuł pt. Mastering the game of Go with deep neural networks and tree search. W uproszczeniu można powiedzieć, że ta sztuczna inteligencja uczyła się trzyetapowym procesie. Pierwszym krokiem było przeanalizowanie ok. 30 mln ruchów w grach rozgrywanych przez zawodowych ludzkich graczy na turniejach – w ten sposób AlphaGo uczyło się, jakie ruchy są dobre, a jakie niekoniecznie, by opanować intuicyjny aspekt. To jest jednak podobne do ludzkiej nauki, w końcu gracze uczą się z rozgrywek innych, analizując ich sukcesy i porażki.

Drugi krok był jednak czymś niedostępnym już dla uwięzionych w czaszkach białkowych mózgów. AlphaGo zaczęło grać samo ze sobą, rozgrywając miliony gier z różnymi instancjami nieco modyfikowanego oprogramowania, a po każdej grze stawało się w go nieco lepsze. Krok finalny, związany już bezpośrednio z dalekosiężnym planowaniem, związany był z popularną heurystyką Monte-Carlo Tree Search, w której analizuje się najbardziej obiecujące ruchy, symulując rozwinięcia i wybierając te, w których rośnie prawdopodobieństwo wygranej. Rozrost drzewa wariantów ogranicza się poprzez losowe próbkowanie przestrzeni poszukiwań (więcej o tej ciekawej metodzie możecie znaleźć w dobrym artykule na polskiej Wikipedii).

Tak wytrenowane AI, posiadające już intuicyjną wiedzę o tym, jakie pozycje są dobre, wzięło się do grania z innymi programami. W pięciuset meczach wygrało 499. Pokonanie Fana Hui było już tylko formalnością, mimo że jeszcze w 2014 roku twierdzono, że pierwsze programy, które pokonają najlepszych zawodowych graczy w go, pojawią się nie wcześniej niż w drugiej połowie przyszłej dekady. Nikt nie przewidział, jak skuteczne okaże się wzmacniane uczenie, w którym maszyny stają się coraz lepsze, ucząc się na swoich własnych błędach.

Trwający wciąż mecz z Lee Sedolem pokazał, że maszynowe umysły mogą nas naprawdę zaskoczyć inteligencją swoich działań. Pierwszego dnia, w wygranej przez AI grze, wciąż można było sądzić, że to tylko przypadek, że Lee nie docenił swojego przeciwnika i rozpoczynając śmiałym i eksperymentalnym dość otwarciem oddał zwycięstwo konserwatywnej w posunięciach maszynie, dając się uwikłać w taktyczną rozgrywkę o pojedyncze kamienie. W drugiej grze Lee grał wyraźnie lepiej, stawiając na sprawdzone, cierpliwe ruchy i czekając na błąd maszyny – tymczasem maszyna nie popełniła błędu, a zarazem zrobiła kilka genialnych ruchów. Trzeciego dnia to jednak była masakra. W opinii ekspertów AlphaGo grało lepiej, niż jakikolwiek ludzki gracz.

Choć mecz sztuczna inteligencja już wygrała, pocieszyć fanów białkowej inteligencji może to, że koreański gracz nie dał się psychicznie złamać i odniósł w rozegranej wczoraj czwartej grze zwycięstwo, w połowie rozgrywki udało mu się zmusić maszynę do popełnienia błędu, z którego już nie zdołała się wydobyć. Twórcy AlphaGo bardzo się ze zwycięstwa człowieka cieszą – pozwoliło im ono wykryć problem, który będą mogli usunąć. Ostatnia gra meczu już jutro, więc trzymajcie kciuki za Sedola, walczącego tu już tylko o dobre imię naszego gatunku.

Zbliżamy się jednak coraz bardziej wyraźnie do momentu, w którym i nasze możliwości umysłowe, z których jesteśmy tak dumni, zostaną niekorzystnie zweryfikowane przez coraz lepsze maszyny. Poprawiony AlphaGo już nigdy nie przegra meczu z człowiekiem, jego moc i doświadczenie może tylko rosnąć, podczas gdy Sedol nie zyska przecież więcej tkanki nerwowej. Można oczywiście się pocieszać, że to tylko gra planszowa, że ogólnie wciąż jesteśmy lepsi – ale pamiętajmy, że chodzi o grę, której nie dało się wygrać zwykłą szybkością obliczeniową, że w Go wygrywa rozumienie sytuacji i intuicja, coś, na co wyłączność do tej pory miał ludzki intelekt. Lee Sedol może może oczywiście pocieszać się tym, że roboty nigdy nie zrozumieją piękna gry w ten sam sposób jak my ludzie, ale co to za argument? Równie dobrze można powiedzieć, że my nigdy nie zrozumiemy piękna gry w ten sam sposób jak AlphaGo.

Gry planszowe są więc „pozamiatane”. Twórcy AlphaGo chcą się teraz wziąć za gry 3D i symulacje, które mają o wiele więcej wspólnego ze światem rzeczywistym. Spodziewajcie się więc, że już niebawem sztuczne inteligencje zdominują turnieje e-sportowe. Co zostanie ludziom? Moim zdaniem najdłużej opierać się maszynowej inteligencji będą gry karciane, takie jak Magic: The Gathering. Łącząc w sobie ogromnych rozmiarów drzewa decyzyjne, element losowości, ruchy zmieniające zasady gry oraz strategie optymalizacji talii wciąż są problemem bardzo trudnym do ugryzienia. Ile czasu jakiemuś AlphaMTG zajmie wygranie z najlepszymi graczami na świecie? Cóż, sądzę, że już do końca tej dekady będziemy musieli uznać wyższość maszyn i w tej dziedzinie.

Wkraczamy więc w erę sztucznej inteligencji, dziarskim krokiem, ale pełni obaw. Coraz bardziej zaczynamy bowiem rozumieć, że scenariusze rodem z Terminatora są nierealistyczne nie dlatego, że AI nie mogłoby by dążyć do zniszczenia ludzkości, lecz dlatego, że w słynnej serii sztuczna inteligencja Skynetu jest przedstawiana jako bardzo… ludzka i bardzo ograniczona – jej motywy zrozumiałe dla nas, jej szybkość reakcji i zdolności optymalizacyjne na poziomie tak zaniżonym, by ludzcy protagoniści mieli jakieś szanse. Realne AI będą jednak dla nas niepojęte i niedościgłe, tak jak ruch 37. AlphaGo.

Tymczasem zapraszam do kolejnego tygodnia z naszym portalem. Z interesujących tematów chcę zwrócić Waszą uwagę na odbywającą się dzisiaj debatę online w ramach akcji „Czytaj legalnie”, będącą próbą odpowiedzi na zjawisko piracenia e-booków. Przyjrzymy się też bliżej kwestiom związanym z synchronizowaniem przeglądarek w czasach, gdy użytkownicy korzystają z wielu urządzeń jednocześnie, sprawdzimy najlepsze klawiatury ekranowe dla urządzeń z Androidem i zobaczymy, co może zrobić „zwykły Kowalski”, by zabezpieczyć swój router. Będzie też coś dla miłośników Raspberry Pi i dobrego dźwięku: pokażemy, jak z odpowiednim osprzętem i oprogramowaniem z Maliny zrobić niezły sprzęt Hi-Fi. A na horyzoncie, co już mogę obiecać, ciekawy konkurs z atrakcyjnymi nagrodami.

Aktualizacja

AlphaGo wygrał po bardzo zaciętej walce piątą z gier w meczu z Lee Sedolem, wygrywając tym samym cały mecz 4:1. Warto podkreślić, że sztuczna inteligencja Google'a na początku ostatniej gry popełniła poważny błąd, ale później w fantastyczny sposób zdołała wybrnąć z sytuacji, przekuwając ją w swoje zwycięstwo.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.