AI nauczyło się generalizować. Czas na sztuczną inteligencję ogólnego przeznaczenia

AI nauczyło się generalizować. Czas na sztuczną inteligencję ogólnego przeznaczenia

AI nauczyło się generalizować. Czas na sztuczną inteligencję ogólnego przeznaczenia
31.10.2016 22:09, aktualizacja: 31.10.2016 23:24

W przyszłości będą mówić, że rok 2016 był przełomowym dlasztucznych inteligencji. Wiadomo, do stworzenia sztucznych umysłówna poziomie prezentowanym przez roboty znakomitego „WestWorldu”jeszcze droga daleka, ale to co się dzieje pokazuje, że zima sięskończyła. Badania nad AI wyszły z impasu, w którym tkwiły odlat 90, gdy po cichu w Japonii zakończono prace nad komputeramipiątej generacji. Tym co najbardziej znamienne jest to, że dziśnajwybitniejsi naukowcy w tej dziedzinie pracują często nie dlarządów, nie na uniwersytetach, lecz w informatycznych korporacjach,dysponujących zasobami intelektualnymi i badawczymi większymi niżniejedno państwo. Efekty się kumulują, tempo prac przyspiesza –czy sztuczna inteligencja przyłapie Elona Muska z opuszczonymispodniami?

Za pieniądze Google'a

Tydzień temu należący do Google’a startup DeepMind pochwaliłsię wynikiem, który dla AI stanowi skok jakościowy. Do tej porypostęp w sztucznych sieciach neuronowych, uważanych zanajowocniejsze obecnie podejście do AI, był raczej ilościowejnatury. Teoria była bowiem znana już od początków latsześćdziesiątych zeszłego stulecia, dziś po prostu uruchamiano tesieci na mocniejszym sprzęcie (dużo tu zrobiła NVIDIA,optymalizując swoje GPU i oprogramowanie pod kątem badań nad AI),dysponując przy tym nieporównywalnie bogatszymi zbiorami danych dotreningu. Sieci neuronowe stawały się więc świetnymiklasyfikatorami, stawiały coraz lepsze prognozy, ale jedynie wwybranych domenach. AI, które znakomicie się nauczyło rozpoznawaćsztangielki na zdjęciach z Internetu niekoniecznie przez tostawało się lepsze w rozpoznawaniu czegokolwiekna zdjęciach z Internetu.

Problem generalizacji jest bowiemtrudny, a samą generalizację uważa się za jedną ze specyficznychwłasności ludzkiego myślenia (nie generalizujesz – czy aby napewno jesteś człowiekiem?). Zdefiniować ją łatwo: weź pod uwagęodpowiednio duży zbiór konkretnych obserwacji, a następnie znajdźw nich i zachowaj istotne wspólne cechy charakterystyczne dla klastych obserwacji. W efekcie generalizacja pozwala uczącemu lepiejsprawdzać się w sytuacjach, których wcześniej nie napotkał – oile odkryje, że mają one istotną wspólną cechę z tym, co jużwcześniej poznał. Jak jednak zmusić sieci neuronowe dogeneralizowania?

Ci sami ludzie, którzy dwa latatemu pochwalilisię stworzeniem pierwszej sieci neuronowej z pamięcią i uwagą,a w tym roku pokazali,że sztuczna inteligencja może rzucić na kolana arcymistrza go,teraz opracowali pierwsze uniwersalne AI, zdolne właśnie dogeneralizacji. To właśnie o takim AI mówił szwedzki filozof NickBostrom w swojej ostatniej książce Superintelligence:Paths, Dangers, Strategies,która tak wystraszyła Elona Muska i Billa Gatesa, że zaczęlipublicznie ogłaszać AI zagrożeniem dla ludzkości. Postulowanaprzez Bostroma sztuczna inteligencja potrafi uogólniać wyuczoneaktywności, a dysponując ogromną bazą już wyuczonych wcześniejmodeli jest w stanie rozwiązywać dowolne nowe problemy skuteczniej,niż jakikolwiek człowiek.

Maszyna różnicowa, tyle że neuronowa

Oczywiście to jeszcze nie jestpostludzkie AI, o którym śni po nocach dyrektor technicznyGoogle’a, Ray Kurzweil, ale wcale nie jest do tego daleko. Nałamach Nature opublikowano pracępt. Hybrid computing using a neural network with dynamicexternal memory, której autorzyopisują teorię działania zupełnie nowej architektury AI, którąnazwali różniczkowym komputerem neuronowym (Differential NeuralComputer, DNC).

Obraz

DNC składa się z siecineuronowej, wyposażonej w zewnętrzną macierz pamięci zmożliwością zapisu i odczytu. Na podobieństwo klasycznegokomputera może wykorzystywać te dane do reprezentowania imanipulowania złożonymi strukturami danych, na podobieństwo siecineuronowych może uczyć się tego ze zgromadzonych w pamięci danych– coś, co do tej pory było niedostępne dla sieci neuronowych,gdyż w pewnym sensie były one tylko drzewami decyzyjnymi. Przyodpowiednim treningu, możliwe staje się dla DNC odpowiadania napytania odpowiadające wnioskowaniom w języku naturalnym – tosystem, który nie tylko może się uczyć, ale też będziepamiętał, czego się nauczył i wnioskował, czy wykorzystać teinformacje przy podejściu do nowego problemu.

Jak na razie pierwszyskonstruowany różniczkowy komputer neuronowy nie robił niczegorewolucyjnego. Ot małe kroki, zadania w rodzaju znalezienianajkrótszej drogi między wskazanymi punktami, nawigowania wlondyńskim metrze czy wywnioskowania, jak uzupełnić losowogenerowane grafy. W sumie zadania dobrane z myślą o interesachGoogle, które mogłoby chcieć lepszej nawigacji w swojej aplikacjiMapy. Nie należy jednak dać się zwieść skromności pierwszychzastosowań, jest to kolejne fundamentalne osiągnięcie w dziedzinieAI, zbliżające nas do sztucznej inteligencji ogólnegozastosowania.

Obraz

AI uczy się, jak być straszna i tajemnicza

W ostatnich dniach pojawiło siękilka innych ciekawych, choć nie tak przełomowych prac z dziedziny:badacze z zespołu Google Brain donieślio stworzeniu sieci neuronowych, które same wymyśliły sobie prostysystem kryptograficzny, aby uniemożliwić trzeciej sztucznejinteligencji podsłuch ich komunikatów, z kolei ludzie MIT MediaLabs przedstawili NightmareMachine, idealną zabawkę na Halloween, która celuje wgenerowaniu coraz bardziej przerażających i odpychających obrazówtwarzy i krajobrazów.

Czego możemy w tej dziedziniespodziewać się za rok? A za 10 lat? Jak na razie wieje optymizmem,można powiedzieć, że wielu badaczy odczuwa wręcz schadenfreudena myśl o tych wszystkich,którzy będą nas straszyćAI w najbliższym czasie. Kto wie, może do tego straszeniawykorzystają odpowiednio rozwiniętą Nightmare Machine?

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (60)