Sztuczne inteligencje Google'a pod pewnymi względami są już bystrzejsze od ludzi

Strona głównaSztuczne inteligencje Google'a pod pewnymi względami są już bystrzejsze od ludzi
18.11.2013 16:29

O tym, że Google stara się tam, gdzie tylko może zastąpić ludzialgorytmami, wiadomo już od dawna. Z technologii związanych zesztuczną inteligencją korzystamy już dziś zresztą na co dzień, wtakich produktach jak Tłumacz Google, wyszukiwarka obrazków czygłosowa wyszukiwarka Androida. W pracach tych niedawno jednakprzekroczono pewną ważną barierę – inżynierowie z Mountain Viewprzestali rozumieć to, co stworzyli.Taką skłaniającą do refleksji deklaracją podzielił się z zebranymijeden z programistów Google, Quoc V. Le, który podczas odbywającejsię w zeszłym tygodniu w San Francisco konferencji dotyczącejmaszynowego uczenia, przedstawiając zgromadzonym działanietechnologii głębokiegouczenia, stosowanych przez wyszukiwarkowego giganta. Prace nadwykorzystaniem klastrów obliczeniowych do automatycznegoklasyfikowania zgromadzonych danych przekształciły je w cybernetyczneczarne skrzynki, których zasady działania wymknęły się ludzkiemuopisowi.[img=ai]Po raz pierwszy tak spektakularnymi efektami w dziedzinie AIGoogle pochwaliło się raptem półtora roku temu, kiedy to stworzony wsekretnym X Laboratory klaster 16 tysięcy procesorów, z ponadmiliardem wewnętrznych połączeń, wykorzystany został do „obejrzenia”10 milionów miniaturek klipów wideo z YouTube, by na tej podstawienauczyć rozpoznawać się wizerunki kotów. Wszystko to odbyło się bezjakiegokolwiek treningu ze strony człowieka, nigdy system nieotrzymał komunikatu oto kot.Jak stwierdził wówczas nadzorujący badania dr Jeff Dean, google'owyklaster po przetworzeniu milionów obrazów w praktyce wynalazłkoncepcję kota, podobnie jak torobi to kora wzrokowa u małych dzieci. Jego kolega Andrew Ng ostrzegłjednak przed zbyt pochopnym sięganiem po organiczne analogie,podkreślając, że google'owa sieć była o wiele rzędów wielkościmniejsza od ludzkiej kory wzrokowej.Wykorzystywane przez Google'amechanizmy głębokiego uczenia mają bowiem hierarchiczną strukturę, wktórej najniższe warstwy wykrywają różnice kolorów pikseli, a warstwywyższego rzędu wykrywają krawędzie obiektów. Kolejno dodawane warstwymogą opracować sobie własne mechanizmy detekcji cech, o którychludzie by nawet nie pomyśleli. Quoc V. Le przywołał tu historięwykrywania niszczarek do dokumentów. O ile w zasadzie łatwo jestokreślić, czym się charakteryzują koty, to z niszczarkami sytuacjajest bardziej skomplikowana. Programista wyjaśnił, że gdy pokazywałzdjęcia tych urządzeń swoim kolegom, wielokrotnie nie potrafili oniich poprawnie zaklasyfikować.Tymczasem komputerowy systemrozpoznawania obrazu poradził sobie z tym zadaniem znacznie lepiej,niż ludzie – a Le stwierdził, że nie wie, jak mógłby samnapisać program, który by sobie z tym równie dobrze poradził.Doszliśmy do etapu, na którym musimy polegać na danych, bystworzyły mechanizmy dla nas, zamiast sami opracowywać takiemechanizmy – przyznał.Otwiera to drogę do rozwiązywania problemów, w których nie maekonomicznego sensu szukać ludzkich ekspertów. Karmiąc maszynowychsawantów ogromną ilością relewantnych danych, Google chce, by zdanych tych wyłoniły się ich własne sposoby kategoryzacji. W tensposób bliżej byłoby do spełnienia google'owej misji –zorganizowania całej informacji świata.Mimo że w opinii wielu badaczy AIi filozofów, takich jak Noam Chomsky, takie statystyczne podejścienie jest w stanie przynieść maszynom uchwycenia sensu, znaczenia danych, to wyszukiwarkowy gigant niekoniecznie się tym przejmuje.Peter Norvig, szef badań nad AI w Google, co prawda nie oczekuje, żemechanizmy głębokiego uczenia same przekształcą się w silne sztuczneinteligencje, ale jest pewien, że pozwoli to na rozwiązanie realnychproblemów, takich jak rozpoznawanie czy rozumienie mowy. Emergencji – czylispontanicznego wyłonienia się systemów o właściwościach, których ichpoprzednicy nie posiadali, nie można tu wykluczyć. Sami eksperciGoogle'a przyznają, że doszło do zaobserwowania w ich firmieemergentnych zjawisk, w których systemy zachowywały się od czasu doczasu bardziej jak żywe istoty, niż sterowane programem maszyny. Takbyło w wypadku systemuOmega, następcy projektu Borg, stworzonego aby efektywniejrozdzielać zasoby pomiędzy serwerowymi aplikacjami w google'owychcentrach danych – jego zachowanie wielokrotnie okazywało sięniedeterministyczne, szczególnie w scenariuszach wykorzystującychwiększą liczbę węzłów sieci. Programiści z Fundacji Apache,rozwijający opensource'owy projekt Mesos,będący odpowiednikiem Borga, twierdzą zresztą, że to jedyna droga dlabardziej złożonych systemów – można próbować wyeliminowaćnieprzewidywalność tylko do pewnej skali, powyżej której kosztytakich działań stają się zaporowe. O wiele sensowniej budowaćsystemy, które akceptują indeterminizm – i wykazują coś nakształt ograniczonej inteligencji, do skutecznego rozwiązywaniaproblemów, z którymi ludzie sami już sobie nie radzą.

bDYhExuJ
Udostępnij:
bDYhExvH