r   e   k   l   a   m   a
r   e   k   l   a   m   a

Sztuczne inteligencje Google'a pod pewnymi względami są już bystrzejsze od ludzi

Strona główna AktualnościOPROGRAMOWANIE

O tym, że Google stara się tam, gdzie tylko może zastąpić ludzi algorytmami, wiadomo już od dawna. Z technologii związanych ze sztuczną inteligencją korzystamy już dziś zresztą na co dzień, w takich produktach jak Tłumacz Google, wyszukiwarka obrazków czy głosowa wyszukiwarka Androida. W pracach tych niedawno jednak przekroczono pewną ważną barierę – inżynierowie z Mountain View przestali rozumieć to, co stworzyli.

Taką skłaniającą do refleksji deklaracją podzielił się z zebranymi jeden z programistów Google, Quoc V. Le, który podczas odbywającej się w zeszłym tygodniu w San Francisco konferencji dotyczącej maszynowego uczenia, przedstawiając zgromadzonym działanie technologii głębokiego uczenia, stosowanych przez wyszukiwarkowego giganta. Prace nad wykorzystaniem klastrów obliczeniowych do automatycznego klasyfikowania zgromadzonych danych przekształciły je w cybernetyczne czarne skrzynki, których zasady działania wymknęły się ludzkiemu opisowi.

Po raz pierwszy tak spektakularnymi efektami w dziedzinie AI Google pochwaliło się raptem półtora roku temu, kiedy to stworzony w sekretnym X Laboratory klaster 16 tysięcy procesorów, z ponad miliardem wewnętrznych połączeń, wykorzystany został do „obejrzenia” 10 milionów miniaturek klipów wideo z YouTube, by na tej podstawie nauczyć rozpoznawać się wizerunki kotów. Wszystko to odbyło się bez jakiegokolwiek treningu ze strony człowieka, nigdy system nie otrzymał komunikatu oto kot. Jak stwierdził wówczas nadzorujący badania dr Jeff Dean, google'owy klaster po przetworzeniu milionów obrazów w praktyce wynalazł koncepcję kota, podobnie jak to robi to kora wzrokowa u małych dzieci. Jego kolega Andrew Ng ostrzegł jednak przed zbyt pochopnym sięganiem po organiczne analogie, podkreślając, że google'owa sieć była o wiele rzędów wielkości mniejsza od ludzkiej kory wzrokowej.

Wykorzystywane przez Google'a mechanizmy głębokiego uczenia mają bowiem hierarchiczną strukturę, w której najniższe warstwy wykrywają różnice kolorów pikseli, a warstwy wyższego rzędu wykrywają krawędzie obiektów. Kolejno dodawane warstwy mogą opracować sobie własne mechanizmy detekcji cech, o których ludzie by nawet nie pomyśleli. Quoc V. Le przywołał tu historię wykrywania niszczarek do dokumentów. O ile w zasadzie łatwo jest określić, czym się charakteryzują koty, to z niszczarkami sytuacja jest bardziej skomplikowana. Programista wyjaśnił, że gdy pokazywał zdjęcia tych urządzeń swoim kolegom, wielokrotnie nie potrafili oni ich poprawnie zaklasyfikować.

Tymczasem komputerowy system rozpoznawania obrazu poradził sobie z tym zadaniem znacznie lepiej, niż ludzie – a Le stwierdził, że nie wie, jak mógłby sam napisać program, który by sobie z tym równie dobrze poradził. Doszliśmy do etapu, na którym musimy polegać na danych, by stworzyły mechanizmy dla nas, zamiast sami opracowywać takie mechanizmy – przyznał. Otwiera to drogę do rozwiązywania problemów, w których nie ma ekonomicznego sensu szukać ludzkich ekspertów. Karmiąc maszynowych sawantów ogromną ilością relewantnych danych, Google chce, by z danych tych wyłoniły się ich własne sposoby kategoryzacji. W ten sposób bliżej byłoby do spełnienia google'owej misji – zorganizowania całej informacji świata.

Mimo że w opinii wielu badaczy AI i filozofów, takich jak Noam Chomsky, takie statystyczne podejście nie jest w stanie przynieść maszynom uchwycenia sensu, znaczenia danych, to wyszukiwarkowy gigant niekoniecznie się tym przejmuje. Peter Norvig, szef badań nad AI w Google, co prawda nie oczekuje, że mechanizmy głębokiego uczenia same przekształcą się w silne sztuczne inteligencje, ale jest pewien, że pozwoli to na rozwiązanie realnych problemów, takich jak rozpoznawanie czy rozumienie mowy.

Emergencji – czyli spontanicznego wyłonienia się systemów o właściwościach, których ich poprzednicy nie posiadali, nie można tu wykluczyć. Sami eksperci Google'a przyznają, że doszło do zaobserwowania w ich firmie emergentnych zjawisk, w których systemy zachowywały się od czasu do czasu bardziej jak żywe istoty, niż sterowane programem maszyny. Tak było w wypadku systemu Omega, następcy projektu Borg, stworzonego aby efektywniej rozdzielać zasoby pomiędzy serwerowymi aplikacjami w google'owych centrach danych – jego zachowanie wielokrotnie okazywało się niedeterministyczne, szczególnie w scenariuszach wykorzystujących większą liczbę węzłów sieci. Programiści z Fundacji Apache, rozwijający opensource'owy projekt Mesos, będący odpowiednikiem Borga, twierdzą zresztą, że to jedyna droga dla bardziej złożonych systemów – można próbować wyeliminować nieprzewidywalność tylko do pewnej skali, powyżej której koszty takich działań stają się zaporowe. O wiele sensowniej budować systemy, które akceptują indeterminizm – i wykazują coś na kształt ograniczonej inteligencji, do skutecznego rozwiązywania problemów, z którymi ludzie sami już sobie nie radzą.

r   e   k   l   a   m   a
© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.