Mądrość? Inteligencja? Świadomość? — kilka słów o AI

Ostatnio ciężko mi znaleźć czas na jakiekolwiek hobbystyczne zajęcie. Jest maj - druga sesja zbliża się wielkimi krokami.... Ale jest jeden temat, który mnie mocno zainteresował. Pragnienie to zostało dodatkowo podsycone przez jeden z pokazów Google’a na konferencji Google I/O, który zresztą odbił się szerokim echem na wielu portalach informatycznych na całym świecie. Już wiecie o czym mówię? Tak, dobrze myślisz. Chodzi o sztuczną inteligencję. Tę, która już teraz jest wykorzystywana w wielu dziedzinach naszego życia. Nie ma się co bać - to jeszcze nie jest Skynet - i długo nim nie będzie. Jednakże, nie możemy mieć wątpliwości, że AI wkrada się coraz głębiej do naszego życia. Postęp idzie nieubłaganie do przodu, a wraz z nią rozwój algorytmów AI.

Zatrzymajmy się na chwilę w tym miejscu i zastanówmy się:

Do czego nam jest potrzebne AI?

Skoro w dalszej perspektywie uznajemy świadome krzemowe życie za zagrożenie, to dlaczego ciągle je rozwijamy? Czy to jest fatum - rzecz z góry przesądzona? Niestety nie. Sztuczna inteligencja jest dla nas niezbędna. Już teraz realizuje ona szereg różnych usług, bez których wykonanie niektórych zadań byłoby o wiele cięższe.

Weźmy jeden z najprostszych przykładów. Usługę, której z pewnością nie raz używałeś w swoim życiu - Google Translate. Zauważyłeś pewnie, że jakość tłumaczeń w ciągu ostatniego czasu mocno wzrosła. To już nie jest ten translator, który nie potrafił poprawnie przetłumaczyć zdania „Kali jeść, Kali spać”. Dzisiejszy Google Translate potrafi przetłumaczyć na język polski dosyć skomplikowane teksty nie kalając zbyt mocno polskiej gramatyki. Oczywiście - nie stanowi to jeszcze żadnego zagrożenia dla tłumaczy przysięgłych - nie muszą oni martwić się o to, że Google zabierze im pracę :) Ale przy słabszej znajomości języka Google Translate stanowi wspaniałe narzędzie pomagające w zrozumieniu sedna czytanego tekstu.

Taki rozwój Google Translate jest możliwy głównie dzięki sztucznym sieciom neuronowym. Każda fraza, którą wpisujemy, jest zapisywana w jakiejś bazie danych. Poprawiając tłumaczenie (mamy taką opcję, jeśli klikniemy na zdanie w prawej części okna) „stymulujemy” sztuczną sieć neuronową, pomagając jej w przyszłości osiągać lepsze wyniki. Taka sieć, podobnie jak człowiek - uczy się. AI, spotykając się z nowym wyzwaniem, stara się rozwiązać je jak najlepiej, bazując na wszystkich przypadkach przeanalizowanych do tej pory.

Lecz, dlaczego jakiś wybitny programista nie napisze zwykłego programu?

Bo napisanie takiego programu to niezwykle karkołomne zadanie. Aby napisać program, musimy zaplanować krok po kroku, co ta aplikacja ma robić. Taka lista kroków postępowania nazywa się algorytmem. I tu pojawia się ciekawy paradoks. Zadania, pozornie dla nas bardzo trudne, wymagające bardzo dużej wiedzy technicznej, takie jak liczenie skomplikowanych całek (studenci to uwielbiają xD) czy rozwiązywanie skomplikowanych równań mogą być dla komputera bardzo łatwe. Dlaczego? Ponieważ możemy wytłumaczyć komputerowi prostymi słowami (tzn. rozkazami, jakie obsługuje procesor) jak ma postępować, krok po kroku. Zjawisko to jest znane jako paradoks Moraveca. Spójrz choćby na algorytm obliczania największego wspólnego dzielnika, który znajduje się na screenie poniżej.

Teraz zastanów się, jak można za pomocą takich „bloczków” opisać np.: rozpoznawanie twarzy? Można oczywiście porównywać ze sobą piksele, przeprowadzać różne transformacje obrazu, ale nasze obliczenia nigdy nie będą uwzględniać wszystkich możliwości. Różnice w poszczególnych obrazach mogą wynikać nie tylko z innego oświetlenia, ale choćby ubrania czy naszej zmiany wyglądu. Jeśli znamy jakiegoś wąsacza od długiego czasu, to poznamy go nawet wtedy, kiedy zgoli swoje ukochane wąsy. Komputerowi posługującemu się tradycyjnym algorytmem ta sztuczka na 90% nie wyjdzie.

Oczywiście, „nieinteligentne” algorytmy realizowania wyżej wymienionego zadania istnieją, ale w dłuższej perspektywie nigdy nie będą tak skuteczne, jak algorytmy genetyczne i oparte na sieciach neuronowych.

Sieć neuronowa też jest algorytmem!

Warto zwrócić uwagę na pewien fakt. Sztuczne sieci neuronowe także są algorytmami! Zgodnie z zasadą, którą opisywałem wyżej, nie jesteśmy w stanie powiedzieć, czym kieruje się człowiek przy rozpoznawaniu twarzy. Natomiast, jesteśmy w stanie opisać (choćby częściowo) rzecz o wiele bardziej skomplikowaną z punktu śmiertelnika - mózg. A mózg zbudowany jest z ... neuronów! Neurony te połączone są ze sobą synapsami. Jest to podstawowa wiedza, którą każdy z nas powinien wynieść z lekcji biologii. Podczas procesu nauki neurony są odpowiednio stymulowane, tworzą się połączenia z innymi neuronami. W rezultacie jeden neuron może być połączony z aż 10 tys. innych.

Nie będę wchodził w szczegóły. Wystarczy, żebyś wiedział, że sztuczne sieci neuronowe działają na podobnej zasadzie. Tam też mamy „neurony” i „synapsy”. Tyle tylko, że zapisane w formie matematycznej. Dzięki temu, w komputerze możemy niejako „naśladować” baardzo niewielką część naszego mózgu.

Snake i AI

Jednym z pierwszych zastosowań AI, jakie przychodzi nam do głowy, są z pewnością gry. Wiele razy narzekamy na to, że wszystko jest oskryptowane i przewidywalne. Dlaczego więc nie wykorzystać do tego celu samouczących się programów, które aktywnie reagowałyby na zmianę taktyki gracza? Jest to możliwe, a zdolni programiści w tej chwili pracują nad tym, aby dostarczyć nam jak najlepszą sztuczną inteligencję! Oczywiście, takie skomplikowane gry jak Cities Skylines, Hearthstone czy Gwint pozostają w chwili obecnej poza domeną zainteresowań wielkich firm. Wszystko okaże się w przyszłości. Tymczasem wróćmy do bardziej przyziemnych przykładów.

Pamiętasz taką grę jak Snake? Sterujesz młodym wężykiem, który, zjadając kolejne kulki znakomitego jedzonka powiększa się. Staje się coraz dłuższy. Wężyk przegrywa grę o życie, gdy zje własny ogon lub zderzy się z którąś ze ścian. Jak poradzi sobie z tym sztuczna inteligencja? Youtuberzy przeprowadzili wiele eksperymentów.

Niektórzy nauczyli komputer grać także w inny hit - mianowicie - Flappy Birds. Po 86 generacjach AI zdobywało kolejne punkty praktycznie bez żadnego problemu.

Dwa powyższe przykłady pokazują wielką siłę, jaka drzemie w sztucznej inteligencji. Niestety, nauczenie ją, aby grała prawidłowo w bardziej zaawansowane gry jest nie lada wyzwaniem. Ciężkim - ale osiągalnym. Potwierdziło to DeepMind - brytyjska firma, która od lat zajmuje się rozwojem algorytmów sztucznej inteligencji. DeepMind zostało założone w 2010 roku i niespełna 4 lata później wykupiona przez „Wielkiego Brata”, którego wszyscy dobrze znamy - Google. Jednakże, co spowodowało, że taka potężna firma zainteresowała się akurat nimi? Deep Mind miało ogromne osiągnięcia w dziedzinie tworzenia AI, które potrafiły grać w gry tak jak człowiek. Mimo, że już w 2014 roku firma miała znaczące sukcesy, to prawdziwy triumf miał nadejść rok później, już pod skrzydłami Google.

AlphaGo i największy sukces

Już w latach 90 komputery potrafiły wygrywać z arcymistrzami. Przykładem jest Deep Blue IBM-u, który pokonał Garri Kasparowa w 1997 r. Komputer IBM-u to jednak co innego. Metoda, której Deep Blue używał do odniesienia zwycięstwa wymagała zgromadzenia ogromnych danych - zgromadzenia w bazie danych dziesiątek tysięcy rozegranych potyczek i ich przeanalizowania. Podczas rozgrywki komputer przeszukiwał siłowo bazę danych i stosując odpowiednie algorytmy, dopasowywał strategię tak aby odnieść zwycięstwo. Deep Blue nie miał ani mikrograma inteligencji. Gdyby nie ogromna baza danych i tysiące potyczek rozegranych przez ludzkich graczy, nie mógłby nic zrobić. Ale czy da się osiągnąć ten cel inaczej? Okazuje się, że tak.

Programiści w DeepMind postawili sobie o wiele bardziej ambitne zadanie niż ich rówieśnicy z IBM-u. Chcieli, aby ich program - AlphaGo - pokonało arcymistrzów Go. Go jest dla komputerów o wiele bardziej skomplikowaną grą niż szachy. W Go istnieje o wiele więcej akcji możliwych do wykonania w każdym ruchu. To czyni tę grę skomplikowaną nie tylko dla najbardziej potężnych komputerów, ale także dla ludzi.

AlphaGo, jak na „semi-inteligentną” maszynę przystało, bardzo długo przygotowywało się do decydującego pojedynku. Ważył się los świata IT i arcymistrzów Go. Po miesiącach treningu sieci neuronowej AlphaGo przyszedł czas na wielki egzamin, zarówno dla pracowników tworzących algorytm jak i samego komputera. Pod koniec 2015 roku AlphaGo miała zmierzyć się z jednym z najlepszych graczy na świecie - Fan Hui.

Rozgrywki były zacięte. Pot płynął szerokimi strumieniami. Nic to nie pomogło. Człowiek przegrał tę rywalizację 5 do zera. Twórcy algorytmu mogli pochwalić się poważnym zwycięstwem. Przed tą wersją AlphaGo czekało jednakże jeszcze jedno, poważne zadanie - pokonanie jednego z najlepszych zawodowych graczy - Lee Sedola. Maszyna miała nieco większe problemy niż z poprzednim przeciwnikiem, ale wygrała 4 mecze z pięciu. To znakomicie świadczy o jej sile i ogromie pracy programistów włożonych w wynik potyczek.

Twórcom AlphaGo to nie wystarczyło. Dalej rozwijali swoją sztuczną inteligencję. Tak powstał AlphaGo Zero. W jaki sposób nowy algorytm trenował, aby odnosić zwycięstwa w p... Na początku AlphaGo na początku nic nie wiedziało o zasadach gry w Go. Nie znało ani zasad, ani żadnych taktyk. Po prostu nic. Algorytm cały czas grał sam ze sobą (trochę samolubne). W trakcie kolejnych rozgrywek zauważał swoje błędy i doskonalił się. Nowe generacje sieci neuronowej powtarzały wyżej wymienione czynności. Tysiące, setki tysięcy, miliony rozegranych potyczek dały rezultaty. Po trzech dniach ciężkiej, wyczerpującej pracy, która pochłonęła niejeden kilowat energii, starszy brat AlphaGo Zero - AlphaGo został pokonany. I to z jakim imponującym wynikiem: 100 do zera! Po 21 dniach AlphaGo Zero osiągnęło poziom arcymistrzów - pokonało 60 najbardziej profesjonalnych gracy w Go i światowego mistrza Ke Jie we wszystkich trzech rozegranych pojedynkach.

To jeszcze nie koniec. AlphaGo Zero dalej trenowało swoje niebywałe umiejętności. Po czterdziestu dniach AlphaGo Zero wytrenowało się do tego stopnia, że pokonało swoją poprzednią wersję, która kilka dni wcześniej ograła 60 najlepszych ludzkich graczy.

Nie tylko Go

Specjaliści z DeepMind nie chcieli spoczywać na laurach. Pragnęli odnosić kolejne sukcesy. Wyznaczyli sobie ambitny cel – ich AI miało nauczyć się nowej gry – gry starożytnej, którą ludzie poznawali kilka tysięcy lat – szachy.

W grudniu 2017 r. nowa wersja AlphaGo, nazwana AlphaZero opanowała reguły. Podobnie jak w przypadku Go, sieć neuronowa nie poświęciła zbyt dużo czasu na mistrzowskie opanowanie zasad. Program w kilkanaście godzin posiadł wiedzę, którą ludzie zbierali przez kilka tysięcy lat. AlphaZero, zaczynający jako kompletny amator, urósł do rangi arcymistrza. Angielski arcymistrz szachowy – Simon Williams – powiedział, że jest to historyczny moment dla szachistów. Strategia obrana przez algorytm była niestandardowa, lecz niesamowicie skuteczna. Program pokonał jeden z najlepszych silników szachowych – Stockfish. W 100 pojedynkach, odniósł 28 zwycięstw i 72 remisy.

Mądra pseudointeligencja

AlphaGo potrafi bardzo dużo. Równie wiele potrafią sztuczne sieci Microsoftu czy Google’a. Ale tak naprawdę, czy wymienione sieci neuronowe możemy nazwać „inteligentnymi”? Wszystko zależy od tego, co przyjmiemy za definicję „inteligencji”. Na przestrzeni wieków powstało ich bardzo wiele. Warto jeszcze raz przytoczyć tu paradoks Moraveca. Jeszcze w latach 50 i 60 XX wieku badaczom bardzo świeżej wtedy dziedziny informatyki wydawało się, że w ciągu 20-30 lat pojawią się maszyny dorównujące ludziom w każdej dziedzinie. Skoro komputer potrafi wykonywać bardzo skomplikowane dla człowieka zadania, takie jak dowodzenie twierdzeń czy rozwiązywanie skomplikowanych całek, to dlaczego ma sobie nie poradzić z zadaniami, które wykonuje już czterolatek, takimi jak chodzenie, czy odróżnianie stołu od krzesła? Okazuje się, że zadania, które wydają się dla nas bardzo łatwe, wykonywane praktycznie intuicyjnie, będą niezwykle trudne dla komputera. Wtedy wśród naukowców istniało inne pojęcie inteligencji. Za inteligencję uważano umiejętność przetwarzania informacji na poziomie abstrakcyjnych idei. Okazało się, że musimy nieco zmienić nasze poglądy, gdyż taką definicję inteligencji spełnia każda dzisiejsza sztuczna sieć neuronowa.

AlphaGo w swoim zadaniu znacznie przewyższyła ludzi. W kilkanaście dni osiągnęła poziom mistrzów. Wątpliwością, która pojawia się za każdym razem, kiedy myślimy o AI jest świadomość. Odejdźmy na chwilę od tematu AI. Zastanówmy się, jak można zdefiniować samoświadomość, poczucie istnienia samego siebie. Zrozumienie tego faktu będzie fundamentalnym krokiem na drodze do zrozumienia świadomości AI.

Sens świadomości

W nauce istnieje wiele definicji tego pojęcia. Wikipedia podaje, że samoświadomość to świadomość samego siebie i zdawanie sobie sprawy z doświadczanych aktualnie doznań, emocji, potrzeb czy myśli. Nie ma wątpliwości, że ludzie posiadają samoświadomość. Ale jak można sprawdzić, czy np.: kot wie, że jest kotem?

Psycholog dr Gordon Gallup w 1970 zaproponował ciekawy i prosty do przeprowadzenia eksperyment. Wystarczy w widocznym miejscu oznaczyć badane zwierze w jakiś sposób (np.: poprzez namalowanie kropki czy naklejkę) w takim miejscu, aby nie mogło dostrzec oznaczenia bez pomocy lustra. Następnie stawia się badanego osobnika przed lustrem i obserwuje jego reakcję. Jeśli zwierzę dotknie lub próbuje badać znak, jest to niepodważalny dowód na to, że postrzega odbity w lustrze obraz jako siebie, a nie jako innego osobnika tego samego gatunku.

Na podstawie eksperymentów ustalono, że ludzie uzyskują zdolność rozpoznawania siebie w lustrze w wieku ok. 12-20 miesięcy. Test lustra zdały tylko niektóre gatunki zwierząt: delfiny, słonie i szympansy. Czy to oznacza, że pozostałe gatunki zwierząt nie mają świadomości istnienia?

Samoświadomość jest zjawiskiem bardzo trudnym do zbadania. Musimy wziąć pod uwagę wiele faktów. Przede wszystkim, musimy postawić się w roli badanego zwierzęcia. Wybierzmy kotka. Czy kot, który nigdy wcześniej nie widział lustra, nie wie, jak ono działa, nie wie, do czego służy, będzie się zastanawiał nad tym, jaki sens ma obraz tego, co w nim zobaczy? Koty to zwierzęta terytorialne, więc pierwsze spotkanie ze „swoim odbiciem” w pozornie bezpiecznym środowisku, jakim jest dom może być dla niego nie lada przeżyciem. Świat, który wydaje się znajdować za lustrem i nieprzekraczalna bariera, jaką jest szkło mogą być dla kota dodatkowym szokiem. Czy w takich warunkach zwierzak będzie zastanawiał się nad sensem zjawiska, które właśnie obserwuje?

Różnorodne zmysły

Jakich zmysłów używasz do poznawania świata? Z pewnością jednym z najważniejszych jest wzrok. To dzięki niemu dostrzegasz, co się dzieje wokół ciebie. Na kolejnych miejscach znajdują się węch i słuch. To dzięki nim postrzegasz świat takim, jaki jest. Mózg przetwarza sygnały spływające z całego ciała i „generuje” obraz świata, który przedstawia ci jako rzeczywistość.

Dla innych gatunków zwierząt nawet takie same zmysły, jak wzrok czy węch, mogą działać całkowicie inaczej. Płynie z tego prosty wniosek – sposób postrzegania rzeczywistości zależy od konkretnego gatunku, a nie rzadko i konkretnego osobnika. Ludzie, których wzrok jest mizerny muszą intensywniej korzystać z innych zmysłów. Sposób postrzegania przez nich świata jest z pewnością nieco inny niż w pełni zdrowych ludzi.

No dobra, rozważamy pojęcie świadomości, postrzegania świata itd. Ale jaki to ma związek z sztuczną inteligencją? Otóż z powyższego wynika, że jej sposób „myślenia” może być całkowicie inny. Mimo, iż niejako „symulujemy” zachowanie ludzkiego mózgu, nie wiemy, czy AI posiada jakąkolwiek świadomość, ani, tym bardziej, jak ta świadomość wygląda. Uznajemy, że AI doskonali się tylko w wykonywaniu określonego zadania. Jednakże, nie możemy w 100% powiedzieć, że w matematycznej symulacji nie kryje się jakiś sposób myślenia, z którego przy o wiele wyższej mocy obliczeniowej może wyniknąć jakiś rodzaj „samoświadomości”. Weź też pod uwagę fakt, że AI korzysta z innych zmysłów, niż ludzie. Zmysły te zależą od konkretnego celu. Samochody Google czy Ubera posiadają tony czujników, dzięki któremu samochód postrzega otaczający go krajobraz. Natomiast program DeepMind operuje w całkowicie innej rzeczywistości – świecie gier. Jeśli świadomość miałaby w jakiś sposób wykiełkować, z pewnością byłaby całkowicie inna dla obu wcześniej wymienionych projektów.

Zagrożenia AI

Mówimy o AI w samych superlatywach. Musimy zdawać sobie sprawę z tego, że jej rozwój niesie ze sobą także całą masę zagrożeń. Pierwszą kwestią są problemy moralne. Jaką część naszego świata możemy oddać w ręce sztucznej inteligencji? Wypadek Ubera i związane z nim dyskusje pokazuje, że ludzi nie opuszczają wątpliwości.

Świętej pamięci Stephen Hawking – znany astrofizyk, którego uwielbiałem, powiedział kiedyś, że:

kontynuacja zaawansowanych badań nad sztuczną inteligencją będzie najlepszą lub najgorszą rzeczą, jaka przydarzy się ludzkości w całej jej historii

Słyszałeś o takim czymś jak dylemat więźnia? Policja zabiera na dołek dwóch podejrzanych. Gliny nie mają dowodów na żadnego z nich. Podejrzani zostają więc rozdzieleni do dwóch oddzielnych pomieszczeń gdzie każdemu przedstawia się ofertę nie do odrzucenia: „Jeśli przedstawisz nam dowody na winę twojego kompana, to wypuścimy cię. Jeśli będziesz milczał i twój koleżka także, otrzymacie po sześć miesięcy. Jeśli koleżka cię wsypie, dostaniesz 10 lat. Jeśli obaj będziecie nadawać na siebie, dostaniecie po 5 lat więzienia”. Jakbyś się zachował w tej sytuacji?

Postanowiono sprawdzić, co zrobi AI. Deep Mind opracowało program, gdzie mamy dwie postaci – niebieskiego i czerwonego gościa, zwanych agentami. Żywią się jabłkami (zielonymi kwadracikami). Każdy z nich może strzelać do drugiego, aby wyeliminować go z gry. Czym więcej jabłek zje dany agent, tym więcej punktów otrzyma. Jaką strategię obierze AI?

Okazuje się, że na początku obaj preferowali raczej opcję pokojową. Zbieranie jabłek było najważniejsze. Wraz z „dokształcaniem się” i przystosowywaniem do wykreowanego środowiska, obydwaj agenci stawali się coraz bardziej agresywni. W końcu dochodziło do tego, że strzelali do siebie niezależnie od tego, ile jabłek zostało na planszy. Możliwość kooperacji i podzielenia się zdobyczą po równo została całkowicie wytłumiona przez możliwość wyeliminowania rywala i zebrania całej stawki.

Po raz kolejny przytoczmy słowa znanego astrofizyka Stephena Hawkinga. Wypowiedział mądre słowa, które warto w tej chwili przytoczyć: 

Można sobie wyobrazić technologię, która przechytrzyłaby rynki finansowe, przerosłaby możliwościami ludzkich wynalazców, wywiodłaby w pole światowych przywódców i stworzyłaby broń, której nie będziemy nawet w stanie zrozumieć. Podczas gdy krótkoterminowy rozwój sztucznej inteligencji zależy od tego, kto ją kontroluje, na dłuższą metę chodzi o to, czy sztuczną inteligencję w ogóle da się kontrolować.

Co się stanie, jeśli oddamy AI zbyt dużą władzę? Wszystko zależy oczywiście od tego, na ile AI będzie "samodzielna" i "świadoma". Może okazać się, że staniemy się wg niej „nieoptymalni”, zużywający zbyt dużo zasobów środowiska naturalnego w stosunku do przynoszonych korzyści. Wtedy możemy stać się celem do likwidacji. Oczywiście, jest to bardzo skrajny scenariusz i mam nadzieję, mało prawdopodobny. Dużo zależy też od projektanta sieci neuronowej. Mimo oczywistego zagrożenia, już teraz AI dostaje od nas coraz więcej władzy nad śmiercionośnym uzbrojeniem. Świadczyć może o tym choćby ostatnia umowa współpracy między Google i Pentagonem.

Wprowadzanie AI na coraz szerszą skalę dotknie także kwestii zatrudnienia. Niektóre zawody przestaną być potrzebne. Zakładając, że prezentacja asystenta Google na tegorocznym Google I/O nie jest "ustawiona", pracę może stracić wielu ludzi w różnorodnych call center. Szablonowe przyjmowanie zgłoszeń awarii jest jednym z zadań, które może przejąć sztuczna inteligencja. Innym zawodem, który może stać się mniej przydatny jest taksówkarz czy kierowca. Już teraz AI całkiem nieźle radzi sobie z prowadzeniem samochodów. W przyszłości być może pojawią się autonomiczne taksówki czy autobusy, które, przetwarzając ogromne ilości danych, będą potrafiły tak dopasować rozkład jazdy, aby dopasować się do jak największej ilości pasażerów. 

Wizja przyszłości

Wprowadzanie AI na coraz szerszą skalę już teraz zmienia nasz świat. Ludzie generują na tyle dużą ilość danych, że żaden analityk fizycznie nie mógłby sobie poradzić z ich analizą. Nie zatrzymamy postępu. Szybki rozwój AI i zajmowanie przez nią kolejnych dziedzin życia jest wydarzeniem na miarę "rewolucji przemysłowej". Miejmy nadzieję, że AI nigdy nie wymknie się spod kontroli i zawsze będzie służyła rozwojowi ludzkości.  

Komentarze