"Manipulują nami nawet Mapy Google". Rozmowa z dr Peterem Gloorem, ekspertem AI z MIT

"Manipulują nami nawet Mapy Google". Rozmowa z dr Peterem Gloorem, ekspertem AI z MIT

Dr Peter Gloor na scenie podczas wykładu w ramach Masters & Robots, fot. Materiały prasowe
Dr Peter Gloor na scenie podczas wykładu w ramach Masters & Robots, fot. Materiały prasowe
Piotr Urbaniak
08.10.2019 21:09, aktualizacja: 09.10.2019 14:08

Podczas konferencji Masters & Robots 2019, poświęconej działaniom technologii na rzecz ludzkości i związanym z tym wyzwaniom dla biznesu, miałem przyjemność zamienić parę słów z jednym z najbardziej ekscentrycznych ekspertów ds. sztucznej inteligencji – Peterem Gloorem. Doktorem z biznesowej szkoły Sloan School of Management na prestiżowym MIT- Massachusetts Institute of Technology.

Dr Peter Gloor poświęcił swoje życie zawodowe, jak sam twierdzi, poprawie samopoczucia i komfortu innych ludzi. Jest autorem Szczęściometru, aplikacji mierzącej poziom zadowolenia człowieka w oparciu o dane ze smartwatcha. Ma na swym koncie również kilka książek i niezliczone publikacje prasowe. Obecnie kieruje projektem tzw. Sieci kolaboratywnych innowacji (CoIN), który – w dużym skrócie – służy poprawie efektywności współpracy w zespołach przy pomocy nowych technologii, takich jak czaty, media społecznościowe czy cyfrowe organizery.

Na spotkaniu w Warszawie rozmawialiśmy o roli sztucznej inteligencji w życiu człowieka, wpływie nowych technologii na społeczeństwo, ewentualnych zagrożeniach cybernetycznych, a także planach dr Gloora na przyszłość.

Piotr Urbaniak, dobreprogramy.pl: W jednym wywiadzie powiedziałeś, że niektórzy ludzie postrzegają Wikipedię jako część swojego mózgu. Nowe technologie ogłupiają społeczeństwo?

Peter Gloor, MIT Sloan School of Management: Przeciwnie. Uważam, że nowe technologie czynią społeczeństwo mądrzejszym. Możemy dzielić się rezultatami badań znacznie łatwiej niż kiedyś. Internet to nie tylko Wikipedia, ale także Google. Nie musisz już zapamiętywać setek danych. Wpisujesz zapytanie, a swoją uwagę możesz skupić na stworzeniu czegoś odkrywczego. Internet cię wspomaga, staje się częścią mózgu.

Ty jednak, w swoich badaniach, skupiasz się głównie na algorytmicznej analizie emocji i zachowań. Czy to nie jest forma zrzucenia odpowiedzialności na maszynę?

Są dwa rodzaje sztucznej inteligencji. Silna sztuczna inteligencja [zakłada, że komputer ma atrybuty charakterystyczne dla umysłu ludzkiego - przyp. red.] i po prostu sztuczna inteligencja. Nominalnie poruszamy się w sferze wzorców i schematów. Polecam ci jednak książkę psychologa Gerda Gigerenzera z Instytutu Maksa Plancka. Jego Proste zasady uświadamiają, że umysł człowieka wcale nie jest skomplikowany. Komputery wiele rzeczy mogą zrobić zauważalnie lepiej od ludzi. Nie wszystkie, ale jednak.

Czyli komputery jednak nie zastąpią człowieka, a co najwyżej wesprą?

Powiedziałbym raczej, że rozszerzą możliwości nasze i rzeczy nas otaczających.

Ale wielu ludzi mimo wszystko boi się cyfryzacji. Przypomina to trochę sytuację z XIX wieku, kiedy niszczono maszyny w obawie przed zwolnieniami. Umiesz ich uspokoić?

Mówisz o rewolucji przemysłowej, prawda? To zwróć uwagę, ilu ludzi zyskało potem zatrudnienie w przemyśle węglowym. Wstrzymywanie postępu nie jest rozwiązaniem. Dzisiaj mamy tysiące wakatów w przemyśle informatycznym. Można zostać programistą, webdesignerem, wykładowcą. Co więcej, równie dobrze można otworzyć restaurację i wypromować się na nowoczesnych usługach. Kwestia adaptacji. Korzyści są niezliczone.

Wróćmy do podstaw. Wyobraź sobie, że masz naprzeciw kogoś, kto słyszy o AI po raz pierwszy, a ty musisz wytłumaczyć pokrótce, czym są sztuczna inteligencja i głębokie uczenie oraz zainteresować tym rozmówcę. Dasz radę?

W najprostszych słowach jest to podążanie za niezwykle prostymi zasadami z bardzo dużą szybkością. Zajmuję się komputerami od ponad 30 lat i zasady nie uległy zmianie. W latach 80. programowałem w Fortranie. Dzisiaj używam Pythona. Zmieniła się tylko szybkość obliczeń. Owszem, na przykład zastosowanie rdzeni Tensor do rozpoznawania twarzy robi ogromne wrażenie, ale pod spodem kryje się zwyczajne porównanie. Urządzenie wykonuje zdjęcie i porównuje do tego, które ma już w swojej bazie danych. A komputer pozostaje bardzo szybkim idiotą.

Ciągle mówisz o pozytywnych aspektach cyfryzacji: zwiększeniu kreatywności czy poprawie nastroju. Nie dostrzegasz żadnych minusów? Nie przerażają cię deep fakes, w których każdy może się wcielić w każdego?

Musisz się trochę bać, aby czuć odpowiedzialność. Jednak jeśli ludzie będą świadomi wartości nowych technologii, to nie ma powodu do paniki. Oczywiście zawsze mogą pojawić się jakieś czarne charaktery, słynni rosyjscy hakerzy czy ktokolwiek inny, ale właśnie poczucie odpowiedzialności motywuje nas do obrony. Chroni nas prawo i oprogramowanie.

Wspomniałeś o hakerach. A co z ludźmi, którzy zechcą algorytmy sabotować bezpośrednio? Są tacy, którzy chwalą się oszukiwaniem wariografów. Czy rzeczywistość oparta na algorytmach nie przerodzi się w jedno wielkie siedlisko kłamstw i manipulacji, prowadzących do zakłamania jej prawdziwego obrazu?

Zasada nieoznaczoności Heisenberga mówi, że istnieją takie wartości, których nie można odczytać naraz. W psychologii podciągana jest pod wniosek, wedle którego człowiek podświadomie zmienia zachowanie, gdy staje się obiektem pomiaru. Z drugiej strony można stwierdzić, że manipulują nami nawet Mapy Google. Tak bardzo przyzwyczailiśmy się do ułatwień w nawigacji, że nikt nie używa już klasycznych, papierowych map. Jeszcze do niedawna na wycieczkę musiałeś zabrać mapę. Teraz nawet o tym nie pomyślisz. Mapy Google wpłynęły na nasze zachowanie.

**Nie odpowiedziałeś mi na pytanie. Czy nie masz wrażenia, że spryciarz przed komputerem w świecie bazującym na algorytmach może wszystko? **

Teoretycznie może. Dlatego stosujemy wielowarstwową ochronę. Naturalnie najlepszym rozwiązaniem byłoby, aby superhaker o IQ 180, siedzący teraz gdzieś w piwnicy w Rosji, zrozumiał wartości i poświęcił się pracy dla dobra innych. Wykorzystałby swój geniusz w sposób pożyteczny. Tylko na razie to mrzonka. Dlatego, jak już wspominałem, mamy liczne zabezpieczenia zarówno prawne, jak i programowe. Do tego same algorytmy są coraz doskonalsze i opierają się prowokacjom. Chronią nas spece od cyberbezpieczeństwa, policja i własny rozsądek. Poza tym uważam, że dobrych ludzi jest więcej niż złych.

Uważasz, że cyfryzacja nie zwiększa poziomu zagrożenia we współczesnym świecie?

W wersji proponowanej przeze mnie – nie. Wiesz, czego się naprawdę boję? Amerykańskiej armii, która tworzy cyborgi i komputery zdolne do zabijania.

To popularna wizja prezentowana w filmach akcji. Uzbrojony robot zaczynający strzelać do ludzi. Naprawdę wierzysz, że kiedyś tak się stanie w realnym świecie?

Tworzenie autonomicznej maszyny zdolnej do zabijania to totalna głupota. Niemniej jestem przekonany, że mądre głowy w Chinach, Rosji, Indiach czy USA od lat nad tym pracują.

Z innej beczki, bardziej pozytywnie – wiesz, że twój Szczęściometr doczekał się naśladowców? Urząd Miasta Sopotu wprowadził licznik uśmiechów, program badający nastawienie pracowników. Byłeś jednym z pierwszych, którzy przedstawili tego rodzaju pomysł. Czy inne urzędy i biura powinny pójść tą drogą?

Świetnie to słyszeć! Chciałbym, aby coś podobnego pojawiło się również w moim mieście. Na ten moment pracujemy nad wdrożeniem systemu inteligentnych kamer, który potrafiłby ocenić nastawienie uczestników 50-osobowej debaty, ale jeszcze długa droga przed nami.

Chińczycy już chwalą się podobnymi rzeczami...

Chwalą to dobre słowo. W Chinach obowiązują tylko szczątkowe przepisy dotyczące ochrony danych osobowych i prywatności, więc mogą wykorzystywać technologię na maksimum. Ciężko mi jednak uwierzyć w deklaracje o symultanicznym przetwarzaniu setek twarzy. Dzisiejsze komputery są bardzo szybkie, ale nie aż tak, jak twierdzą Chińczycy.

Jak widzisz branżę sztucznej inteligencji za 10 lat? Może masz kolejny ciekawy pomysł pokroju Szczęściometru?

Chciałbym połączyć mózgi wielu ludzi w jeden system o zwielokrotnionych możliwościach. Są prowadzone badania w tym kierunku, tyle że osobiście boję się o prywatność. W takim klastrze ludzie poznaliby nawzajem swoje najskrytsze tajemnice. Nie muszę chyba dodawać, że to mało kusząca wizja. Statystycznie 5 proc. populacji ma skłonności homoseksualne. Ujawniają się nieliczni. Będąc gejem, chyba nie chciałbyś, aby dowiedzieli się o tym wszyscy inni uczestnicy eksperymentu. To główny problem tej idei.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (29)