"Manipulują nami nawet Mapy Google". Rozmowa z dr Peterem Gloorem, ekspertem AI z MIT

"Manipulują nami nawet Mapy Google". Rozmowa z dr Peterem Gloorem, ekspertem AI z MIT08.10.2019 21:09
Dr Peter Gloor na scenie podczas wykładu w ramach Masters & Robots, fot. Materiały prasowe

Podczas konferencji Masters & Robots 2019, poświęconej działaniom technologii na rzecz ludzkości i związanym z tym wyzwaniom dla biznesu, miałem przyjemność zamienić parę słów z jednym z najbardziej ekscentrycznych ekspertów ds. sztucznej inteligencji – Peterem Gloorem. Doktorem z biznesowej szkoły Sloan School of Management na prestiżowym MIT- Massachusetts Institute of Technology.

Dr Peter Gloor poświęcił swoje życie zawodowe, jak sam twierdzi, poprawie samopoczucia i komfortu innych ludzi. Jest autorem Szczęściometru, aplikacji mierzącej poziom zadowolenia człowieka w oparciu o dane ze smartwatcha. Ma na swym koncie również kilka książek i niezliczone publikacje prasowe. Obecnie kieruje projektem tzw. Sieci kolaboratywnych innowacji (CoIN), który – w dużym skrócie – służy poprawie efektywności współpracy w zespołach przy pomocy nowych technologii, takich jak czaty, media społecznościowe czy cyfrowe organizery.

Na spotkaniu w Warszawie rozmawialiśmy o roli sztucznej inteligencji w życiu człowieka, wpływie nowych technologii na społeczeństwo, ewentualnych zagrożeniach cybernetycznych, a także planach dr Gloora na przyszłość.

Piotr Urbaniak, dobreprogramy.pl: W jednym wywiadzie powiedziałeś, że niektórzy ludzie postrzegają Wikipedię jako część swojego mózgu. Nowe technologie ogłupiają społeczeństwo?

Peter Gloor, MIT Sloan School of Management: Przeciwnie. Uważam, że nowe technologie czynią społeczeństwo mądrzejszym. Możemy dzielić się rezultatami badań znacznie łatwiej niż kiedyś. Internet to nie tylko Wikipedia, ale także Google. Nie musisz już zapamiętywać setek danych. Wpisujesz zapytanie, a swoją uwagę możesz skupić na stworzeniu czegoś odkrywczego. Internet cię wspomaga, staje się częścią mózgu.

Ty jednak, w swoich badaniach, skupiasz się głównie na algorytmicznej analizie emocji i zachowań. Czy to nie jest forma zrzucenia odpowiedzialności na maszynę?

Są dwa rodzaje sztucznej inteligencji. Silna sztuczna inteligencja [zakłada, że komputer ma atrybuty charakterystyczne dla umysłu ludzkiego - przyp. red.] i po prostu sztuczna inteligencja. Nominalnie poruszamy się w sferze wzorców i schematów. Polecam ci jednak książkę psychologa Gerda Gigerenzera z Instytutu Maksa Plancka. Jego Proste zasady uświadamiają, że umysł człowieka wcale nie jest skomplikowany. Komputery wiele rzeczy mogą zrobić zauważalnie lepiej od ludzi. Nie wszystkie, ale jednak.

Czyli komputery jednak nie zastąpią człowieka, a co najwyżej wesprą?

Powiedziałbym raczej, że rozszerzą możliwości nasze i rzeczy nas otaczających.

Ale wielu ludzi mimo wszystko boi się cyfryzacji. Przypomina to trochę sytuację z XIX wieku, kiedy niszczono maszyny w obawie przed zwolnieniami. Umiesz ich uspokoić?

Mówisz o rewolucji przemysłowej, prawda? To zwróć uwagę, ilu ludzi zyskało potem zatrudnienie w przemyśle węglowym. Wstrzymywanie postępu nie jest rozwiązaniem. Dzisiaj mamy tysiące wakatów w przemyśle informatycznym. Można zostać programistą, webdesignerem, wykładowcą. Co więcej, równie dobrze można otworzyć restaurację i wypromować się na nowoczesnych usługach. Kwestia adaptacji. Korzyści są niezliczone.

Wróćmy do podstaw. Wyobraź sobie, że masz naprzeciw kogoś, kto słyszy o AI po raz pierwszy, a ty musisz wytłumaczyć pokrótce, czym są sztuczna inteligencja i głębokie uczenie oraz zainteresować tym rozmówcę. Dasz radę?

W najprostszych słowach jest to podążanie za niezwykle prostymi zasadami z bardzo dużą szybkością. Zajmuję się komputerami od ponad 30 lat i zasady nie uległy zmianie. W latach 80. programowałem w Fortranie. Dzisiaj używam Pythona. Zmieniła się tylko szybkość obliczeń. Owszem, na przykład zastosowanie rdzeni Tensor do rozpoznawania twarzy robi ogromne wrażenie, ale pod spodem kryje się zwyczajne porównanie. Urządzenie wykonuje zdjęcie i porównuje do tego, które ma już w swojej bazie danych. A komputer pozostaje bardzo szybkim idiotą.

Ciągle mówisz o pozytywnych aspektach cyfryzacji: zwiększeniu kreatywności czy poprawie nastroju. Nie dostrzegasz żadnych minusów? Nie przerażają cię deep fakes, w których każdy może się wcielić w każdego?

Musisz się trochę bać, aby czuć odpowiedzialność. Jednak jeśli ludzie będą świadomi wartości nowych technologii, to nie ma powodu do paniki. Oczywiście zawsze mogą pojawić się jakieś czarne charaktery, słynni rosyjscy hakerzy czy ktokolwiek inny, ale właśnie poczucie odpowiedzialności motywuje nas do obrony. Chroni nas prawo i oprogramowanie.

Wspomniałeś o hakerach. A co z ludźmi, którzy zechcą algorytmy sabotować bezpośrednio? Są tacy, którzy chwalą się oszukiwaniem wariografów. Czy rzeczywistość oparta na algorytmach nie przerodzi się w jedno wielkie siedlisko kłamstw i manipulacji, prowadzących do zakłamania jej prawdziwego obrazu?

Zasada nieoznaczoności Heisenberga mówi, że istnieją takie wartości, których nie można odczytać naraz. W psychologii podciągana jest pod wniosek, wedle którego człowiek podświadomie zmienia zachowanie, gdy staje się obiektem pomiaru. Z drugiej strony można stwierdzić, że manipulują nami nawet Mapy Google. Tak bardzo przyzwyczailiśmy się do ułatwień w nawigacji, że nikt nie używa już klasycznych, papierowych map. Jeszcze do niedawna na wycieczkę musiałeś zabrać mapę. Teraz nawet o tym nie pomyślisz. Mapy Google wpłynęły na nasze zachowanie.

**Nie odpowiedziałeś mi na pytanie. Czy nie masz wrażenia, że spryciarz przed komputerem w świecie bazującym na algorytmach może wszystko? **

Teoretycznie może. Dlatego stosujemy wielowarstwową ochronę. Naturalnie najlepszym rozwiązaniem byłoby, aby superhaker o IQ 180, siedzący teraz gdzieś w piwnicy w Rosji, zrozumiał wartości i poświęcił się pracy dla dobra innych. Wykorzystałby swój geniusz w sposób pożyteczny. Tylko na razie to mrzonka. Dlatego, jak już wspominałem, mamy liczne zabezpieczenia zarówno prawne, jak i programowe. Do tego same algorytmy są coraz doskonalsze i opierają się prowokacjom. Chronią nas spece od cyberbezpieczeństwa, policja i własny rozsądek. Poza tym uważam, że dobrych ludzi jest więcej niż złych.

Uważasz, że cyfryzacja nie zwiększa poziomu zagrożenia we współczesnym świecie?

W wersji proponowanej przeze mnie – nie. Wiesz, czego się naprawdę boję? Amerykańskiej armii, która tworzy cyborgi i komputery zdolne do zabijania.

To popularna wizja prezentowana w filmach akcji. Uzbrojony robot zaczynający strzelać do ludzi. Naprawdę wierzysz, że kiedyś tak się stanie w realnym świecie?

Tworzenie autonomicznej maszyny zdolnej do zabijania to totalna głupota. Niemniej jestem przekonany, że mądre głowy w Chinach, Rosji, Indiach czy USA od lat nad tym pracują.

Z innej beczki, bardziej pozytywnie – wiesz, że twój Szczęściometr doczekał się naśladowców? Urząd Miasta Sopotu wprowadził licznik uśmiechów, program badający nastawienie pracowników. Byłeś jednym z pierwszych, którzy przedstawili tego rodzaju pomysł. Czy inne urzędy i biura powinny pójść tą drogą?

Świetnie to słyszeć! Chciałbym, aby coś podobnego pojawiło się również w moim mieście. Na ten moment pracujemy nad wdrożeniem systemu inteligentnych kamer, który potrafiłby ocenić nastawienie uczestników 50-osobowej debaty, ale jeszcze długa droga przed nami.

Chińczycy już chwalą się podobnymi rzeczami...

Chwalą to dobre słowo. W Chinach obowiązują tylko szczątkowe przepisy dotyczące ochrony danych osobowych i prywatności, więc mogą wykorzystywać technologię na maksimum. Ciężko mi jednak uwierzyć w deklaracje o symultanicznym przetwarzaniu setek twarzy. Dzisiejsze komputery są bardzo szybkie, ale nie aż tak, jak twierdzą Chińczycy.

Jak widzisz branżę sztucznej inteligencji za 10 lat? Może masz kolejny ciekawy pomysł pokroju Szczęściometru?

Chciałbym połączyć mózgi wielu ludzi w jeden system o zwielokrotnionych możliwościach. Są prowadzone badania w tym kierunku, tyle że osobiście boję się o prywatność. W takim klastrze ludzie poznaliby nawzajem swoje najskrytsze tajemnice. Nie muszę chyba dodawać, że to mało kusząca wizja. Statystycznie 5 proc. populacji ma skłonności homoseksualne. Ujawniają się nieliczni. Będąc gejem, chyba nie chciałbyś, aby dowiedzieli się o tym wszyscy inni uczestnicy eksperymentu. To główny problem tej idei.

Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.