Wstępniak na nowy tydzień: jakich polityków byś nie wybrał, przed AI ocalić nas nie zdołają

Wstępniak na nowy tydzień: jakich polityków byś nie wybrał, przed AI ocalić nas nie zdołają

Wstępniak na nowy tydzień: jakich polityków byś nie wybrał, przed AI ocalić nas nie zdołają
26.10.2015 11:57, aktualizacja: 26.10.2015 15:27

Kilka osób już mi sugerowało, że dzisiejszy wstępniakpowinien być poświęcony sprawom związanym z wyborami,demokracją/cyberdemokracją, głosowaniem przez Internet i innymitego typu nośnymi tematami. Z wielu różnych jednak powodów nie owyborach chcę mówić, a nawet nie o samym systemie wyborczym. Wkońcu cóż portalowi zajmującemu się szeroko rozumianą technikąkomputerową debatować o polityce, w sytuacji gdy żadna z partii,które dostały się do parlamentu, nie ma żadnych znaczącychpoglądów w kwestiach, które są dla techniki komputerowej istotne?Nie jesteśmy Islandią, gdzie lokalna partia piracka (Píratar),mówiąc przede wszystkim o sprawach związanych z wolnością słowa,własnością intelektualną i ochroną prywatności wyrosła nanajwiększą siłę polityczną w tym kraju, z poparciem większymniż rządzący socjaldemokraci. Potomkom Wikingów mogę tylkopogratulować, sam jednak chciałbym zwrócić Waszą uwagę na cośinnego. Postęp w informatyce może przynieść nam nie tylko masowebezrobocie, ale też i postępujące bezprawie – tworząc obszaryżycia, których nie będzie dało się uregulować za pomocąpolitycznych narzędzi.

Piraci już niebawem będą rządzić w Islandii?
Piraci już niebawem będą rządzić w Islandii?

W ostatni weekend przeczytałem całkiem interesujący artykułpt. The Regulatory Problems of Artificial Intelligenceautorstwa Matthew Scherera, wykładowcy politologii z George MasonUniversity. Przyjrzał się on bliżej naszemu życiu wśród corazbardziej inteligentnych maszyn, zajmujących się rzeczami, które doniedawna całkowicie należały do człowieka – i osiągającychcoraz lepsze w tym rezultaty. Wszystko to dzieje się wśródobojętności klasy politycznej – w rzeczywistości o sprawie mówiąjedynie naukowcy, tacy jak Stephen Hawking i liderzy branży, tacyjak Bill Gates czy Elon Musk. Czy klasa polityczna będzie więc wstanie wziąć w cugle coś, czego najwyraźniej nie pojmuje?Przedstawiona przez Scherera analiza pokazuje, że AI zanim naswszystkich zlikwiduje (jak straszy Elon Musk), to przysporzy sporobólu głowy urzędnikom. Sztuczne inteligencje miałyby być bowiempraktycznie niemożliwe do uregulowania.

Jak prawnikowi wyjaśnić, czym jest AI?

Wnioskowanie autora można rozłożyć tu na trzy argumenty.Pierwszy z nich dotyczy definiowania. Otóż obecne systemy prawnenie mogą się obyć bez precyzyjnych definicji pojęć. Sęk w tym,że adekwatna do potrzeb systemów prawnych definicja sztucznejinteligencji może nie byćmożliwa. Nawet dzisiaj w literaturze przedmiotu spotykamy się zprzynajmniej czterema rozłącznymi definicjami, zgodnie z którymiza sztuczną inteligencję uważa się kolejno systemy myślącejak człowiek, działającejak człowiek, myśląceracjonalnie oraz działająceracjonalnie. Pierwsze dwa corazbardziej wypadają z łask, a ich przyjęcie na potrzeby prawapozostawiłoby niekontrolowanymi w zasadzie wszystkie rzeczywiścieopracowywane dziś sztuczne inteligencje. Z kolei skupienie naaspekcie racjonalności też wcale nie rozwiązuje problemu, gdyż wświetle prawa za racjonalne uznaje się działania wynikające zestanów mentalnych, pragnień i intencji, a czy AI może (i musi)mieć jakieś stany mentalne, by zachowywać się racjonalnie? Stądteż Scherer wnioskuje, że wszelkie próby rządowych regulacji poprostu nie będą w stanie powiedzieć, co regulują, a co za tymidzie, producenci będą w stanie łatwo się wykręcać takimpróbom. Co prawda sam proponuje własną definicję sztucznejinteligencji, jako dowolnego systemu, który wykonuje zadania, którejeśli byłyby wykonywane przez człowieka, wymagałyby inteligencji– ale jest to raczej żart, niż formalnie poprawna definicja, cowięcej pod „definicję” tę podpada praktycznie każdy systeminformatyczny.

Oprogramowanie pisane w sypialni

Kolejny argument Scherera dotyczyzakresu odpowiedzialności i problemów z kontrolą, zarówno przedzbudowaniem AI (w terminologii prawniczej, ex ante)oraz po jej uruchomieniu (ex post).Jego zdaniem oba te okresy charakteryzują się zupełnie odmiennymiproblemami regulacyjnymi. Zacznijmy od samego budowania AI. Tu autorwyróżnił cztery problemy dla regulatorów, wynikające z już dziśdostępnej infrastruktury informatycznej. I tak oto:

  • badania i rozwój AI wcalenie potrzebują laboratoriów z betonu i szkła, do których możnawejść i które poddać inspekcji, a następnie w razie wykrycianieprawidłowości wyprowadzić z nich skutych kajdankami menedżerów.Oprogramowanie sztucznej inteligencji może powstawać online, zwykorzystaniem łatwo dostępnego sprzętu lub mocy obliczeniowejdzierżawionej w chmurze, jako owoc współpracy nieujawniającychswojej tożsamości programistów. Dla regulatorów, przyzwyczajonychdo przyglądania się znacznie bardziej „uporządkowanym”branżom, takim jak np. energetyka czy telewizja, zderzenie z IT możebyć szokiem.
  • jurysdykcja nad rozwijającymisię w Internecie projektami jest śliską sprawą. Jeśli UniaEuropejska wprowadzi ścisłe regulacje dotyczące jakiegoś aspektuAI, zainteresowani po prostu wydzierżawią serwery, na którychprowadzone będą prace deweloperskie gdzieś w Ułan Bator czyBogocie, łącząc się z nimi po szyfrowanych tunelach.
  • swobodny dostęp do sprzętu.AI wcale nie potrzebuje jakiegoś tajemniczego hardware prosto zwojskowych laboratoriów. Wszystko, co jest potrzebne do prac możnaskompletować online, bezpośrednio od znanych producentów. NVIDIAbardzo chętnie sprzeda każdemu zainteresowanemu swoje DevBoxy doeksperymentów z sieciami neuronowymi, a czipy takie jak TrueNorthfirmy IBM, dziś wciąż dostępne tylko w kręgach akademickich,jutro mogą być w każdym sklepie z płytkami Arduino.
  • nieprzejrzystość AI.Skompilowane oprogramowanie bez dostępnego kodu źródłowego jestznacznie trudniejsze do przeanalizowania, niż inne dziełainżynierii, o czym dobrze wiedzą badacze malware. Tymczasem w wielusytuacjach nawet regulatorzy mogą nie mieć prawa wglądu do koduźródłowego – to wymagałoby szczególnych porozumień międzyrządami a korporacjami (jak to jest w wypadku Microsoftu).

To nie ja, to ta maszyna

Gdy już zaś dana sztucznainteligencja powstanie, to co wtedy? Pierwszy problem ex post toprzede wszystkim kłopot z przewidywalnością. Otóż w większościsystemów prawnych uważa się, że aby ponieść odpowiedzialnośćza szkodę wyrządzoną drugiej osobie, to możliwość zaistnieniatej szkody powinna być możliwa do przewidzenia. Oznacza to, żemożliwe jest, by producent żelazka został pociągnięty doodpowiedzialności za pożar wywołany przez żelazko podczas jegonormalnego użytkowania, natomiast gdyby jednak żelazko spadło zszafy swojemu właścicielowi na głowę, zabijając go, to producentnie może być tu niczego winny. Żelazka są jednak proste iprzewidywalne, natomiast coraz bardziej kreatywne i innowacyjnesztuczne inteligencje już dziś robią rzeczy, których ichproducenci przewidzieć nie byli w stanie. Tak się np. okazało (kukorzyści zainteresowanych) w wypadku medycznego systemu eksperckiegoC-Path, który samodzielnie odkrył ku zaskoczeniu większościonkologów, że znacznie lepszym wskaźnikiem postępu chorobynowotworowej są zmiany w okalającej organ tkance łącznej (zrębienarządu), niż w samym narządzie. Jak kreatywne mogą stać się AIw kolejnej dekadzie?

The long-term future of AI(and what we can do about it): Daniel Dewey at TEDxVienna

Drugi problem ex post dotyczykontroli – i to on najskuteczniej straszy opinię publiczną,wychowaną na Terminatorze. Co się dzieje z odpowiedzialnościąproducenta, gdy dane AI zaczyna działać tak, że nie może być jużkontrolowane przez swoich twórców? Niekoniecznie tak się musidziać z powodu uzyskania przez AI inteligencji wyższej od swoichtwórców (choć to nie jest wykluczone), równie dobrze może towynikać z błędów w oprogramowaniu. Tu autor rozróżnia lokalny iglobalny zakres kontroli – w tym pierwszym chodzi o niemożnośćuzyskania nadzoru nad AI przez producenta, w tym drugim przezjakiegokolwiek człowieka. Warto tu zauważyć, że wcale nie musichodzić o jakieś superinteligencje – wystarczy, że wystarczającąbystrość uzyska autonomiczne oprogramowanie, oryginalnieprojektowane do zwalczania malware, które samo się uzłośliwiło.Jedynym sposobem na jego poskromienie byłoby wówczas wyłączeniecałego Internetu, czyli operacja w praktyce niemożliwa.

Oczywiście nie jest tak, żeprzedstawione powyżej wyzwania są niemożliwe do rozwiązania. Czyjednak naprawdę ktoś sądzi, że obecna klasa polityczna miałabywolę i kompetencje, by w ogóle zacząć rozważać takie problemy?Nawet próby regulowania branży znacznie bardziej namacalnych,takich jak motoryzacja, okazały się w świetle ostatniego skandaluz normami spalania w autach Volkswagena niezbyt efektywne, więc jaktu mówić o kontrolowaniu niezależnych startupów, w którychnajwięcej innowacji związanych z AI powstaje? Biorąc jeszcze poduwagę to, że sporo ludzi zajmujących się tą tematyką otwarcieprzyznaje się do libertariańskich i transhumanistycznych sympatii,poddanie tej dziedziny regulacjom wydaje się mało prawdopodobne. Apóźniej, gdy już dżinn wyjdzie z butelki, a klasa politycznazauważy co się stało – będzie już za późno, żadna kampaniapolityczna nie powstrzyma postępu, wywracającego całespołeczeństwo od środka.

Zainteresowanych artykułem panaScherera zapraszam doźródła, a wszystkich pozostałych do kolejnego tygodnia znaszym portalem. Mogę powiedzieć, że wracają budzące wśród waswielkie zainteresowanie recenzje gier planszowych, będziemy mieliteż do rozdania licencje na ciekawe oprogramowanie i rozpoczniemynową formę przeglądów sprzętu. Opóźniony, bo opóźniony, alepojawi się dziś w końcu obiecany artykuł Jacka Szumowskiego oe-bookach. Przypominam – jeśli jesteście pasjonatami IT, chcecie,by Wasz artykuł ukazał się na dobroprogramowych łamach, piszciebezpośrednio do rednacza, na adres adam.golanski@dobreprogramy.pl.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (87)