r   e   k   l   a   m   a
r   e   k   l   a   m   a

Wstępniak na nowy tydzień: jakich polityków byś nie wybrał, przed AI ocalić nas nie zdołają

Strona główna AktualnościDOBREPROGRAMY

Kilka osób już mi sugerowało, że dzisiejszy wstępniak powinien być poświęcony sprawom związanym z wyborami, demokracją/cyberdemokracją, głosowaniem przez Internet i innymi tego typu nośnymi tematami. Z wielu różnych jednak powodów nie o wyborach chcę mówić, a nawet nie o samym systemie wyborczym. W końcu cóż portalowi zajmującemu się szeroko rozumianą techniką komputerową debatować o polityce, w sytuacji gdy żadna z partii, które dostały się do parlamentu, nie ma żadnych znaczących poglądów w kwestiach, które są dla techniki komputerowej istotne? Nie jesteśmy Islandią, gdzie lokalna partia piracka (Píratar), mówiąc przede wszystkim o sprawach związanych z wolnością słowa, własnością intelektualną i ochroną prywatności wyrosła na największą siłę polityczną w tym kraju, z poparciem większym niż rządzący socjaldemokraci. Potomkom Wikingów mogę tylko pogratulować, sam jednak chciałbym zwrócić Waszą uwagę na coś innego. Postęp w informatyce może przynieść nam nie tylko masowe bezrobocie, ale też i postępujące bezprawie – tworząc obszary życia, których nie będzie dało się uregulować za pomocą politycznych narzędzi.

W ostatni weekend przeczytałem całkiem interesujący artykuł pt. The Regulatory Problems of Artificial Intelligence autorstwa Matthew Scherera, wykładowcy politologii z George Mason University. Przyjrzał się on bliżej naszemu życiu wśród coraz bardziej inteligentnych maszyn, zajmujących się rzeczami, które do niedawna całkowicie należały do człowieka – i osiągających coraz lepsze w tym rezultaty. Wszystko to dzieje się wśród obojętności klasy politycznej – w rzeczywistości o sprawie mówią jedynie naukowcy, tacy jak Stephen Hawking i liderzy branży, tacy jak Bill Gates czy Elon Musk. Czy klasa polityczna będzie więc w stanie wziąć w cugle coś, czego najwyraźniej nie pojmuje? Przedstawiona przez Scherera analiza pokazuje, że AI zanim nas wszystkich zlikwiduje (jak straszy Elon Musk), to przysporzy sporo bólu głowy urzędnikom. Sztuczne inteligencje miałyby być bowiem praktycznie niemożliwe do uregulowania.

Jak prawnikowi wyjaśnić, czym jest AI?

Wnioskowanie autora można rozłożyć tu na trzy argumenty. Pierwszy z nich dotyczy definiowania. Otóż obecne systemy prawne nie mogą się obyć bez precyzyjnych definicji pojęć. Sęk w tym, że adekwatna do potrzeb systemów prawnych definicja sztucznej inteligencji może nie być możliwa. Nawet dzisiaj w literaturze przedmiotu spotykamy się z przynajmniej czterema rozłącznymi definicjami, zgodnie z którymi za sztuczną inteligencję uważa się kolejno systemy myślące jak człowiek, działające jak człowiek, myślące racjonalnie oraz działające racjonalnie. Pierwsze dwa coraz bardziej wypadają z łask, a ich przyjęcie na potrzeby prawa pozostawiłoby niekontrolowanymi w zasadzie wszystkie rzeczywiście opracowywane dziś sztuczne inteligencje. Z kolei skupienie na aspekcie racjonalności też wcale nie rozwiązuje problemu, gdyż w świetle prawa za racjonalne uznaje się działania wynikające ze stanów mentalnych, pragnień i intencji, a czy AI może (i musi) mieć jakieś stany mentalne, by zachowywać się racjonalnie? Stąd też Scherer wnioskuje, że wszelkie próby rządowych regulacji po prostu nie będą w stanie powiedzieć, co regulują, a co za tym idzie, producenci będą w stanie łatwo się wykręcać takim próbom. Co prawda sam proponuje własną definicję sztucznej inteligencji, jako dowolnego systemu, który wykonuje zadania, które jeśli byłyby wykonywane przez człowieka, wymagałyby inteligencji – ale jest to raczej żart, niż formalnie poprawna definicja, co więcej pod „definicję” tę podpada praktycznie każdy system informatyczny.

r   e   k   l   a   m   a

Oprogramowanie pisane w sypialni

Kolejny argument Scherera dotyczy zakresu odpowiedzialności i problemów z kontrolą, zarówno przed zbudowaniem AI (w terminologii prawniczej, ex ante) oraz po jej uruchomieniu (ex post). Jego zdaniem oba te okresy charakteryzują się zupełnie odmiennymi problemami regulacyjnymi. Zacznijmy od samego budowania AI. Tu autor wyróżnił cztery problemy dla regulatorów, wynikające z już dziś dostępnej infrastruktury informatycznej. I tak oto:

  • badania i rozwój AI wcale nie potrzebują laboratoriów z betonu i szkła, do których można wejść i które poddać inspekcji, a następnie w razie wykrycia nieprawidłowości wyprowadzić z nich skutych kajdankami menedżerów. Oprogramowanie sztucznej inteligencji może powstawać online, z wykorzystaniem łatwo dostępnego sprzętu lub mocy obliczeniowej dzierżawionej w chmurze, jako owoc współpracy nieujawniających swojej tożsamości programistów. Dla regulatorów, przyzwyczajonych do przyglądania się znacznie bardziej „uporządkowanym” branżom, takim jak np. energetyka czy telewizja, zderzenie z IT może być szokiem.
  • jurysdykcja nad rozwijającymi się w Internecie projektami jest śliską sprawą. Jeśli Unia Europejska wprowadzi ścisłe regulacje dotyczące jakiegoś aspektu AI, zainteresowani po prostu wydzierżawią serwery, na których prowadzone będą prace deweloperskie gdzieś w Ułan Bator czy Bogocie, łącząc się z nimi po szyfrowanych tunelach.
  • swobodny dostęp do sprzętu. AI wcale nie potrzebuje jakiegoś tajemniczego hardware prosto z wojskowych laboratoriów. Wszystko, co jest potrzebne do prac można skompletować online, bezpośrednio od znanych producentów. NVIDIA bardzo chętnie sprzeda każdemu zainteresowanemu swoje DevBoxy do eksperymentów z sieciami neuronowymi, a czipy takie jak TrueNorth firmy IBM, dziś wciąż dostępne tylko w kręgach akademickich, jutro mogą być w każdym sklepie z płytkami Arduino.
  • nieprzejrzystość AI. Skompilowane oprogramowanie bez dostępnego kodu źródłowego jest znacznie trudniejsze do przeanalizowania, niż inne dzieła inżynierii, o czym dobrze wiedzą badacze malware. Tymczasem w wielu sytuacjach nawet regulatorzy mogą nie mieć prawa wglądu do kodu źródłowego – to wymagałoby szczególnych porozumień między rządami a korporacjami (jak to jest w wypadku Microsoftu).

To nie ja, to ta maszyna

Gdy już zaś dana sztuczna inteligencja powstanie, to co wtedy? Pierwszy problem ex post to przede wszystkim kłopot z przewidywalnością. Otóż w większości systemów prawnych uważa się, że aby ponieść odpowiedzialność za szkodę wyrządzoną drugiej osobie, to możliwość zaistnienia tej szkody powinna być możliwa do przewidzenia. Oznacza to, że możliwe jest, by producent żelazka został pociągnięty do odpowiedzialności za pożar wywołany przez żelazko podczas jego normalnego użytkowania, natomiast gdyby jednak żelazko spadło z szafy swojemu właścicielowi na głowę, zabijając go, to producent nie może być tu niczego winny. Żelazka są jednak proste i przewidywalne, natomiast coraz bardziej kreatywne i innowacyjne sztuczne inteligencje już dziś robią rzeczy, których ich producenci przewidzieć nie byli w stanie. Tak się np. okazało (ku korzyści zainteresowanych) w wypadku medycznego systemu eksperckiego C-Path, który samodzielnie odkrył ku zaskoczeniu większości onkologów, że znacznie lepszym wskaźnikiem postępu choroby nowotworowej są zmiany w okalającej organ tkance łącznej (zrębie narządu), niż w samym narządzie. Jak kreatywne mogą stać się AI w kolejnej dekadzie?

Drugi problem ex post dotyczy kontroli – i to on najskuteczniej straszy opinię publiczną, wychowaną na Terminatorze. Co się dzieje z odpowiedzialnością producenta, gdy dane AI zaczyna działać tak, że nie może być już kontrolowane przez swoich twórców? Niekoniecznie tak się musi dziać z powodu uzyskania przez AI inteligencji wyższej od swoich twórców (choć to nie jest wykluczone), równie dobrze może to wynikać z błędów w oprogramowaniu. Tu autor rozróżnia lokalny i globalny zakres kontroli – w tym pierwszym chodzi o niemożność uzyskania nadzoru nad AI przez producenta, w tym drugim przez jakiegokolwiek człowieka. Warto tu zauważyć, że wcale nie musi chodzić o jakieś superinteligencje – wystarczy, że wystarczającą bystrość uzyska autonomiczne oprogramowanie, oryginalnie projektowane do zwalczania malware, które samo się uzłośliwiło. Jedynym sposobem na jego poskromienie byłoby wówczas wyłączenie całego Internetu, czyli operacja w praktyce niemożliwa.

Oczywiście nie jest tak, że przedstawione powyżej wyzwania są niemożliwe do rozwiązania. Czy jednak naprawdę ktoś sądzi, że obecna klasa polityczna miałaby wolę i kompetencje, by w ogóle zacząć rozważać takie problemy? Nawet próby regulowania branży znacznie bardziej namacalnych, takich jak motoryzacja, okazały się w świetle ostatniego skandalu z normami spalania w autach Volkswagena niezbyt efektywne, więc jak tu mówić o kontrolowaniu niezależnych startupów, w których najwięcej innowacji związanych z AI powstaje? Biorąc jeszcze pod uwagę to, że sporo ludzi zajmujących się tą tematyką otwarcie przyznaje się do libertariańskich i transhumanistycznych sympatii, poddanie tej dziedziny regulacjom wydaje się mało prawdopodobne. A później, gdy już dżinn wyjdzie z butelki, a klasa polityczna zauważy co się stało – będzie już za późno, żadna kampania polityczna nie powstrzyma postępu, wywracającego całe społeczeństwo od środka.

Zainteresowanych artykułem pana Scherera zapraszam do źródła, a wszystkich pozostałych do kolejnego tygodnia z naszym portalem. Mogę powiedzieć, że wracają budzące wśród was wielkie zainteresowanie recenzje gier planszowych, będziemy mieli też do rozdania licencje na ciekawe oprogramowanie i rozpoczniemy nową formę przeglądów sprzętu. Opóźniony, bo opóźniony, ale pojawi się dziś w końcu obiecany artykuł Jacka Szumowskiego o e-bookach. Przypominam – jeśli jesteście pasjonatami IT, chcecie, by Wasz artykuł ukazał się na dobroprogramowych łamach, piszcie bezpośrednio do rednacza, na adres adam.golanski@dobreprogramy.pl.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.