Algorytmiczna moralność: kogo ma zabić samoprowadzące się auto?

Algorytmiczna moralność: kogo ma zabić samoprowadzące się auto?23.10.2015 13:38

Samoprowadzące się auta przestały być już tylko fantazją, a nawettylko eksperymentem. Nawet seryjnie produkowane Tesle Model Sotrzymały ostatnio aktualizację oprogramowania, pozwalającą im naporuszanie się po drodze bez angażowania ludzkiego kierowcy.Najbliższe lata mogą przynieść tylko dalsze ulepszeniasamochodowych autopilotów – techniczne problemy albo zostałyrozwiązane, albo będą rozwiązane. Jednak o tym, czy pojazdy takierzeczywiście zapełnią nasze drogi może zadecydować nie technika,lecz etyka i idące za nią regulacje prawne. Przeprowadzone w tejdziedzinie przez francuskich uczonych badania pokazują jednak, żeproducenci samochodów i systemów komputerowych do samosterowanianie mają pojęcia, jak zalgorytmizować etykę.

Auto nie jest zabawką. Nawet ważący trzy czwarte tony maleńkiDaewoo Matiz z pięćdziesięciokonnym silniczkiem może zabićpieszych czy rowerzystów (nie mówiąc już o swoich pasażerach), aco dopiero wielkie SUV-y z silnikami o mocy kilkuset koni. Gdy autootrzymuje system komputerowego sterowania, prowadzi się oszczędniejniż człowiek, i jak twierdzą zwolennicy takich pojazdów,bezpieczniej. Prowadzone przez Google testy autonomicznych autpokazały, że po przejechaniu ponad miliona mil 23 pojazdy wzięłyudział w zaledwie 14 pomniejszych wypadkach na drogach publicznych –ani razu z winy sterującego nimi oprogramowania. Tylko razpasażerowie zostali lekko ranni, gdy ktoś wjechał w tył autaGoogle. Wyniki to piękne, do momentu, gdy uświadomimy sobie, jakiewarunki drogowe panują w Kalifornii. Ruch drogowy w porządnejśnieżycy czy podczas oberwania chmury wygląda przecież zupełnieinaczej. Samoprowadzące się auta są bezpieczne, ale nie oznaczato, że są tak bezpieczne, by zawsze móc uniknąć możliwych nadrodze zagrożeń. Co więcej – bywają sytuacje, gdy właśniepróba uniknięcia zagrożenia prowadzi do katastrofy.

Są pytania, na które ludzie z firm pracujących nadsamoprowadzącymi się autami nie bardzo chcą odpowiadać. Co autopowinno zrobić w sytuacji, gdy wypadek jest nieunikniony? Jakimikryteriami kierować się podczas takiej decyzji? Założenie„chronić ludzkie życie” jest w wielu sytuacjach pustym frazesem– co jeśli musimy wybierać pomiędzy życiem jednej osoby adrugiej? Co jeśli musimy wybierać między życiem swoim adziesięciu obcych?

Przedstawiony przez francuskiego psychologa Jean-FrancoisaBonnefona dylematbrzmi całkiem realistycznie: załóżmy, że w przyszłości jesteśwłaścicielem samoprowadzącego się pojazdu. Pewnego dnia dochodzido nieszczęśliwego zbiegu okoliczności, w wyniku którego naprzejściu dla pieszych pojawia się niespodziewanie grupa ludzi (np.doszło do awarii świateł). Twoje auto jedzie szybko, jednak zdopuszczalną prędkością. Hamowanie już nic nie da – jeśliauto nie skręci, wjedzie w grupę dziesięciu ludzi, najpewniej ichzabijając. Jeśli skręci, wjedzie w betonową ścianę, alezderzenie zabije ciebie. Co w tej sytuacji powinien zrobić algorytm?

Moralni utylitaryści powiedzą zapewne, że algorytm powinienkierować się zasadą większego dobra, minimalizować straty wludzkim życiu. Wybór wydaje się prosty, jedno życie za życiedziesięciu. Kto jednak kupi auto, które jest zaprogramowane tak, byzabić swojego pasażera w razie wypadku? Utylitarysta, optujący zasamoprowadzącymi się autami w imię ich większego bezpieczeństwanagle znalazł się w paradoksalnej sytuacji – skoro mniej ludzikupuje takie pojazdy, ponieważ mogą one zabić swoich pasażerów,to więcej ludzi będzie ginęło w kolizjach z udziałem klasycznychaut. Czy zatem należy zaprogramować auta tak, by zabijały większegrupy postronnych pieszych, zamiast jednego pasażera?

Bonnefon wraz ze swoimi kolegami z Toulouse School of Economicsnie chcą mówić, które rozwiązanie jest dobre, a które złe.Empirycznie badają (deklarowaną) moralność jednostek, by ustalić,do czego ludzie są skłonni. W swoim eksperymencie wykorzystalikilkuset pracowników usługi Amazon Mechanical Turk, każąc imrozstrzygać w podobnych do powyżej przedstawionego scenariuszach,różniących się takimi detalami jak liczba uczestników wypadkuczy rola, jaką pytany miał w nim odgrywać.

Nikt chyba nie będzie zaskoczony, jeśli okaże się, że ludziompodobał się pomysł, by samoprowadzące się auta minimalizowałyliczbę ofiar – do momentu, w którym to nie oni sami mielibyzginąć. Co ciekawe jednak, praktycznie nikt nie sądził, byktokolwiek w rzeczywistości auta tak zaprogramował. Wygląda na to,że każdy chce, by to inni jeździli w kierujących sięutylitarystyczną etyką autach, a nikt nie chce sam takiego autakupić.

A to przecież dopiero wierzchołek góry lodowej. Bonnefonzauważa, że trudnych pytań jest więcej. Czy samoprowadzące sięauto powinno uniknąć zderzenia z motocyklem przez wjechanie wścianę, wiedząc, że prawdopodobieństwo przeżycia w takimwypadku motocyklisty jest znacznie mniejsze od prawdopodobieństwaprzeżycia pasażera auta? Czy należy podejmować inne decyzje,jeśli w tym równaniu pojawią się dzieci? A może producentpowinien zaoferować właścicielowi pojazdu kilka algorytmów dowyboru? Jeśli zaś tak by było, to czy właściciel ponosiłbymoralną (i prawną) odpowiedzialność za to, który z algorytmówwybrał?

Łatwych odpowiedzi na te trudne pytania nie będzie, tymbardziej, że po dyskusjach w Sieci widać, że uniwersalnejodpowiedzi, która odpowiadałaby wszystkim, być tu nie może. Każdyma swoje sumienie i nawet w niektórych sytuacjach ludzie mogą byćgotowi poświęcić swoje życie, o ile ocali to życie np. ichdzieci. Co jednak, jeśli w wypadku auto będzie musiało wybieraćmiędzy życiem ukochanej żony właściciela, a życiem jego małegodziecka? A jeśli dzieci będzie dwoje, małe i duże? Dzisiaj, gdystoimy przed wizją wprowadzenia milionów autonomicznych pojazdówna takie drogi, wcześniej czy później algorytmicznerozstrzygnięcia tych kwestii staną się konieczne. Jest to niemniej istotne, niż poradzenie sobie z trudnymi warunkamiatmosferycznymi.

Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.