r   e   k   l   a   m   a
r   e   k   l   a   m   a

Algorytmiczna moralność: kogo ma zabić samoprowadzące się auto?

Strona główna AktualnościOPROGRAMOWANIE

Samoprowadzące się auta przestały być już tylko fantazją, a nawet tylko eksperymentem. Nawet seryjnie produkowane Tesle Model S otrzymały ostatnio aktualizację oprogramowania, pozwalającą im na poruszanie się po drodze bez angażowania ludzkiego kierowcy. Najbliższe lata mogą przynieść tylko dalsze ulepszenia samochodowych autopilotów – techniczne problemy albo zostały rozwiązane, albo będą rozwiązane. Jednak o tym, czy pojazdy takie rzeczywiście zapełnią nasze drogi może zadecydować nie technika, lecz etyka i idące za nią regulacje prawne. Przeprowadzone w tej dziedzinie przez francuskich uczonych badania pokazują jednak, że producenci samochodów i systemów komputerowych do samosterowania nie mają pojęcia, jak zalgorytmizować etykę.

Auto nie jest zabawką. Nawet ważący trzy czwarte tony maleńki Daewoo Matiz z pięćdziesięciokonnym silniczkiem może zabić pieszych czy rowerzystów (nie mówiąc już o swoich pasażerach), a co dopiero wielkie SUV-y z silnikami o mocy kilkuset koni. Gdy auto otrzymuje system komputerowego sterowania, prowadzi się oszczędniej niż człowiek, i jak twierdzą zwolennicy takich pojazdów, bezpieczniej. Prowadzone przez Google testy autonomicznych aut pokazały, że po przejechaniu ponad miliona mil 23 pojazdy wzięły udział w zaledwie 14 pomniejszych wypadkach na drogach publicznych – ani razu z winy sterującego nimi oprogramowania. Tylko raz pasażerowie zostali lekko ranni, gdy ktoś wjechał w tył auta Google. Wyniki to piękne, do momentu, gdy uświadomimy sobie, jakie warunki drogowe panują w Kalifornii. Ruch drogowy w porządnej śnieżycy czy podczas oberwania chmury wygląda przecież zupełnie inaczej. Samoprowadzące się auta są bezpieczne, ale nie oznacza to, że są tak bezpieczne, by zawsze móc uniknąć możliwych na drodze zagrożeń. Co więcej – bywają sytuacje, gdy właśnie próba uniknięcia zagrożenia prowadzi do katastrofy.

Są pytania, na które ludzie z firm pracujących nad samoprowadzącymi się autami nie bardzo chcą odpowiadać. Co auto powinno zrobić w sytuacji, gdy wypadek jest nieunikniony? Jakimi kryteriami kierować się podczas takiej decyzji? Założenie „chronić ludzkie życie” jest w wielu sytuacjach pustym frazesem – co jeśli musimy wybierać pomiędzy życiem jednej osoby a drugiej? Co jeśli musimy wybierać między życiem swoim a dziesięciu obcych?

r   e   k   l   a   m   a

Przedstawiony przez francuskiego psychologa Jean-Francoisa Bonnefona dylemat brzmi całkiem realistycznie: załóżmy, że w przyszłości jesteś właścicielem samoprowadzącego się pojazdu. Pewnego dnia dochodzi do nieszczęśliwego zbiegu okoliczności, w wyniku którego na przejściu dla pieszych pojawia się niespodziewanie grupa ludzi (np. doszło do awarii świateł). Twoje auto jedzie szybko, jednak z dopuszczalną prędkością. Hamowanie już nic nie da – jeśli auto nie skręci, wjedzie w grupę dziesięciu ludzi, najpewniej ich zabijając. Jeśli skręci, wjedzie w betonową ścianę, ale zderzenie zabije ciebie. Co w tej sytuacji powinien zrobić algorytm?

Moralni utylitaryści powiedzą zapewne, że algorytm powinien kierować się zasadą większego dobra, minimalizować straty w ludzkim życiu. Wybór wydaje się prosty, jedno życie za życie dziesięciu. Kto jednak kupi auto, które jest zaprogramowane tak, by zabić swojego pasażera w razie wypadku? Utylitarysta, optujący za samoprowadzącymi się autami w imię ich większego bezpieczeństwa nagle znalazł się w paradoksalnej sytuacji – skoro mniej ludzi kupuje takie pojazdy, ponieważ mogą one zabić swoich pasażerów, to więcej ludzi będzie ginęło w kolizjach z udziałem klasycznych aut. Czy zatem należy zaprogramować auta tak, by zabijały większe grupy postronnych pieszych, zamiast jednego pasażera?

Bonnefon wraz ze swoimi kolegami z Toulouse School of Economics nie chcą mówić, które rozwiązanie jest dobre, a które złe. Empirycznie badają (deklarowaną) moralność jednostek, by ustalić, do czego ludzie są skłonni. W swoim eksperymencie wykorzystali kilkuset pracowników usługi Amazon Mechanical Turk, każąc im rozstrzygać w podobnych do powyżej przedstawionego scenariuszach, różniących się takimi detalami jak liczba uczestników wypadku czy rola, jaką pytany miał w nim odgrywać.

Nikt chyba nie będzie zaskoczony, jeśli okaże się, że ludziom podobał się pomysł, by samoprowadzące się auta minimalizowały liczbę ofiar – do momentu, w którym to nie oni sami mieliby zginąć. Co ciekawe jednak, praktycznie nikt nie sądził, by ktokolwiek w rzeczywistości auta tak zaprogramował. Wygląda na to, że każdy chce, by to inni jeździli w kierujących się utylitarystyczną etyką autach, a nikt nie chce sam takiego auta kupić.

A to przecież dopiero wierzchołek góry lodowej. Bonnefon zauważa, że trudnych pytań jest więcej. Czy samoprowadzące się auto powinno uniknąć zderzenia z motocyklem przez wjechanie w ścianę, wiedząc, że prawdopodobieństwo przeżycia w takim wypadku motocyklisty jest znacznie mniejsze od prawdopodobieństwa przeżycia pasażera auta? Czy należy podejmować inne decyzje, jeśli w tym równaniu pojawią się dzieci? A może producent powinien zaoferować właścicielowi pojazdu kilka algorytmów do wyboru? Jeśli zaś tak by było, to czy właściciel ponosiłby moralną (i prawną) odpowiedzialność za to, który z algorytmów wybrał?

Łatwych odpowiedzi na te trudne pytania nie będzie, tym bardziej, że po dyskusjach w Sieci widać, że uniwersalnej odpowiedzi, która odpowiadałaby wszystkim, być tu nie może. Każdy ma swoje sumienie i nawet w niektórych sytuacjach ludzie mogą być gotowi poświęcić swoje życie, o ile ocali to życie np. ich dzieci. Co jednak, jeśli w wypadku auto będzie musiało wybierać między życiem ukochanej żony właściciela, a życiem jego małego dziecka? A jeśli dzieci będzie dwoje, małe i duże? Dzisiaj, gdy stoimy przed wizją wprowadzenia milionów autonomicznych pojazdów na takie drogi, wcześniej czy później algorytmiczne rozstrzygnięcia tych kwestii staną się konieczne. Jest to nie mniej istotne, niż poradzenie sobie z trudnymi warunkami atmosferycznymi.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.