Amerykanie stworzą broń ze sztuczną inteligencją. Ich własna im nie wystarcza?

Amerykanie stworzą broń ze sztuczną inteligencją. Ich własna im nie wystarcza?11.09.2018 19:53
Kiedy drony zyskają swój umysł i samodzielnie będą wybierać cele? (fot. depositphotos)

Pion badawczy Departamentu Obrony Stanów Zjednoczonych zapowiedział, że dokona największych w historii inwestycji wojskowych w systemy sztucznej inteligencji (AI) dla amerykańskiej broni, zobowiązując się jednocześnie do wydania co najmniej 2 miliardów dolarów w ciągu następnych pięciu lat. Argumentacja? Sztuczne systemy prędzej czy później wzbudzą większe zaufanie i akceptację przez dowódców wojskowych.

Dyrektor agencji DARPA (Defense Advanced Research Projects Agency ) ogłosił, że już wkrótce rozpocznie się szaleństwo wydatków na badania i rozwój nowych technologii. Agencja uważa, że jej podstawową rolą jest forsowanie nowych rozwiązań technologicznych w zakresie problemów wojskowych, a administracja Trumpa zdecydowanie poparła wprowadzenie sztucznej inteligencji do większej części amerykańskiej broni, aby lepiej konkurować z rosyjskimi i chińskimi siłami wojskowymi.

Prawdę mówiąc, inwestycja DARPA jest niewielka w porównaniu do standardów Pentagonu, gdzie koszty zakupu i utrzymania nowych samolotów bojowych F-35 opiewają na setki miliardów dolarów. W lipcu Booz Allen Hamilton, dostawca systemów obronnych, otrzymał kontrakt o wartości 885 milionów dolarów na pracę nad programami sztucznej inteligencji w ciągu najbliższych pięciu lat. Projekt Maven z kolei, jeden z największych wojskowych projektów AI, który ma na celu poprawę zdolności komputerów do wybierania obiektów na zdjęciach do celów wojskowych, ma otrzymać 93 miliony dolarów w 2019 roku.

Tak czy inaczej, przekazywanie większej ilości wojskowych prac analitycznych - i potencjalnie niektórych kluczowych decyzji - komputerom i algorytmom zainstalowanym w broni zdolnej do gwałtownego działania przeciwko ludziom jest kontrowersyjne. Niektórzy z pewnością pamiętają, że jakiś czas temu to Google kierował projektem Maven dla tego działu, ale po zorganizowanym proteście ze strony pracowników, którzy nie chcieli pracować nad oprogramowaniem, które mogłoby pomóc w określeniu potencjalnych celów do zabicia dla żołnierzy, firma zapowiedziała w czerwcu, że po wygaśnięciu obecnej umowy zakończy współpracę z amerykańskim rządem.

Podczas gdy Maven i inne inicjatywy w zakresie sztucznej inteligencji pomogły systemom Pentagonu w lepszym rozpoznawaniu celów i skuteczniejszym tworzeniu takich rzeczy jak latające drony, systemy sterowania komputerowego, które podejmują działania ostateczne tj. bezpośrednie likwidowanie celów, nie zostały jeszcze wprowadzone „do służby”. Mówiąc prościej, człowiek nadal decyduje o życiu drugiego człowieka i to on naciska spust. Jednak opublikowany w sierpniu dokument strategiczny Pentagonu mówi, że postęp technologiczny wkrótce uczyni taką broń możliwą.„Departament Obrony nie ma obecnie autonomicznego systemu uzbrojenia, który mógłby wyszukiwać, identyfikować, śledzić, wybierać i angażować cele niezależne od danych wprowadzanych przez operatora” - głosi raport, który został podpisany przez czołowych działaczy rozwoju i badań Pentagonu - Kevina Faheya i Mary Miller. To oficjalne stanowisko. Jak jest w rzeczywistości?

W tym samym raporcie znajdziemy również informację o tym, że „technologie leżące u podstaw systemów bezzałogowych umożliwiłyby opracowanie i wdrożenie autonomicznych systemów, które niezależnie wybierałyby i atakowały cele przy użyciu śmiertelnej siły”. Wygląda na to, że kwestią nie jest „czy”, tylko „kiedy” systemy autonomiczne zastąpią w decyzjach o ludzkim życiu odpowiedzialnych za to żołnierzy. W raporcie napisano, że chociaż systemy AI są już technicznie zdolne do wybierania celów i strzelania z broni, dowódcy wahali się, czy przekazać ten „obowiązek” maszynom. Granicą jest brak zaufania do maszynowego rozumowania, zwłaszcza na polu bitwy, gdzie mogą pojawić się zmienne, z którymi maszyna i jej projektanci wcześniej się nie spotkali.

Obecnie żołnierz może z pewną dozą prawdopodobieństwa określić, czy wybrany przez niego cel jest prawidłowy. Zazwyczaj określa to procentowo i sam decyduje, czy oddać strzał, czy nie. Co w takiej sytuacji zrobi maszyna? Gdzie pojawi się granica pomiędzy decyzją pozytywną a negatywną? Przy 35% pewności? A może 45 lub 60? Czy o ludzkim życiu będzie decydował rachunek prawdopodobieństwa? Człowiek może argumentować swoją decyzję, maszyna nie jest w stanie tego zrobić.

Przeskoczenie tej przeszkody w chwili obecnej jest niezwykle trudne. Ludzki proces decyzyjny i racjonalność zależą od czegoś więcej niż tylko przestrzegania reguł i skryptów. Ludzkość potrzebuje wielu lat, aby zbudować moralny kompas i zdroworozsądkowe umiejętności myślenia, które będzie można w sposób bezbłędny i sprawny przeprogramować na cyfrowe dane. Bo skoro autonomia nadal raczkuje i nie jest w stanie prowadzić samochodu, to jakim cudem ma decydować o celach do zlikwidowania?

Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.