Obrońcy praw człowieka walczą o wprowadzenie zakazu prac nad „zabójczymi robotami”

Obrońcy praw człowieka walczą o wprowadzenie zakazu prac nad „zabójczymi robotami”

24.04.2013 12:58

Działacze międzynarodowej organizacji Human Rights Watch sąnajwyraźniej wielkimi optymistami. Rozpoczęli właśnie kampanię onazwie Stop Killer Robots, której celem jest powstrzymanie prac nadbudową autonomicznych systemów broni i uzbrojenia, które mogłybywybierać i atakować cele bez udziału człowieka. Ich zdaniem,społeczeństwo obywatelskie znajdzie sposób na to, by zakazaćbudowania takich broni,przekraczających granice moralności i prawa.Pomysł na odgórne zakazywanie broninie jest nowy. Podczas Soboru Laterańskiego II w 1139 roku, papieżInnocenty II wyklął wszystkichużytkowników broni miotanych (w szczególności kusz), którzywymierzyliby je przeciwko chrześcijanom, w szczególnościkatolikom. Wówczas to sztuka łucznictwa została określona jakozabójcza i obmierzła Bogu. Oczywiście nie przeszkodziło tokilkaset lat później angielskim i walijskim łucznikom wybićniemal do nogi kwiat francuskiego rycerstwa w bitwie pod Azincourt. Jak do tej pory w pełni autonomicznesystemy broni istnieją tylko w powieściach science-fiction, jeślinie liczyć systemów obrony okrętów wojennych, takich jak rosyjskiAK-630, holenderski Goalkeeper czy amerykański Phalanx. To jednakzastosowania wyjątkowe – obrona przed bronią przeciwokrętowąwymaga czasu reakcji mierzonego w milisekundach, wykraczającego pozamożliwości ludzkiego operatora. Nie można też takich broniokreślić jako w pełni autonomiczne, stanowią bowiem częśćuzbrojenia dowodzonego przez ludzi okrętu. Coraz popularniejszedrony, takie jak np. amerykański MQ-1 Predator, mogą swojeuzbrojenie aktywować wyłącznie wskutek decyzji człowieka. [img=robot-ban]Kraje Zachodu, w tym Stany Zjednoczonei Wielka Brytania, oficjalnie deklarują, że nie zamierzają budowaćcałkowicie niezależnych od ludzkich decyzji robotów bojowych.Oficjalna dyrektywa amerykańskiego Departamentu Obrony mówi wręcz, że wszystkiebronie tego typu muszą być konstruowane tak, by ostateczna decyzjao ataku wiązała się z odpowiednim osądem człowieka. Tojednak działaczom Human Rights Watch nie wystarcza. Przekonani sąoni, że autonomiczne roboty bojowe mogą pojawić się jużniebawem; w swoim raporciez 2012 roku pt. Losing Humanity: The Case Against KillerRobots przedstawiają rozmaite problemy etyczne, prawne ipolityczne związane z tworzeniem takich broni. Ich zdaniem trzebadziałać już teraz, zanim nie będzie za późno.Obrońcy praw człowieka, do których wtej kampanii przeciwko zabójczym robotom dołączyły organizacjepacyfistyczne, feministyczne i ekologiczne z kilkunastu innychkrajów, wierzą, że uświadamiając społeczeństwo, wymogą napolitykach międzynarodowy zakaz prac nad „zabójczymi robotami”.Społeczeństwo jest przerażone dowiadując się o możliwychpostępach w systemach uzbrojenia. Ludzie nie chcą zabójczychrobotów, dla normalnych ludzkich istot to coś odrzucającego –mówi stojąca na czele akcji Jody Williams. Podkreśla, że udałosię dzięki takim akcjom zakazać innych broni, takich jak minyprzeciwpiechotne, oślepiające lasery czy bomby kasetowe.Oczywiście te zakazy nie mają nicwspólnego z rzeczywistością. Bomby kasetowe są regularniestosowane od czasów wojny wietnamskiej, a ostatnio znalazłyzastosowanie w wojnie rosyjsko-gruzińskiej, przewrocie w Libii ipowstaniu w Syrii. Oślepiająca broń laserowa jest na uzbrojeniuIzraela, Stanów Zjednoczonych, Wielkiej Brytanii i Chin. O minachprzeciwpiechotnych nie ma nawet co wspominać – traktat ottawski,zakazujący ich stosowania został zlekceważony przez takie krajejak Stany Zjednoczone, Rosja, Chiny, Indie, Izrael czy Iran, a wielekrajów, choć podpisało układ, zachowało w swoich arsenałachtysiące min, powołując się na klauzulę pozwalającą zachowaćminy do celów szkoleniowych związanych z ich wykrywaniem iniszczeniem.Można więc się spodziewać, żeskuteczność zakazów opracowywania autonomicznych robotów bojowychbędzie podobna jak w powyższych wypadkach: ludzie stanowią corazczęściej najsłabsze ogniwo współczesnego pola walki i potrzebaich zastąpienia bardziej niezawodnymi systemami będzie z upływemlat tylko rosła. Czy skończymy z czymś na kształt filmowegoSkynetu i robotów-terminatorów? Tego nie wiemy, ale skoro dlastrategów USA nie stanowi najwyraźniej problemu to, że w atakachdronów w Afganistanie i Pakistanie na jednego zabitego „terrorystę”przypada50 cywilów, to i wykorzystanie złego oprogramowania dozabijania też nie powinno być problemem.

Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (18)