Obrońcy praw człowieka walczą o wprowadzenie zakazu prac nad „zabójczymi robotami”

Obrońcy praw człowieka walczą o wprowadzenie zakazu prac nad „zabójczymi robotami”24.04.2013 12:58

Działacze międzynarodowej organizacji Human Rights Watch sąnajwyraźniej wielkimi optymistami. Rozpoczęli właśnie kampanię onazwie Stop Killer Robots, której celem jest powstrzymanie prac nadbudową autonomicznych systemów broni i uzbrojenia, które mogłybywybierać i atakować cele bez udziału człowieka. Ich zdaniem,społeczeństwo obywatelskie znajdzie sposób na to, by zakazaćbudowania takich broni,przekraczających granice moralności i prawa.Pomysł na odgórne zakazywanie broninie jest nowy. Podczas Soboru Laterańskiego II w 1139 roku, papieżInnocenty II wyklął wszystkichużytkowników broni miotanych (w szczególności kusz), którzywymierzyliby je przeciwko chrześcijanom, w szczególnościkatolikom. Wówczas to sztuka łucznictwa została określona jakozabójcza i obmierzła Bogu. Oczywiście nie przeszkodziło tokilkaset lat później angielskim i walijskim łucznikom wybićniemal do nogi kwiat francuskiego rycerstwa w bitwie pod Azincourt. Jak do tej pory w pełni autonomicznesystemy broni istnieją tylko w powieściach science-fiction, jeślinie liczyć systemów obrony okrętów wojennych, takich jak rosyjskiAK-630, holenderski Goalkeeper czy amerykański Phalanx. To jednakzastosowania wyjątkowe – obrona przed bronią przeciwokrętowąwymaga czasu reakcji mierzonego w milisekundach, wykraczającego pozamożliwości ludzkiego operatora. Nie można też takich broniokreślić jako w pełni autonomiczne, stanowią bowiem częśćuzbrojenia dowodzonego przez ludzi okrętu. Coraz popularniejszedrony, takie jak np. amerykański MQ-1 Predator, mogą swojeuzbrojenie aktywować wyłącznie wskutek decyzji człowieka. [img=robot-ban]Kraje Zachodu, w tym Stany Zjednoczonei Wielka Brytania, oficjalnie deklarują, że nie zamierzają budowaćcałkowicie niezależnych od ludzkich decyzji robotów bojowych.Oficjalna dyrektywa amerykańskiego Departamentu Obrony mówi wręcz, że wszystkiebronie tego typu muszą być konstruowane tak, by ostateczna decyzjao ataku wiązała się z odpowiednim osądem człowieka. Tojednak działaczom Human Rights Watch nie wystarcza. Przekonani sąoni, że autonomiczne roboty bojowe mogą pojawić się jużniebawem; w swoim raporciez 2012 roku pt. Losing Humanity: The Case Against KillerRobots przedstawiają rozmaite problemy etyczne, prawne ipolityczne związane z tworzeniem takich broni. Ich zdaniem trzebadziałać już teraz, zanim nie będzie za późno.Obrońcy praw człowieka, do których wtej kampanii przeciwko zabójczym robotom dołączyły organizacjepacyfistyczne, feministyczne i ekologiczne z kilkunastu innychkrajów, wierzą, że uświadamiając społeczeństwo, wymogą napolitykach międzynarodowy zakaz prac nad „zabójczymi robotami”.Społeczeństwo jest przerażone dowiadując się o możliwychpostępach w systemach uzbrojenia. Ludzie nie chcą zabójczychrobotów, dla normalnych ludzkich istot to coś odrzucającego –mówi stojąca na czele akcji Jody Williams. Podkreśla, że udałosię dzięki takim akcjom zakazać innych broni, takich jak minyprzeciwpiechotne, oślepiające lasery czy bomby kasetowe.Oczywiście te zakazy nie mają nicwspólnego z rzeczywistością. Bomby kasetowe są regularniestosowane od czasów wojny wietnamskiej, a ostatnio znalazłyzastosowanie w wojnie rosyjsko-gruzińskiej, przewrocie w Libii ipowstaniu w Syrii. Oślepiająca broń laserowa jest na uzbrojeniuIzraela, Stanów Zjednoczonych, Wielkiej Brytanii i Chin. O minachprzeciwpiechotnych nie ma nawet co wspominać – traktat ottawski,zakazujący ich stosowania został zlekceważony przez takie krajejak Stany Zjednoczone, Rosja, Chiny, Indie, Izrael czy Iran, a wielekrajów, choć podpisało układ, zachowało w swoich arsenałachtysiące min, powołując się na klauzulę pozwalającą zachowaćminy do celów szkoleniowych związanych z ich wykrywaniem iniszczeniem.Można więc się spodziewać, żeskuteczność zakazów opracowywania autonomicznych robotów bojowychbędzie podobna jak w powyższych wypadkach: ludzie stanowią corazczęściej najsłabsze ogniwo współczesnego pola walki i potrzebaich zastąpienia bardziej niezawodnymi systemami będzie z upływemlat tylko rosła. Czy skończymy z czymś na kształt filmowegoSkynetu i robotów-terminatorów? Tego nie wiemy, ale skoro dlastrategów USA nie stanowi najwyraźniej problemu to, że w atakachdronów w Afganistanie i Pakistanie na jednego zabitego „terrorystę”przypada50 cywilów, to i wykorzystanie złego oprogramowania dozabijania też nie powinno być problemem.

Źródło artykułu:www.dobreprogramy.pl
Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.