r   e   k   l   a   m   a
r   e   k   l   a   m   a

Obrońcy praw człowieka walczą o wprowadzenie zakazu prac nad „zabójczymi robotami”

Strona główna Aktualności

Działacze międzynarodowej organizacji Human Rights Watch są najwyraźniej wielkimi optymistami. Rozpoczęli właśnie kampanię o nazwie Stop Killer Robots, której celem jest powstrzymanie prac nad budową autonomicznych systemów broni i uzbrojenia, które mogłyby wybierać i atakować cele bez udziału człowieka. Ich zdaniem, społeczeństwo obywatelskie znajdzie sposób na to, by zakazać budowania takich broni, przekraczających granice moralności i prawa.

Pomysł na odgórne zakazywanie broni nie jest nowy. Podczas Soboru Laterańskiego II w 1139 roku, papież Innocenty II wyklął wszystkich użytkowników broni miotanych (w szczególności kusz), którzy wymierzyliby je przeciwko chrześcijanom, w szczególności katolikom. Wówczas to sztuka łucznictwa została określona jako zabójcza i obmierzła Bogu. Oczywiście nie przeszkodziło to kilkaset lat później angielskim i walijskim łucznikom wybić niemal do nogi kwiat francuskiego rycerstwa w bitwie pod Azincourt.

Jak do tej pory w pełni autonomiczne systemy broni istnieją tylko w powieściach science-fiction, jeśli nie liczyć systemów obrony okrętów wojennych, takich jak rosyjski AK-630, holenderski Goalkeeper czy amerykański Phalanx. To jednak zastosowania wyjątkowe – obrona przed bronią przeciwokrętową wymaga czasu reakcji mierzonego w milisekundach, wykraczającego poza możliwości ludzkiego operatora. Nie można też takich broni określić jako w pełni autonomiczne, stanowią bowiem część uzbrojenia dowodzonego przez ludzi okrętu. Coraz popularniejsze drony, takie jak np. amerykański MQ-1 Predator, mogą swoje uzbrojenie aktywować wyłącznie wskutek decyzji człowieka.

Kraje Zachodu, w tym Stany Zjednoczone i Wielka Brytania, oficjalnie deklarują, że nie zamierzają budować całkowicie niezależnych od ludzkich decyzji robotów bojowych. Oficjalna dyrektywa amerykańskiego Departamentu Obrony mówi wręcz, że wszystkie bronie tego typu muszą być konstruowane tak, by ostateczna decyzja o ataku wiązała się z odpowiednim osądem człowieka. To jednak działaczom Human Rights Watch nie wystarcza. Przekonani są oni, że autonomiczne roboty bojowe mogą pojawić się już niebawem; w swoim raporcie z 2012 roku pt. Losing Humanity: The Case Against Killer Robots przedstawiają rozmaite problemy etyczne, prawne i polityczne związane z tworzeniem takich broni. Ich zdaniem trzeba działać już teraz, zanim nie będzie za późno.

Obrońcy praw człowieka, do których w tej kampanii przeciwko zabójczym robotom dołączyły organizacje pacyfistyczne, feministyczne i ekologiczne z kilkunastu innych krajów, wierzą, że uświadamiając społeczeństwo, wymogą na politykach międzynarodowy zakaz prac nad „zabójczymi robotami”. Społeczeństwo jest przerażone dowiadując się o możliwych postępach w systemach uzbrojenia. Ludzie nie chcą zabójczych robotów, dla normalnych ludzkich istot to coś odrzucającego – mówi stojąca na czele akcji Jody Williams. Podkreśla, że udało się dzięki takim akcjom zakazać innych broni, takich jak miny przeciwpiechotne, oślepiające lasery czy bomby kasetowe.

Oczywiście te zakazy nie mają nic wspólnego z rzeczywistością. Bomby kasetowe są regularnie stosowane od czasów wojny wietnamskiej, a ostatnio znalazły zastosowanie w wojnie rosyjsko-gruzińskiej, przewrocie w Libii i powstaniu w Syrii. Oślepiająca broń laserowa jest na uzbrojeniu Izraela, Stanów Zjednoczonych, Wielkiej Brytanii i Chin. O minach przeciwpiechotnych nie ma nawet co wspominać – traktat ottawski, zakazujący ich stosowania został zlekceważony przez takie kraje jak Stany Zjednoczone, Rosja, Chiny, Indie, Izrael czy Iran, a wiele krajów, choć podpisało układ, zachowało w swoich arsenałach tysiące min, powołując się na klauzulę pozwalającą zachować miny do celów szkoleniowych związanych z ich wykrywaniem i niszczeniem.

Można więc się spodziewać, że skuteczność zakazów opracowywania autonomicznych robotów bojowych będzie podobna jak w powyższych wypadkach: ludzie stanowią coraz częściej najsłabsze ogniwo współczesnego pola walki i potrzeba ich zastąpienia bardziej niezawodnymi systemami będzie z upływem lat tylko rosła. Czy skończymy z czymś na kształt filmowego Skynetu i robotów-terminatorów? Tego nie wiemy, ale skoro dla strategów USA nie stanowi najwyraźniej problemu to, że w atakach dronów w Afganistanie i Pakistanie na jednego zabitego „terrorystę” przypada 50 cywilów, to i wykorzystanie złego oprogramowania do zabijania też nie powinno być problemem.

r   e   k   l   a   m   a
© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.