r   e   k   l   a   m   a
r   e   k   l   a   m   a

Kałasznikowy przyszłości. Intelektualiści w otwartym liście do ONZ ostrzegają przed autonomiczną bronią

Strona główna AktualnościSPRZĘT

Niejednokrotnie wspominaliśmy o tym, jak sztuczną inteligencją straszą słynny przedsiębiorca z Doliny Krzemowej Elon Musk i brytyjski fizyk (a zarazem ikona popkultury) Stephen Hawking. Ich przekaz zdobywa coraz większe uznanie wśród intelektualnych sław tego świata. Pod opublikowanym właśnie listem otwartym organizacji Future of Life Institute, wzywającym do zakazania prac nad autonomicznymi systemami broni, podpisali się oprócz nich także Steve Wozniak oraz Noam Chomsky.

Autorzy listu uważają, że systemy uzbrojenia automatycznie wybierające cele i atakujące je bez jakiekolwiek interwencji ze strony człowieka mogą stać się Kałasznikowami przyszłości, napędzając wojny, terroryzm i prowadząc do globalnej niestabilności. Zauważają, że od powstania takich maszyn dzielą nas ledwie lata. Już dziś uznano autonomiczne systemy uzbrojenia za trzecią rewolucję w wojskowości, po wynalezieniu prochu i broni jądrowej.

W przeciwieństwie jednak do broni jądrowej, która wymaga trudnych do uzyskania surowców i ogromnie kosztownej infrastruktury przemysłowej, proliferacji militarnych sztucznych inteligencji nie będzie można zatrzymać, tak jak dziś przecież nie można zatrzymać upowszechniania się nowoczesnego oprogramowania. Systemy takie szybko staną się tak tanie i dostępne, że na czarnym rynku będzie mógł pozyskać je każdy, kto ma choć trochę pieniędzy. Członkowie Future of Life Institute obawiają się, że skorzystają z nich terroryści, dyktatorzy chcący kontrolować swoje narody czy myślący o przeprowadzeniu czystek etnicznych.

r   e   k   l   a   m   a

Z listu możemy się też dowiedzieć, że rozwój autonomicznych systemów uzbrojenia może utrudnić badania nad sztuczną inteligencją, ponieważ instytucje i naukowcy zajmujący się tą dziedziną utracą zaufanie społeczne. Dlatego jego autorzy wzywają Organizację Narodów Zjednoczonych do podjęcia odpowiednich działań, w tym wprowadzenia całkowitego zakazu stosowania ofensywnej autonomicznej broni przez państwa członkowskie.

Trudno sądzić, by list taki mógł cokolwiek zmienić. Mocarstwa takie jak USA, Rosja czy Chiny – członkowie Rady Bezpieczeństwa ONZ – nie od dziś prowadzą prace nad autonomicznymi systemami uzbrojenia, zdając sobie sprawę, że jeśli zaniedbają swój wysiłek w tej sprawie, to w następnej wojnie ich reagujący z opóźnieniem setek milisekund żołnierze i piloci napotkają maszyny wroga, których czas reakcji mierzony będzie w mikrosekundach. Przekonanie, że zakazem można zablokować postęp techniczny w jakiejkolwiek dziedzinie wydaje się więc nieco naiwne, jakby ignorujące wszystko to, czego uczy nas historia ludzkości. Warto też pamiętać, że nazwanie autonomicznych systemów uzbrojenia Kałasznikowami przyszłości ma jeszcze jeden aspekt, który autorzy listu kompletnie przeoczyli.

Niezawodny i prosty w konstrukcji karabinek Kałasznikowa jest bowiem dla wielu na tym świecie symbolem wolności i rewolucji, znalazł się na flagach państwowych i godłach, korzystały z niego dziesiątki ugrupowań partyzanckich, przekonanych, że toczą walkę przeciwko swoim opresorom. Wprowadzenie autonomicznych systemów uzbrojenia jako właśnie broni taniej i powszechnie dostępnej faktycznie może zdestabilizować obecny, bazujący na broni jądrowej system bezpieczeństwa – i można pomyśleć, że tego właśnie przede wszystkim obawiają się autorzy listu.

Jeśli jesteście zainteresowani jego podpisaniem, zapraszamy na stronę Future of Life Institute.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.