1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

ONZ: Brak porozumienia ws. robotów zabójców

1 września 2018

Uczestnikom konferencji ONZ w Genewie nie udało się wypracować porozumienia ws. przepisów regulujących użycie lub zakaz użycia autonomicznych systemów uzbrojenia.

https://p.dw.com/p/348Rr
Siedziba ONZ w Genewie
Siedziba ONZ w GenewieZdjęcie: picture-alliance/imagebroker/G. Fischer

Jak informuje niemiecka agencja prasowa DPA, uczestnikom konferencji ONZ w Genewie ws. przepisów dotyczących kontroli i ograniczenia autonomicznych systemów uzgrojenia nie udało się wypracować jednolitego stanowiska w tej sprawie. Tygodniowe obrady z udziałem ekspertów ds. rozbrojenia z ponad 70 państw oraz zaproszonych naukowców i przedstawicieli organizacji pozarządowych nie przyniosły żadnych zauważalnych wyników. Większość uczestników tej konferencji, zorganizowanej w ramach Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych, opowiedziała się wprawdzie za wprowadzeniem nowego, międzynarodowego prawodawstwa ws. broni autonomicznych, zwanych popularnie robotami zabójcami, ale mała grupa państw przodujących w wytwarzaniu broni autonomicznych była temu przeciwna i ich głos ostatecznie przeważył. Było to możliwe dlatego, że decyzje podejmowane w ramach wspomnianej wyżej konwencji ONZ muszą być podejmowane jednomyślnie.

Bronie autonomiczne, czyli nowy wymiar wojny

Bronie autonomiczne wyposażone są w sztuczną inteligencję, dzięki której mogą zmieniać działanie w zależności od sytuacji i samodzielnie podejmować decyzje ws. wyboru i zaatakowania celu, który może w ten sposób zostać zniszczony. Do ich rozwoju przyczynił się postęp w dziedzinie algorytmów, robotyki i wspomnianej wyżej sztucznej inteligencji. Takimi broniami mogą być coraz bardziej popularne drony, ale także czołgi, wyrzutnie rakiet, a nawet bezzałogowe samoloty i okręty wojenne.

Nowy amerykański dron rozpoznawczy
Nowy amerykański dron rozpoznawczyZdjęcie: Reuters/U.S. Marine Corps

Najnowsze modele autonomicznych systemów uzbrojenia mogą ze sobą współpracować na polu walki i nie wymagają kontroli ani poleceń ze strony człowieka. Możliwe jest na przykład użycie komunikujących się ze sobą dronów, które atakują cel tak jak rój os. Przemysł zbrojeniowy najsilniejszych państw świata opowiada się za stałym zwiększaniem stopnia samodzielności działania różnych systemów uzbrojenia, ponieważ stają się one przez to coraz bardziej skuteczne, szybsze i bezpieczniejsze dla żołnierzy, którzy je obsługują względnie z nimi współdziałają.

Potrzebne jest nowe prawo, ale nie ma na nie zgody

W tej chwili użycie dostępnych już broni autonomicznych, ze wspomnianymi wyżej uzbrojonymi dronami na czele, przebiega często w szarej strefie prawnej. Dron może samodzielnie podjąć decyzję o zaatakowaniu wykrytego przez siebie celu, głównie rakietami, ale teoretycznie pozostaje przez cały okres lotu pod kontrolą pilota operatora. Do tej pory nie doszło jednak jeszcze do użycia broni w pełni autonomicznych, to jest samodzielnie podejmujących wszystkie decyzje i obywających się bez ingerencji człowieka. Społeczność międzynarodowa zgadza się w zasadzie co do tego, że również takie systemy uzbrojenia powinny podlegać jego kontroli i prawa międzynarodowego regulującego działania wojenne, ale do tej pory nie udało się wprowadzić żadnych przepisów w tej sprawie. Fiasko konferencji genewskiej wskazuje, że to nie będzie łatwe.

Uczestnicy międzynarodowej kampanii "Zatrzymać roboty zabójcy" są zdania, że użycie na większą skalę broni autonomicznych oznacza całkowicie nową jakość i nowy wymiar prowadzenia działań wojennych, które przeistoczą się w wojny robotów, znane do tej pory wyłącznie z literatury i filmów fantastyczno-naukowych. Obawiają się, że ponieważ dotychczasowe konwencje i inne porozumienia międzypaństwowe nie wspominają bezpośrednio o autonomicznych systemach uzbrojenia, państwa gotowe je zastosować nagną istniejące już przepisy tak, żeby stworzyć przynajmniej pozory legalności podjętych przez siebie działań.

Eksperci prawa międzynarodowego Międzynarodowego Czerwonego Krzyża idą dalej i argumentują, że w stosunku do broni w pełni autonomicznych z założenia nie może być mowy o ich kontrolowaniu przez ludzi, ponieważ działają one samodzielnie, a poza tym przeszkodą w sprawowaniu kontroli nad nimi są różnice w myśleniu i komunikowaniu się między człowiekiem i maszyną.

DW, dpa / pa