1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW

Konferencja w Genewie. Zakaz broni autonomicznych

Nina Werkhäuser
28 sierpnia 2018

W siedzibie ONZ w Genewie trwa pięciodniowa konferencja międzynarodowa nt. autonomicznych systemów uzbrojenia. Jej uczestnicy mają m.in. zająć stanowisko wobec robotów zabójców.

https://p.dw.com/p/33qhy
Zdjęcie: Imago/ITAR-TASS

Czy przyszłe wojny będą przypominać te, znane z takich filmów jak "Terminator"? Thomas Küchenmeister z zarządu niemieckiej organizacji "Facing Finance" uczestniczącej w międzynarodowej kampanii "Stop Killer Robots" mającej na celu wprowadzenie zakazu rozwijania autonomicznych robotów wojskowych uważa, że od strony technicznej już dziś jest to możliwe.

W konflikcie z prawem międzynarodowym

Zdaniem Küchenmeistera w przypadku robotów zabójców najważniejszy jest aspekt prawny i moralny, a nie techniczny. Będące już dziś w użyciu roboty, takie jak np. uzbrojone drony, nie powinny być wyposażone w systemy pozwalające im samodzielnie atakować i niszczyć wybrane cele. Narusza to bowiem podstawowe zasady prawa regulującego sposób prowadzenia wojny, które ma na celu złagodzenie jej okrucieństw i skutków oraz maksymalną ochronę ludności cywilnej.

Właśnie z tego względu Międzynarodowy Komitet Czerwonego Krzyża zdefiniował autonomiczne systemy uzbrojenia jako takie, które samodzielnie wyszukują cele i podejmują decyzję o ich zniszczeniu. Samodzielnie, to znaczy - bez ingerencji człowieka. Ale właśnie na tym polega główny problem. Co bowiem będzie, jeśli taki system zaatakuje ludność cywilną? - Przecież nie da się mu wszczepić mikroczipu z prawem międzynarodowym - zauważa sarkastycznie Thomas Küchenmeister.

Rola sztucznej inteligencji w przemyśle zbrojeniowym

Należy zatem jak najwcześniej zapobiec niekorzystnemu rozwojowi sytuacji. Tym bardziej, że rozwijane obecnie systemy uzbrojenia w stale rosnącym stopniu wykorzystują sztuczną inteligencję i najnowsze zdobycze robotyki. Nowe bronie coraz bardziej się usamodzielniają i zlewają z robotami zabójcami.

Takie drony mogą być groźną bronią
Takie drony mogą być groźną broniąZdjęcie: Imago/ITAR-TASS

Przemysł zbrojeniowy jest chyba największym zwolennikiem zastosowania sztucznej inteligencji na coraz większą skalę. Bronie inteligentne działają szybciej i skuteczniej i lepiej chronią obsługujących je żołnierzy. Właśnie tego żądają od producentów zamawiające je siły zbrojne na całym świecie. Z drugiej strony o ile robot saperski, samodzielnie wyszukujący i niszczący miny, nie budzi większych zastrzeżeń, to w przypadku robota zabójcy, który na własną rękę wyszukuje i eliminuje wybrane osoby sprawa wygląda inaczej, ponieważ taki robot występujący w roli sztucznego żołnierza powinien podlegać przepisom prawa międzynarodowego.

Trudne rokowania pod coraz większym naciskiem czasu

Na podstawowe pytanie, czy maszyny mogą być podmiotem takiego prawa, społeczność międzynarodowa od 2014 roku spiera się w siedzibie ONZ w Genewie w ramach Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych. Na początku w tej sprawie prowadzono rozmowy nieformalne, które w roku ubiegłym przybrały charakter rokowań formalnych. Uczestniczy w nich przeszło 70 państw, a obok nich eksperci i naukowcy oraz przedstawiciele organizacji pozarządowych.

Przedmiotem rozpoczętych w poniedziałek 27 sierpnia w Genewie pięciodniowych rozmów są autonomiczne zabójcze systemy uzbrojenia, znane także pod nazwą LAWS. Mogą nimi być roboty walczące ze sobą zamiast żołnierzy na polu walki albo uzbrojone drony samodzielnie wyszukujące i niszczące wybrane cele.

Ponieważ od strony technicznej nic już w zasadzie nie przeszkadza ich użyciu, na ustanowienie przepisów regulujących ich zastosowanie praktyczne nie zostało wiele czasu. Tymczasem społeczność międzynarodowa jest w tej sprawie podzielona na: przeciwników ich użycia, zwolenników i niezdecydowanych. W tym ostatnim przypadku chodzi o państwa, które najpierw chciałyby wypróbować drogę pośrednią polegającą na poddaniu robotów wojskowych ściślejszej kontroli ze strony człowieka. Za takim rozwiązaniem opowiadają się np. Niemcy i Francja.

Przeciwnikiem zakazania rozwijania robotów zabójców są państwa, które zainwestowały w nie wiele pieniędzy, takie jak USA, Izrael, Rosja i Wielka Brytania. Prezydent Rosji Władimir Putin we wrześniu ub. roku na spotkaniu z uczniami jednej ze szkół oświadczył jasno, że kto przoduje w rozwijaniu sztucznej inteligencji ten może zdobyć kontrolę nad światem. Rosja boi się, że w wyścigu zbrojeń z Zachodem może zostać pokonana przez państwa dysponujące bardziej zaawansowanymi technologiami.

Podczas ostatniej rundy rokowań genewskich w sprawie broni autonomicznych w kwietniu tego roku Stany Zjednoczone stanęły na stanowisku, że takie bronie, podobnie jak wszystkie bronie inteligentne, są bardziej humanitarne od tradycyjnych, ponieważ popełniają mniej błędów i pozwalają ograniczyć straty wśród ludności cywilnej. Delegacja amerykańska stanowczo domagała się zdjęcia z nich odium diabelskiego wynalazku, podkreślając ich zalety.

Czy autonomiczne systemy uzbrojenia powinny zostać zakazane?

Za takim rozwiązaniem opowiada się obecnie 26 państw. Ich stanowisko poparło ponadto przeszło 230 różnych organizacji i 3 tys. osób będących uznanymi ekspertami w różnych dziedzinach, które podpisały petycję w tej sprawie opracowaną przez amerykański instytut Future of Life. Jednym z sygnatariuszy tej petycji jest szef firmy Tesla Elon Musk, który - podobnie jak pozostali eksperci - zobowiązał się do niepopierania rozwijania takich systemów uzbrojenia i zażądał wprowadzenia ostrych norm i praw międzynarodowych zabraniających produkcji i użycia robotów zabójców. Nikt nie ma scedować na maszynę prawa pozwalającego jej zabić człowieka - twierdzą przeciwnicy broni autonomicznych.

Brytyjski samolot bezzałogowy "Taranis"
Brytyjski samolot bezzałogowy "Taranis"Zdjęcie: picture-alliance/AP Photo/BAE Systems

W umowie koalicyjnej obecny rząd w Berlinie zobowiązał się do potępienia tego rodzaju broni, ale w rozmowach prowadzonych w Genewie zachowuje pozycję wyczekującą argumentując, że jasne opowiedzenie się za zakazem byłoby posunięciem niewłaściwym ze strony taktycznej. Różnice zdań w tej sprawie są bowiem w tej chwili zbyt duże.

Razem z Francją Niemcy zajęły stanowisko pośrednie. Oba kraje twierdzą, że najpierw należy skupić się na wypracowaniu deklaracji politycznej w sprawie broni autonomicznych, następnie ustanowić wojskowy kodeks postępowania a dopiero na końcu wprowadzić zakaz ich rozwijania i użycia. Takie działanie na raty, twierdzi strona niemiecka, daje większe szanse powodzenia. 

Aktywiści kampanii "Stop Killer Robots" nie podzielają takiego stanowiska. Ich zdaniem Niemcy, jako duże i ważne państwo europejskie, powinny objąć rolę prekursora i wystąpić otwarcie na rzecz wprowadzenia natychmiastowego zakazu rozwijania broni autonomicznych. Znany amerykański informatyk Stuart Russell, który od 35 lat prowadzi badania w zakresie sztucznej inteligencji, zwraca uwagę na czynnik czasu. Jeśli szybko nie wprowadzi się zakazu użycia robotów zabójców, to już wkrótce może być na to za późno. Przypomina, że niektóre armie eksperymentują z uzbrojonymi dronami atakującymi w roju, tak jak osy, a inne przygotowują systemy obronne przeciwko takiej taktyce, Jeśli rozmowy w Genewie zakończą się fiaskiem, to wtedy pozostaje tylko zmasowany sprzeciw społeczeństwa obywatelskiego. O tym że może on być skuteczny przypomina historia zakazu użycia min lądowych, który wprowadzono właśnie wskutek protestów ich przeciwników.