1. Idi na sadržaj
  2. Pređi na glavni meni
  3. Idi na ostale ponude DW

Još nema Terminatora, ali će ih biti

Fabijan Šmit5. avgust 2015.

Prevrće mi se stomak od pomisli da se mašini prepusti moralno pitanje o kojem sada odlučuje vojnik – da se nekome oduzme život, kaže za DW profesor Bernhard Šelkopf sa Instituta Maks Plank za inteligentne sisteme.

https://p.dw.com/p/1G9Tf
Symbolbild - Kampfroboter Talon Sword
Foto: picture-alliance/dpa/D. Herrick

DW: Potpisali ste otvoreno pismo Instituta „Future of Life“ koje je prošle sedmice predstavljeno na zasedanju u Buenos Airesu. Tu zahtevate da se razvoj veštačke inteligencije koncentriše na rešavanje društvenih problema, ali i upozoravate na opasnost da mašine autonomno vode ratove. Šta poručujete ovim pismom?

Bernhard Šelkopf: Bavim se mašinskim učenjem. To je važna komponenta onoga što se danas dešava na polju veštačke inteligencije. Radi se o tome da se sistemi putem podataka istreniraju da obavljaju određene zadatke ili prepoznaju stvari i lica. Sve to u principu može da se upotrebi u vojne svrhe. To je realna opasnost dobro opisana u pismu. Kada sam ga pročitao, pomislio sam: „Ovo ću potpisati, iza ovoga stojim.“ Mora biti javno poznato šta sve može veštačka inteligencija kako bi to bilo predmet diskusije, a ne samo istraživanja uskog kruga naučnika i inženjera.

Koliko smo blizu mogućnosti da robot donese odluku da ubije čoveka?

Svako malo se pokreću debate o tome da smo navodno sasvim blizu toga da stvorimo veštačku inteligenciju koja bi bila uporediva sa ljudskom. Mislim da smo daleko od toga. Ali ograničene zadatke – koji su omogućeni ubacivanjem velike količine podataka – roboti već mogu da obave jednako dobro kao i ljudi. Recimo prepoznavanje lica: Fejsbukovi sistemi to već mogu. Istom tehnikom bi se mogli rešiti i vojni izazovi.

Dakle objasnite robotu kakvu uniformu koriste neprijatelji, a onda robot puca na njih?

Trenutno je mnogo lakše naučiti robota da prepozna lice nego da se popne uz stepenice bez da se saplete! Nećemo uskoro imati robote poput Terminatora, koji trče kroz kuće. Ali mali helikopteri ili dronovi mogu lako da se kontrolišu. Oni se mogu opremiti sistemom kamera koje nešto prepoznaju, a svakako i nekakvim oružjem kako bi pucali. To je moguće imati u narednih deset godina. Verovatno se na tome već radi.

Deutschland Professor Bernhard Schölkopf
Prof. Bernhard ŠelkopfFoto: Max-Planck-Institut für biologische Kybernetik

Može se reći da postoje već rudimentarna inteligentna oružja. To počinje sa nagaznom minom ili automatskim sistemima za paljbu povezanim sa senzorima. Ali gde počinje prava veštačka inteligencija?

Većina bi rekla da veštačku inteligenciju čine opažanje i delanje, kao i nešto zahtevnija računska operacija između njih. Kod termostata, koji reguliše temperaturu u sobi, verovatno još ne bismo govorili o veštačkoj inteligenciji. Kod automatskih sistema za paljbu takođe – to jeste jednostavna vrsta robota, ali nema veštačku inteligenciju. Granice su nejasne. Interesantno je pitanje ko donosi odluku da se ubije. Kod nagazne mine odluku donosi onaj ko je pravi ili onaj ko je postavlja na određeno mesto. Taj ili ti su onda i moralno odgovorni ako se nešto dogodi.

Već danas postoje inteligentni raketni sistemi za odbranu koji reaguju na neprijateljske projektile brže nego što čovek može shvatiti šta se dešava i stisnuti dugme. Međutim, tu se dešavaju i greške – kao kada je sa američkog broda ispaljen projektil koji je oborio iranski putnički avion, zamenivši ga sa projektilom. Nije li onda veštačka inteligencija – pa makar i manjkava – već odavno realnost?

Da, može se reći. Primer koji ste naveli je upečatljiv, a verovatno će uskoro biti još takvih primera. To se ne odnosi samo na vođenje rata, nego i na autonomnu vožnju. Što više takvih sistema bude na ulicama, imaćemo više saobraćajnih udesa u kojima oni učestvuju. Uzmimo recimo da računar u automobilu prepozna dete koje pretrčava ulicu: kako bi zaštitio dete, on skreće u suprotnu traku i sudara se sa drugim automobilom. To je teška situacija: kada se dešava ljudima, navikli smo da to objasnimo time što naše odluke i reakcije nisu perfektne. Ali kada to čini automatski sistem, moraćemo da se suočimo sa time da i te naprave čine pogrešne izbore.

Zar ne bi moglo da se kaže da mašine ipak manje greše od ljudi? Dodajmo prethodnom primeru recimo obaranje južnokorejskog putničkog aviona iznad Rusije osamdesetih, kada je pogrešnu odluku doneo čovek. Sa druge strane, izraelski raketni sistem „Gvozdena kupola“ spasao je mnogo ljudskih života.

Kod automobila je samo pitanje vremena kada će automatski sistemi svakako važiti za sigurnije od ljudi. Kod naoružanja će možda takođe jednom biti napredniji, bolje praviti razlike između vojnika i civila. Ali između saobraćaja i vojske postoji temeljna razlika: u vojnim pitanjima u određenim okolnostima pokušavate da nekome namerno nanesete štetu – možda da ubijete čoveka. Prevrće mi se stomak od pomisli da se mašini prepusti takvo moralno pitanje o kojem sada odlučuje vojnik. Možda je i to stvar navike, ali za mene je tako nešto sada nezamislivo. Teško je predvideti kako bi se razvijalo vođenje rata ukoliko bi neke zemlje raspolagale takvim inteligentnim robotima, a druge ne. Da li se onda roboti jedne strane bore protiv ljudi druge strane? Da li onda pada prag za odluku da se uopšte krene u rat? Mislim da je to igranje sa vatrom. Ne želim da tvrdim da znam šta dolazi, ali sam se priključio upozorenju da treba razmisliti o tome.

U pismu upozoravate da ne treba voditi trku za naoružavanjem inteligentnim sistemima. Imate li neka saznanja da se radi na ovakvom oružju?

U Nemačkoj postoji distanca između civilnog i vojnog istraživanja. Većina ovdašnjih kolega verovatno ne bi rado uzela novac od vojske da radi na ovom polju. Mislim da su granice u Americi drugačije postavljene. Mnogo novca u istraživanje dolazi od Defence Andvanced Research Projects Agency. Tu se ne stvaraju direktno naprave za vojsku, ali potencijalno mogu da se razviju u tom pravcu. Recimo ja ne poznajem kolege istraživače koji na primer prave bespilotnu letelicu koja bi prepoznavala vojnike i pucala na njih. Ali je tako nešto teoretski moguće. Držim da je veoma verovatno da pojedini istraživački krugovi već rade na ovakvom oružju, samo se o tome ništa ne objavljuje.

*Profesor Bernhard Šelkopf vodi odeljenje empirijske interferencije na Institutu Maks Plank za inteligentne sisteme u Tibingenu. Njegovo glavno polje istraživanja je „učenje“ mašina kroz empirijske podatke.