Ultimate magazine theme for WordPress.

UN ne uspijevaju dogovoriti zabranu ‘robota ubice’ dok nacije ulažu milijarde u istraživanje autonomnog oružja

0

<span class="natpis">Humanitarne grupe pozivaju na zabranu autonomnog oružja.</span> <span class="atribucija"><a class=Wolfgang Kumm/savez za slike preko Getty Images” data-src=”https://s.yimg.com/ny/api/res/1.2/q.NrXXp0PqoThuuPnl.j3A–/YXBwaWQ9aGlnaGxhbmRlcjt3PTcwNTtoPTUxNw–/https://s.yimg.com/uu/api/res/1.2/NMz4JT.pMfYEC03SeqtCGg–~B/aD0xMDU2O3c9MTQ0MDthcHBpZD15dGFjaHlvbg–/https://media.zenfs.com/en/the_conversation_us_articles_815/801da24c9eee94ee2293233713d74474″ data-src=”https://s.yimg.com/ny/api/res/1.2/q.NrXXp0PqoThuuPnl.j3A–/YXBwaWQ9aGlnaGxhbmRlcjt3PTcwNTtoPTUxNw–/https://s.yimg.com/uu/api/res/1.2/NMz4JT.pMfYEC03SeqtCGg–~B/aD0xMDU2O3c9MTQ0MDthcHBpZD15dGFjaHlvbg–/https://media.zenfs.com/en/the_conversation_us_articles_815/801da24c9eee94ee2293233713d74474″/>

Autonomni sistemi oružja – poznatiji kao roboti ubice – možda su prošle godine prvi put ubili ljudska bića, prema nedavnom izvještaju Vijeća sigurnosti Ujedinjenih naroda o građanskom ratu u Libiji. Istorija bi ovo mogla identificirati kao početnu tačku sljedeće velike trke u naoružanju, one koja ima potencijal da bude konačna za čovječanstvo.

Konvencija Ujedinjenih nacija o određenom konvencionalnom oružju raspravljala je o pitanju zabrane autonomnog oružja na svom preglednom sastanku jednom svakih pet godina u Ženevi od 13. do 17. decembra 2021., ali nije postigla konsenzus o zabrani. Osnovana 1983. godine, konvencija se redovno ažurira kako bi ograničila neka od najokrutnijih konvencionalnih oružja na svijetu, uključujući nagazne mine, mine za zamke i zapaljivo oružje.

Autonomni sistemi oružja su roboti sa smrtonosnim oružjem koji mogu djelovati neovisno, birajući i napadajući mete, a da čovjek ne vaga u tim odlukama. Vojske širom svijeta ulažu velika sredstva u istraživanje i razvoj autonomnog oružja. Samo su SAD izdvojile 18 milijardi američkih dolara za autonomno oružje između 2016. i 2020. godine.

U međuvremenu, organizacije za ljudska prava i humanitarne organizacije se utrkuju u uspostavljanju propisa i zabrana razvoja takvog oružja. Bez takvih provjera, stručnjaci za vanjsku politiku upozoravaju da će disruptivne tehnologije autonomnog oružja opasno destabilizirati postojeće nuklearne strategije, kako zbog toga što bi mogle radikalno promijeniti percepciju strateške dominacije, povećavajući rizik od preventivnih napada, tako i zbog toga što bi se mogle kombinirati s kemijskim, biološkim, radiološkim i samog nuklearnog oružja.

Kao specijalista za ljudska prava s fokusom na naoružavanje umjetne inteligencije, smatram da autonomno oružje čini nestabilnu ravnotežu i fragmentirane zaštitne mjere nuklearnog svijeta – na primjer, minimalno ograničeno ovlaštenje predsjednika SAD-a da pokrene napad – nestabilnijim i fragmentiranije. S obzirom na tempo istraživanja i razvoja autonomnog oružja, sastanak UN-a bi mogao biti posljednja prilika da se zaustavi trka u naoružanju.

Smrtonosne greške i crne kutije

Vidim četiri osnovne opasnosti sa autonomnim oružjem. Prvi je problem pogrešne identifikacije. Prilikom odabira mete, hoće li autonomno oružje moći razlikovati neprijateljske vojnike od 12-godišnjaka koji se igraju s oružjem? Između civila koji bježe sa mjesta sukoba i pobunjenika koji se taktički povlače?

Problem ovdje nije u tome što će mašine praviti takve greške, a ljudi neće. Radi se o tome da je razlika između ljudske greške i algoritamske greške kao razlika između slanja pisma i tvitanja. Razmjer, opseg i brzina robotskih sistema ubojica – kojima vlada jedan algoritam ciljanja, raspoređeni na cijelom kontinentu – mogli bi učiniti da pogrešne identifikacije od strane pojedinačnih ljudi, poput nedavnog američkog udara dronom u Afganistanu, izgledaju kao puke greške zaokruživanja u poređenju.

Stručnjak za autonomno oružje Paul Scharre koristi metaforu odbjeglog pištolja da objasni razliku. Runaway gun je neispravan mitraljez koji nastavlja pucati nakon otpuštanja okidača. Pištolj nastavlja da puca sve dok se municija ne potroši jer, da tako kažem, pištolj ne zna da pravi grešku. Odbjegli pištolji su izuzetno opasni, ali na sreću imaju ljudske operatere koji mogu prekinuti vezu za municiju ili pokušati usmjeriti oružje u sigurnom smjeru. Autonomno oružje, po definiciji, nema takvu zaštitu.

Ono što je važno, naoružana umjetna inteligencija ne mora čak ni biti defektna da bi proizvela efekat odbjeglog pištolja. Kao što je pokazalo više studija o algoritamskim greškama u različitim industrijama, najbolji algoritmi – koji rade onako kako su dizajnirani – mogu generirati interno ispravne rezultate koji ipak brzo šire užasne greške među populacijama.

Na primjer, neuronska mreža dizajnirana za upotrebu u bolnicama u Pittsburghu identificirala je astmu kao smanjenje rizika u slučajevima upale pluća; softver za prepoznavanje slika koji koristi Google identificirao je crnce kao gorile; i alat za mašinsko učenje koji koristi Amazon za rangiranje kandidata za posao sistematski je dodeljivao negativne ocene ženama.

Problem nije samo u tome što kada sistemi veštačke inteligencije greše, oni greše masovno. Radi se o tome da kada pogriješe, njihovi tvorci često ne znaju zašto su učinili i, stoga, kako ih ispraviti. Problem crne kutije AI čini gotovo nemogućim zamisliti moralno odgovoran razvoj autonomnih sistema naoružanja.

Problemi proliferacije

Sljedeće dvije opasnosti su problemi niske i visoke proliferacije. Počnimo s niskim krajem. Vojske koje sada razvijaju autonomno oružje nastavljaju sa pretpostavkom da će moći da obuzdaju i kontrolišu upotrebu autonomnog oružja. Ali ako je historija tehnologije oružja naučila svijet nečemu, onda je to sljedeće: oružje se širi.

Tržišni pritisci mogli bi rezultirati stvaranjem i rasprostranjenom prodajom onoga što se može smatrati autonomnim oružjem ekvivalentom jurišnoj pušci Kalašnjikov: roboti ubice koji su jeftini, efikasni i gotovo ih je nemoguće zadržati dok kruže širom svijeta. Autonomno oružje “kalašnjikov” moglo bi doći u ruke ljudi izvan kontrole vlade, uključujući međunarodne i domaće teroriste.

Pogled sprijeda na kvadrokopter s kamerom

Međutim, proliferacija visoke klase je jednako loša. Nacije bi se mogle natjecati u razvoju sve razornijih verzija autonomnog oružja, uključujući i one sposobne za postavljanje hemijskog, biološkog, radiološkog i nuklearnog oružja. Moralne opasnosti od eskalacije smrtonosnosti oružja bile bi pojačane eskalacijom upotrebe oružja.

Vrhunsko autonomno oružje će vjerovatno dovesti do češćih ratova jer će smanjiti dvije primarne sile koje su historijski spriječile i skratile ratove: brigu za civile u inostranstvu i brigu za vlastite vojnike. Oružje će vjerovatno biti opremljeno skupim etičkim guvernerima dizajniranim da minimiziraju kolateralnu štetu, koristeći ono što je specijalna izvjestiteljica UN-a Agnes Callamar nazvala “mitom o hirurškom udaru” kako bi se ugušili moralni protesti. Autonomno oružje će također smanjiti i potrebu i rizik za vlastite vojnike, dramatično mijenjajući analizu troškova i koristi kojoj se nacije podvrgavaju prilikom pokretanja i održavanja ratova.

Asimetrični ratovi – odnosno ratovi koji se vode na tlu nacija kojima nedostaje konkurentska tehnologija – vjerovatno će postati češći. Razmislite o globalnoj nestabilnosti uzrokovanoj sovjetskim i američkim vojnim intervencijama tokom Hladnog rata, od prvog proxy rata do povratnog udara koji je doživio širom svijeta danas. Pomnožite to sa svakom zemljom koja trenutno cilja na vrhunsko autonomno oružje.

Podrivanje zakona rata

Konačno, autonomno oružje će potkopati konačnu zaustavnicu čovječanstva protiv ratnih zločina i zvjerstava: međunarodno pravo rata. Ovi zakoni, kodificirani u ugovorima koji sežu još do Ženevske konvencije iz 1864. godine, međunarodna su tanka plava linija koja dijeli rat časti od masakra. Oni su zasnovani na ideji da se ljudi mogu smatrati odgovornim za svoje postupke čak i tokom rata, da pravo na ubijanje drugih vojnika tokom borbe ne daje pravo na ubijanje civila. Istaknuti primjer nekoga ko je pozvan na odgovornost je Slobodan Milošević, bivši predsjednik Savezne Republike Jugoslavije, kojeg je Međunarodni krivični sud UN-a za bivšu Jugoslaviju optužio za zločine protiv čovječnosti i ratne zločine.

[Get our best science, health and technology stories. Sign up for The Conversation’s science newsletter.]

Ali kako se autonomno oružje može smatrati odgovornim? Ko je kriv za robota koji čini ratne zločine? Kome bi se sudilo? Oružje? Vojnik? Vojnički komandanti? Korporacija koja je napravila oružje? Nevladine organizacije i stručnjaci za međunarodno pravo zabrinuti su da će autonomno oružje dovesti do ozbiljnog jaza u odgovornosti.

Da bi se vojnik smatrao krivično odgovornim za korištenje autonomnog oružja koje čini ratne zločine, tužioci bi morali dokazati i actus reus i mens rea, latinske termine koji opisuju krivo djelo i um koji je kriv. To bi bilo teško pravno, a možda i nepravedno što se tiče morala, s obzirom da je autonomno oružje inherentno nepredvidivo. Vjerujem da je udaljenost koja dijeli vojnika od neovisnih odluka koje donosi autonomno oružje u okruženjima koja se brzo razvijaju jednostavno prevelika.

Pravni i moralni izazov nije olakšan prebacivanjem krivice na lanac komande ili nazad na mjesto proizvodnje. U svijetu bez propisa koji nalažu značajnu ljudsku kontrolu nad autonomnim oružjem, postojat će ratni zločini bez ratnih zločinaca za koje treba odgovarati. Struktura zakona rata, zajedno sa njihovom vrijednošću odvraćanja, bit će značajno oslabljena.

Nova globalna trka u naoružanju

Zamislite svijet u kojem vojske, pobunjeničke grupe i međunarodni i domaći teroristi mogu rasporediti teoretski neograničenu smrtonosnu silu uz teoretski nula rizika u vrijeme i na mjestima po svom izboru, bez rezultirajuće pravne odgovornosti. To je svijet u kojem vrsta neizbježnih algoritamskih grešaka koje muče čak i tehnološke gigante poput Amazona i Googlea sada može dovesti do eliminacije cijelih gradova.

[Over 140,000 readers rely on The Conversation’s newsletters to understand the world. Sign up today.]

Po mom mišljenju, svijet ne bi trebao ponoviti katastrofalne greške trke u nuklearnom naoružanju. Ne bi trebalo da meseča uđe u distopiju.

Ovo je ažurirana verzija članka prvobitno objavljenog 29. septembra 2021.

Ovaj članak je ponovo objavljen sa The Conversation, neprofitne vijesti posvećene razmjeni ideja akademskih stručnjaka. Napisao je: James Dawes, Macalester College.

Čitaj više:

James Dawes ne radi za, ne konsultuje se, ne posjeduje dionice niti prima sredstva od bilo koje kompanije ili organizacije koja bi imala koristi od ovog članka, i nije otkrio nikakve relevantne veze osim njihovog akademskog imenovanja.


Izvor: news.yahoo.com


Pratite nas na Facebook-u | Twitter-u | YouTube-u