Ali bodo avtonomna orožja rekla "ne" nezakonitim naročilom?

$config[ads_kvadrat] not found

Чи працює чудо антена? HQClear TV. 1000 цифрових каналів. HD TV DIGITAL

Чи працює чудо антена? HQClear TV. 1000 цифрових каналів. HD TV DIGITAL
Anonim

Baynazar Mohammad Nazar je bil na operacijski mizi nezavesten, ko se je na njega začel zrušiti strop. Oče štirih otrok se je prejšnji dan v bolnišnico vpisal, potem ko je bil ustreljen v nogo, in je v dveh dneh opravil drugo operacijo, da bi popravil poškodbo. Ko so Američani začeli uničevati stavbo, zdravniki, ki so delali na njem, niso imeli druge izbire, kot da bi pobegnili sami, kakor hitro bi lahko.

Andrew Quilty na Zunanja politika pripoveduje zgodbo o Baynazarjevem življenju in smrti v članku, ki vključuje fotografijo njegovega telesa, prekritega z razbitinami na operacijski mizi. Baynazar je bil eden od 31 ljudi, ki so jih Združene države Amerike ubile, ko je 2. oktobra v Kunduzu v Afganistanu udaril v bolnišnico, ki so jo vodili zdravniki brez meja (imenovana tudi MSF).

Po zelo odmevnih stavkah civilistov, politiki in učenci sprašujejo, kako se lahko to zgodi, in kaj je mogoče storiti, da se to ne bo ponovilo. Med zagovorniki avtonomnih sistemov orožja, ki se včasih imenujejo "roboti ubijalci", je eden od priljubljenih argumentov, da je človeška napaka (ali zloba) odgovorna za veliko stopnjo zločinov, storjenih med vojno. Teoretično je mogoče, pravijo, da so roboti lahko natančnejši pri svojem usmerjanju in manj nagnjeni k napakam kot ljudje.

"Pravzaprav lahko človeška presoja dokaže, da so manj zanesljivi od tehničnih kazalcev v bitki," piše Michael N. Schmitt, profesor na ameriški pomorski vojni akademiji. "Tisti, ki verjamejo drugače, niso doživeli megle vojne."

Letalski napad ZDA na bolnišnico MSF v Afganistanu, "ki ga je povzročila predvsem človeška napaka" http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- Telegraph News (@TelegraphNews) 25. november 2015

Vprašanje je torej: ali lahko programirate vojna orodja, da bi omejili človeško obnašanje, da bi stavke, kot je bolnišnica v Kunduzu, nemogoče ali vsaj manj verjetno?

Verjetno ne - vsaj v bližnji prihodnosti. Toda nekateri programerji umetne inteligence so izdelali robota, ki lahko ljudem reče ne. Načrt preizkusa je preprost: človek pove robotu, naj gre naprej z mize, ki jo robot na začetku zavrne. Ko človek pove robotu, da ga bo ujel, robot sprejme naročilo.

To je daleč od polavtonomnega helikopterja za napad, ki človeški posadki pove, da ne more izvesti letalskega napada na bolnišnico, ker bi bil to vojni zločin, ampak osnovna predpostavka je večinoma ista. Kot so poudarili drugi, je človeška zaskrbljenost zaradi te vrste razvoja v robotih pogosta v znanstveni fantastiki - mislim, da HAL-9000 pravi: "Ne morem, Dave", ko zaklene človeka zunaj vesoljske postaje v 2001: Odiseja v vesolju.

Kar zadeva posebnosti stavke Kunduz, ostajajo številna dejstva o napadu sporna. MSF je zahteval neodvisno preiskavo, ki ji vlada Združenih držav nasprotuje, namesto da obljublja, da bo izvedla svoje lastne preglede.

Nekateri deli ene ameriške preiskave so bili objavljeni v začetku tega meseca in ugotovili, da so za stavko odgovorne človeške in mehanske napake. Toda v začetku tega tedna sta se predstavila dva člana službe, ki sta v nasprotju z ugotovitvami poročila. Pravijo, da stavka ni bila napaka. V svojem računovodstvu, ki ga je prvi poročala AP Združene sile za posebne operacije so v stavko poklicale, ker se je bolnišnica uporabljala kot talibanski center za poveljevanje in nadzor.

V uradni različici je mehanska odpoved povzročila, da je posadka topov AC-130 sprva dobila koordinate za prazno polje. Posadka je nato iskala zgradbo na območju, ki ustreza fizičnemu opisu, ki so ga dobili, in odprla ogenj. Ko so se njihovi instrumenti ponovno umerili, so posadki dali pravilne koordinate za svojo tarčo, vendar je posadka vseeno še naprej streljala po bolnišnici.

Če je ta podatek resničen - da je bil računalnik dokončno točen in da so ga ljudje ignorirali - daje nekaj zaupanja zagovornikom večje avtonomije v orožnih sistemih. Vendar je ameriška vojna proti terorizmu obremenjena s primeri, da je vojska ali CIA dosegla "pravo" tarčo in je še vedno ubila veliko število civilistov. Avtomatizacija ne bo rešila slabe inteligence in poskusi programiranja približevanja morale ne bodo končali vojnih zločinov.

V Združenih državah je močna skušnjava, da bi sterilizirali vojno in avtomatizacijo, tako da bi Američane odstranili iz škodljivega načina, ki je namenjen spreminjanju same definicije vojne. Prednost Obame za ubijanje dronov in spremljajoča zagotovila, da so droni najbolj natančno orožje, ki je bilo kdaj ustvarjeno, so najjasnejša manifestacija teh ciljev. "Bili so natančni, natančni udari proti Al Kaidi in njihovim podružnicam," je dejal Obama v družbi Google 2012.

Vendar pa študija vlade iz leta 2013 nasprotuje navedenim trditvam. Ugotovili so, da so brezpilotni zrakoplovi v Afganistanu povzročili 10-krat več smrtnih žrtev kot brez posadke. "Droni niso čudežno boljši, če se izogibajo civilistom kot borec," je povedala Sarah Holewinski, soavtorka študije. Skrbnik. "Ko so piloti, ki so leteli z letali, dobili jasne smernice in usposabljanje o civilni zaščiti, so lahko znižali število civilnih žrtv."

Vojska porabi milijone za razvoj sistemov za timsko delo med ljudmi in roboti, kar še dodatno zabriše meje med misijami, ki jih izvajajo orožje s posadko ali brez njega. "Kar želimo narediti v boju proti človeku in stroju, je, da se premaknemo na naslednjo stopnjo, da pogledamo stvari, kot so taktike rojevanja," je na uradnem blogu o znanosti DoD dejal namestnik obrambnega sekretarja Bob Work. "Ali lahko F-35 gredo v boj s štirimi osebami brez osebja?"

Ali bodo ti krilci rekli ne, če jim bo človeški pilot dal ukaz, ki je podoben hodu z mize? Kaj pa ukaz o uničenju bolnišnice ali šole? V obeh primerih se bo uporabljala megla vojne. In če se odločimo za preglasitev strojev, bo izraz »človeška napaka« eden izmed bolj zastrašujočih izrazov v konfliktih prihodnosti.

$config[ads_kvadrat] not found