Orožje strojnega učenja proti ISIS-u bo zapletlo vojaške verige poveljstva

$config[ads_kvadrat] not found

Veriga Lesce - Presentation Video

Veriga Lesce - Presentation Video
Anonim

Vsi na internetu so se dobro zabavali s Tayom, Microsoftovim robotom Twitterja, ki je v nekaj urah postal rasistični holokavst (potem se je vrnil in to spet naredil). Podjetje je ustvarilo zavihek za odnose z javnostmi - več incidentov kot katastrofa -, medtem ko je javnosti dalo predmetno lekcijo o prednostih in slabostih strojnega učenja: avtomatizacija lahko izkoristi vzorce na fascinanten učinek s hitrostjo, vendar bodo rezultati predvidljivo težko napovedati.

Kot se pogosto dogaja, je vojska zgodaj sprejela tehnologijo avtomatizacije. To je - nekoč - vodil naboj proti strojnemu učenju in se obupno skušal držati korak. Eno glavnih področij, na katerih se osredotoča Pentagon, so avtonomni roboti in kako se bodo združili z ljudmi - na primer robotom v stilu R2D2. Toda ta teden je namestnik ministra za obrambo Robert Work predstavil še eno nalogo za A.I.: odprtokodne podatke.

»Popolnoma smo prepričani, da nam bo uporaba strojev za globoko učenje omogočila boljše razumevanje ISIL-a kot omrežja in boljše razumevanje, kako ga natančno usmeriti in povzročiti njegov poraz,« je dejal sekretar. Spletna stran Ministrstva za obrambo. V skladu s tem računom je delo, ki je govoril na dogodku, ki ga je organiziral Washington Post, je imel svojo epifanijo, medtem ko je gledal tehnološko podjetje iz Silicijske doline, ki je pokazalo »stroj, ki je zbiral podatke iz Twitterja, Instagrama in mnogih drugih javnih virov, da bi prikazal streljanje julija 2014 Malaysia Airlines 17 v realnem času«.

Zasebna podjetja in organi kazenskega pregona že dolgo poskušajo razumeti "velike podatke". Toda vojska ima prednost: vir. Prav tako imajo dostop do tajnih gradiv.

Zdi se, da je ameriška vlada pripravljena staviti, da lahko programski algoritmi razvrstijo ogromno količino podatkov, da bi prepoznali cilje ISIS, ki bi jim sicer izginili, in odkrili in prekinili parcele, preden jih načrtovalci lahko izvedejo. Vlada že poskuša preučiti družbene medije, da bi napovedala obseg spletnih protestov. Ni dvoma, da bo strojno učenje dajalo inteligentnim analitikom večjo moč, da bodo razumeli bogastvo razpoložljivih informacij v svetu. Toda ko ta inteligenca postane podlaga, na kateri se izvede smrtna stavka, postanejo etična vprašanja bolj zapletena, čeprav se zdi preprosta.

Čeprav je delo hitro pokazalo, da Pentagon ne bo »prenesel smrtne avtoritete na stroj«, kar je še vedno končna igra. V tem času bodo ljudje ostali »v zanki«, kot pravi žargon. Ker pa vsakdo, ki je gledal iPhone za vremensko poročilo, ko stoji zraven okna, ve, odnosi z našimi napravami in programsko opremo niso preprosti. Problematično verodostojno in zlahka zmedeno pri vprašanjih uporabniškega vmesnika.

»Avtomatska pristranskost«, težnja, da se ljudje odložijo na stroje, predstavlja jasno in vse bolj prisotno nevarnost. Primer za ponazoritev tega pojava je, ko vam telefon pove, da morate potovati po poti, za katero veste, da je narobe, vendar to storite vseeno, ob predpostavki, da mora telefon vedeti nekaj, česar ne. To je pogost problem v nevojaških kontekstih. Kljub temu pa se zdi, da se Pentagon približuje tudi temu poročilu o nevarnosti, ki ga sestavlja umetna inteligenca. Ne vemo ničesar o potencialni učinkovitosti tega programa, razen da bo človeku težko uresničiti.

V dokumentu iz leta 2001, ki obravnava študente in poklicne pilote in pristranskost avtomatizacije, so raziskovalci ugotovili, da so »v scenarijih, v katerih so bile na voljo pravilne informacije za navzkrižno preverjanje in odkrivanje avtomatiziranih anomalij, stopnje napak približno 55%, dokumentirane v obeh populacijah«. da dodajanje dodatnega človeškega partnerja ni ublažilo problema.

Podobno je študija MIT iz lanskega leta nekoliko zaskrbljujoče ugotovila, da so imeli igralci na računalnikih in video igrah »večjo nagnjenost k avtomatizaciji previsokih cen«. Še enkrat, problem ni v sistemih, ki jih uporabljamo, ampak z načinom njihove uporabe. Napaka ni v naših zvezdah, ampak v nas samih.

Veliki podatki ostajajo obetavni. Strojno učenje ostaja obetavno. Toda, ko stroje svetujejo človeku, so rezultati predvidljivo nepredvidljivi. Ali preobrazba Taya v neonacistično mizoginijo pomeni, da Twitter sovraži Judje in ženske? Težko je vedeti, a precej malo verjetno. Ko ne razumemo procesa, kako vhodi postanejo izhodi, se trudimo, da bi rezultate reševali na racionalen način. Kar postavlja Pentagon na zanimiv položaj. Ali bodo ljudje, ki programirajo programsko opremo za strojno učenje, tisti, ki bodo naročali zračne napade? Tako ne deluje veriga poveljevanja, vendar se verige poveljejo, ko se tehnologija vključi.

$config[ads_kvadrat] not found