Skupni računalniški program napoveduje recidivizem kot slabo kot ljudje

$config[ads_kvadrat] not found

KI-NIH Collaborative Doctoral Program in Neuroscience

KI-NIH Collaborative Doctoral Program in Neuroscience
Anonim

Tako kot profesionalni kuhar ali srčni kirurg algoritem strojnega učenja je dober le toliko, kolikor ga prejme. In ker algoritmi vedno bolj prevzemajo vladavino in sprejemajo odločitve za ljudi, ugotovimo, da jih veliko ni prejelo najboljšega izobraževanja, saj posnemajo predsodke na podlagi človeške rase in spola ter celo ustvarjajo nove težave.

Zaradi teh razlogov je zlasti v zvezi s tem, da več držav, vključno s Kalifornijo, New Yorkom in Wisconsinom, uporablja algoritme za napovedovanje, kdo bo ponovno storil kazniva dejanja, potem ko so bili zaprti. Še huje, celo ne deluje.

V dokumentu, objavljenem v sredo v reviji Znanstveni napredki Dva računalniška znanstvenika na Dartmouth Collegeu sta ugotovila, da široko uporabljen računalniški program za napovedovanje recidivizma ni bolj natančen kot popolnoma neobučeni civilisti. Ta program, imenovan Popravljanje kaznivih dejanj za alternativne sankcije, analizira 137 različnih dejavnikov, da bi ugotovil, kako verjetno je, da bo oseba po izpustitvi storila nov zločin. COMPAS upošteva dejavnike, kot so uporaba snovi, socialna izolacija in drugi elementi, ki jih teoretiki kriminologov lahko vodijo v recidivizem, razvrščanje ljudi kot visoko, srednje ali nizko tveganje.

In prepričani, ocena tveganja zveni odlično. Zakaj ne bi imeli več podatkov, ki bi pomagali sodiščem določiti, kdo je večje tveganje? Toda Dartmouthovi računalniški znanstveniki Julia Dressel in Hany Farid so ugotovili, da netrenirani posamezniki pravilno ocenjujejo tveganje recidivizma s skoraj enako natančnostjo kot COMPAS, kar kaže, da domnevna moč algoritma dejansko ni tam.

V enem preskušanju, ki je vsebovalo le del informacij, ki jih je uporabil COMPAS (sedem dejavnikov namesto 137 in brez dirke), je skupina človeških prostovoljcev na internetu, domnevno brez usposabljanja o oceni tveganja, ocenila poročila o primerih. Pravilno so ocenili recidivizem osebe s 67-odstotno natančnostjo v primerjavi s 65-odstotno natančnostjo COMPAS-a.

Vzemite si trenutek in pustite, da se potopi. Neobrezani ljudje na spletu so bili nekoliko boljši pri napovedovanju, ali se bo oseba vrnila v zapor orodje, ki je dobesedno zasnovano za napovedovanje, ali bi se oseba vrnila v zapor. In postane še slabše. Ko dodate toženikove rase, so bile lažno pozitivne in lažno negativne stopnje prostovoljca znotraj le nekaj odstotnih točk COMPAS-a. Torej ne samo, da COMPAS ni tako velik pri napovedovanju recidivizma, ampak je prav tako nagnjen k rasni pristranskosti kot ljudje. Toliko o hladni logiki računalnikov.

Raziskovalci so nato izdelali linearni model, ki je ustrezal stopnji napovedi COMPAS z dvema dejavnikoma: starostjo in številom prejšnjih obsodb. Da bi bilo jasno, bi bila ta napoved tudi nepoštena, vendar kaže, da je COMPAS pomanjkljiv.

In medtem ko je ta raziskava nova, velike takeaways, ki jih zagovarja, niso. V preiskavi leta 2016 je ProPublica Poročevalci so ugotovili, da je COMPAS nezanesljiv, da je dejansko sistematično pristranski do afriških Američanov, pri čemer črne ljudi vedno bolj ocenjujejo kot večje tveganje kot belci, ki so storili hujše zločine. Upamo, da bo ta nova raziskava pomagala utreti pot za boljše postopke ocenjevanja tveganja v sistemu kazenskega pravosodja.

Dejstvo, da je COMPAS v najboljšem primeru neuporaben in v najslabšem primeru pristransko, kaže na to, da bi računalniške ocene tveganja lahko poglobile krivice, ki naj bi jih pravosodni sistem obravnaval.Ker se ocene tveganja lahko uporabijo v katerem koli koraku kazenskega pravosodnega postopka, vključno z določanjem osebne vezi, ugotavljanjem, ali so jim odobreni pogojni izpust, in v nekaterih državah, tudi za določitev kazni, ta raziskava kaže na nujno potrebo po ponovno preučiti uporabo COMPAS in drugih programov.

$config[ads_kvadrat] not found