KI-NIH Collaborative Doctoral Program in Neuroscience
Tako kot profesionalni kuhar ali srčni kirurg algoritem strojnega učenja je dober le toliko, kolikor ga prejme. In ker algoritmi vedno bolj prevzemajo vladavino in sprejemajo odločitve za ljudi, ugotovimo, da jih veliko ni prejelo najboljšega izobraževanja, saj posnemajo predsodke na podlagi človeške rase in spola ter celo ustvarjajo nove težave.
Zaradi teh razlogov je zlasti v zvezi s tem, da več držav, vključno s Kalifornijo, New Yorkom in Wisconsinom, uporablja algoritme za napovedovanje, kdo bo ponovno storil kazniva dejanja, potem ko so bili zaprti. Še huje, celo ne deluje.
V dokumentu, objavljenem v sredo v reviji Znanstveni napredki Dva računalniška znanstvenika na Dartmouth Collegeu sta ugotovila, da široko uporabljen računalniški program za napovedovanje recidivizma ni bolj natančen kot popolnoma neobučeni civilisti. Ta program, imenovan Popravljanje kaznivih dejanj za alternativne sankcije, analizira 137 različnih dejavnikov, da bi ugotovil, kako verjetno je, da bo oseba po izpustitvi storila nov zločin. COMPAS upošteva dejavnike, kot so uporaba snovi, socialna izolacija in drugi elementi, ki jih teoretiki kriminologov lahko vodijo v recidivizem, razvrščanje ljudi kot visoko, srednje ali nizko tveganje.
In prepričani, ocena tveganja zveni odlično. Zakaj ne bi imeli več podatkov, ki bi pomagali sodiščem določiti, kdo je večje tveganje? Toda Dartmouthovi računalniški znanstveniki Julia Dressel in Hany Farid so ugotovili, da netrenirani posamezniki pravilno ocenjujejo tveganje recidivizma s skoraj enako natančnostjo kot COMPAS, kar kaže, da domnevna moč algoritma dejansko ni tam.
V enem preskušanju, ki je vsebovalo le del informacij, ki jih je uporabil COMPAS (sedem dejavnikov namesto 137 in brez dirke), je skupina človeških prostovoljcev na internetu, domnevno brez usposabljanja o oceni tveganja, ocenila poročila o primerih. Pravilno so ocenili recidivizem osebe s 67-odstotno natančnostjo v primerjavi s 65-odstotno natančnostjo COMPAS-a.
Vzemite si trenutek in pustite, da se potopi. Neobrezani ljudje na spletu so bili nekoliko boljši pri napovedovanju, ali se bo oseba vrnila v zapor orodje, ki je dobesedno zasnovano za napovedovanje, ali bi se oseba vrnila v zapor. In postane še slabše. Ko dodate toženikove rase, so bile lažno pozitivne in lažno negativne stopnje prostovoljca znotraj le nekaj odstotnih točk COMPAS-a. Torej ne samo, da COMPAS ni tako velik pri napovedovanju recidivizma, ampak je prav tako nagnjen k rasni pristranskosti kot ljudje. Toliko o hladni logiki računalnikov.
Raziskovalci so nato izdelali linearni model, ki je ustrezal stopnji napovedi COMPAS z dvema dejavnikoma: starostjo in številom prejšnjih obsodb. Da bi bilo jasno, bi bila ta napoved tudi nepoštena, vendar kaže, da je COMPAS pomanjkljiv.
In medtem ko je ta raziskava nova, velike takeaways, ki jih zagovarja, niso. V preiskavi leta 2016 je ProPublica Poročevalci so ugotovili, da je COMPAS nezanesljiv, da je dejansko sistematično pristranski do afriških Američanov, pri čemer črne ljudi vedno bolj ocenjujejo kot večje tveganje kot belci, ki so storili hujše zločine. Upamo, da bo ta nova raziskava pomagala utreti pot za boljše postopke ocenjevanja tveganja v sistemu kazenskega pravosodja.
Dejstvo, da je COMPAS v najboljšem primeru neuporaben in v najslabšem primeru pristransko, kaže na to, da bi računalniške ocene tveganja lahko poglobile krivice, ki naj bi jih pravosodni sistem obravnaval.Ker se ocene tveganja lahko uporabijo v katerem koli koraku kazenskega pravosodnega postopka, vključno z določanjem osebne vezi, ugotavljanjem, ali so jim odobreni pogojni izpust, in v nekaterih državah, tudi za določitev kazni, ta raziskava kaže na nujno potrebo po ponovno preučiti uporabo COMPAS in drugih programov.
Microsoft ima predklic z aplikacijo, ki napoveduje recidivizem
V spletnem prenosu s policijskimi oddelki je v začetku tega leta višji Microsoftov programer zdrsnil, da je podjetje globoko v razvoju aplikacije, ki lahko predvideva, ali se bo zapornik vrnil za rešetkami šest mesecev po sprostitvi.
Napačno imenovano poročilo napoveduje naše delovno mesto v skupni rabi
Tukaj je najslabši scenarij: namesto techno-raja bo rast avtomatizacije ustvarila gospodarsko križarjenje, prihodnje gospodarstvo, kjer malo podjetij ponuja varna delovna mesta, saj se kvalificirani neodvisni izvajalci izmikajo drug za drugega za dobro delo. To je eden od zaključkov, ki ga lahko potegneš iz "Jutrišnje digitalne enote ...
Kje so robotski glasbeniki? Računalniški znanstveniki se borijo za program Daft Punk
Algoritmi lahko izračunajo nove simfonije in improvizirajo jazz rifove. Lahko celo združijo rep. Toda ali je pravo umetnost lahko vnaprej programirano? Dartmouthovi profesorji Michael Casey in Dan Rockmore, ustanovitelji Turingovih testov v ustvarjalni umetnosti, upajo, da bodo izvedeli. Pripravili so natečaj, da ugotovijo, ali ljudje ...