A.I. Raziskovalni inštitut pokaže, kako ustvariti odgovorne algoritme

$config[ads_kvadrat] not found

AI L2 P8 Searching: Bidirectional Search

AI L2 P8 Searching: Bidirectional Search
Anonim

Raziskovalni inštitut AI Now je v sredo objavil nova priporočila za odgovorno izvajanje algoritmov v javni sferi.Njihov nasvet je usmerjen v delovno skupino, ki jo je januarja ustanovil mestni svet New Yorka in preučuje vladno uporabo umetne inteligence.

Poročilo AI Now, Algoritemske ocene učinka: v smeri odgovorne avtomatizacije v javnih agencijah, poudarja potrebo po preglednosti pri uvajanju algoritmov. Algoritmi imajo velik vpliv na naše vsakdanje življenje, vendar njihov vpliv včasih ostane neopažen. Ker so na primer vgrajeni v infrastrukturo socialnih medijev in video platform, je lahko preprosto pozabiti, da programi pogosto določajo, katera vsebina je potisnjena na uporabnike interneta. Šele ko gre kaj narobe, kot je video teorije zarote, ki dosega vrh seznama trendov v YouTubu, preučujemo samodejne postopke odločanja, ki oblikujejo spletne izkušnje.

In algoritmi niso omejeni na internetne platforme. Vladne institucije so vedno bolj odvisne od algoritmov, na področjih, ki segajo od izobraževanja do kazenskega pravosodja. V idealnem svetu bi algoritmi odstranili človeške predsodke zaradi težkih odločitev, kot je določanje, ali naj se zaporniku odobri pogoj. V praksi pa so algoritmi enako učinkoviti kot ljudje, ki jih izdelujejo.

Na primer preiskava ProPublica pokazali, da so bili algoritmi za oceno tveganja, ki se uporabljajo v sodnicah, rasno pristranski. Kar je še slabše, so številni algoritmi, ki se uporabljajo v javnem sektorju, v zasebni lasti, nekatera podjetja pa zavračajo skupno uporabo kode, ki je osnova za njihovo programsko opremo. Zaradi tega je nemogoče razumeti, zakaj ti tako imenovani algoritmi »črne skrinjice« vrnejo določene rezultate.

Ena od možnih rešitev, ki jih ponuja AI Now? Algoritemske ocene učinka. Te ocene vzpostavljajo normo popolne preglednosti, kar pomeni, da morajo vladne agencije, ki uporabljajo algoritme, objaviti, kdaj in kako jih uporabljajo. "Ta zahteva sama po sebi bi veliko pripomogla k osvetlitvi, katere tehnologije se uporabljajo za služenje javnosti, in kjer bi bilo treba osredotočiti raziskave o odgovornosti," je zapisano v poročilu.

Politika odprtosti, ki obkroža algoritme, bi tudi odprla vrata za državljane, da preiskujejo in protestirajo proti njihovi uporabi. Bi želeli, da vam algoritem poda oceno ocene tveganja, ki temelji na dejavnikih zunaj vašega nadzora, še posebej, če bi ta rezultat lahko pomagal ugotoviti, ali greste v zapor? Mogoče ja morda ne. V vsakem primeru je pomembno natančno vedeti, katere spremenljivke analiziramo z algoritmom.

Poleg tega AI Now priporoča določitev pravnega standarda za ljudi, da lobirajo proti nepoštenim algoritmom.

Na primer, če agencija ne razkrije sistemov, ki razumno spadajo v področje uporabe tistih, ki sprejemajo avtomatizirane odločitve, ali če prodajalcem omogoča, da zahtevajo čezmejne poslovne skrivnosti in tako blokirajo pomemben sistemski dostop, bi morala javnost imeti možnost, da izrazi pomisleke glede organ za nadzor agencij ali neposredno na sodišču, če je agencija zavrnila odpravo teh težav po obdobju za javno mnenje.

Priporočila se v bistvu skrivajo na en splošni mandat: če uporabljate algoritme, ne bodite sramotni glede tega.

Preberite celotno poročilo tukaj.

$config[ads_kvadrat] not found