Human Rights Watch: Kitajska uporablja velike podatke za ciljne skupine manjšin

$config[ads_kvadrat] not found

Власти обозначили сроки начала массовой вакцинации от COVID-19 - Москва 24

Власти обозначили сроки начала массовой вакцинации от COVID-19 - Москва 24
Anonim

Kitajska vlada uporablja napovedne policijske algoritme za usmerjanje etničnih manjšin v provinci Xinjiang, v skladu s poročilom Human Rights Watch, objavljenim v ponedeljek.

V provinci na severozahodu Kitajske živi 11 milijonov Ujgurjev, turške muslimanske etnične skupine, ki jo je v zadnjih letih diskriminirala kitajska vlada.

Organi oblasti zdaj uporabljajo velike podatke, da sistematično ciljajo na vsakogar, ki je osumljen politične nelojalnosti. Poteza je del kampanje »Strike Hard«, katere cilj je umik potencialne teroristične dejavnosti na Kitajskem. V praksi je to privedlo do nesorazmernega policijskega dela Ujgurjev, pravi Human Rights Watch.

Sistem napovedovanja policije, znan kot IJOP - integrirana skupna operacijska platforma - se napaja z različnimi orodji za nadzor. Te vključujejo kamere CCTV, številke registrskih tablic in osebnih izkaznic državljanov, ki jih dobite na varnostnih kontrolnih točkah, in osebne podatke, vključno z zdravstvenimi, bančnimi in pravnimi podatki.

Poleg avtomatiziranega nadzora vladni uradniki opravljajo obiske na domu, da bi zbrali podatke o prebivalstvu. Kitajski poslovnež je delil obrazec, ki ga je izpolnil za evidenco IJOP-a s Human Rights Watch - med drugim je vprašalnik vprašal, ali je poslovnež Ujgur, kako pogosto moli in kje gre za verske obrede.

Vse te vnose podatkov uporablja IJOP za označevanje ljudi kot potencialnih groženj. Ko je nekdo označen, policija sproži nadaljnjo preiskavo in jih pridrži, če se šteje, da je sumljiva.

"Prvič lahko dokažemo, da uporaba kitajske vlade za velike podatke in napovedno policijo ne le očitno krši pravice do zasebnosti, temveč tudi uradnikom omogoča, da samovoljno zadržijo ljudi," je dejala višja kitajska raziskovalka organizacije Human Rights Watch Maya Wang.

Poročilo navaja, da so nekateri ljudje, ki so bili označeni, poslani v politično izobraževalne centre, kjer so priprti za nedoločen čas brez sojenja.

„Od aprila 2016, po ocenah organizacije Human Rights Watch, so oblasti v Xinjiangu poslale na deset tisoče Uygurjev in drugih etničnih manjšin v„ centre za politično izobraževanje “,« je zapisano v poročilu. IJOP tem pridržanjem pripisuje verodostojnost z uporabo objektivne algoritemske analize za diskriminatorne aretacije.

Da bi stvari še poslabšale, so notranja dela IJOP zavita v tajnost.

"Ljudje v Xinjiangu se ne morejo upreti ali izzvati vse bolj vsiljivega nadzora nad svojim vsakodnevnim življenjem, ker večina sploh ne ve za ta program" črne skrinjice "ali kako deluje," je dejal Wang.

To je isti problem, ki povzroča napade na najbolj izpopolnjene sisteme strojnega učenja: postopki odločanja, ki jih uporabljajo, so celo nejasni celo ustvarjalcem algoritma.

Upoštevati je treba uporabo Kitajske IJOP, saj se bo izboljšanje predvidljivega policijskega delovanja verjetno povečalo. Kot je poudaril Jon Christian Oris v nekaterih državah v Združenih državah so že uporabljeni napovedni policijski sistemi. Policijski oddelek v Los Angelesu uporablja programsko opremo, ki predvideva, kje in kdaj naj bi se zgodila kazniva dejanja, tako da jih lahko policisti odpeljejo.

Na drugi strani kazenskega pravosodnega sistema sodišča včasih uporabljajo algoritme, ki potencialnim parolees ocenijo tveganje, da bi sodnikom pomagali pri sprejemanju bolj utemeljenih odločitev. Na žalost ti domnevno nepristranski algoritmi dejansko diskriminirajo na podlagi rase.

Vpliv Kitajske na napovedno policijsko delo poudarja pomen izvajanja odgovornega algoritma, saj strojno učenje še naprej vstopa v javni sektor. Morda je čas, da tehnično zdrave vlade sprejmejo novo mantro: Včasih umetna inteligenca povzroča več težav, kot jih rešuje.

$config[ads_kvadrat] not found