Apple iPhone X ne more povedati poleg kitajskih obrazov, vrnjeno

$config[ads_kvadrat] not found

Распаковка iPhone 12 Pro Max в золоте. Самый большой, самый дорогой, самый золотой iPhone в истории

Распаковка iPhone 12 Pro Max в золоте. Самый большой, самый дорогой, самый золотой iPhone в истории
Anonim

Prejšnji teden je bila v Nanjingu, glavnem mestu na vzhodu Kitajske, ženska, ki se je imenovala Yan, dvakrat ponudila povračilo od Apple za napačno iPhoneX, ki jo je njen kolega odklenil s tehnologijo za prepoznavanje obraza. Obe ženski sta etnično kitajski.

Yan je za lokalne novice povedal, da je prvič, ko se je to zgodilo, poklicala telefonsko številko iPhone, vendar ji niso verjeli. Šele ko sta ona in njena kolegica odšla v lokalno trgovino Apple in pokazala osebju trgovine, da so ji ponudili povračilo in je kupila nov telefon, misli, da je morda kriva napačna kamera.

Toda drugi telefon je imel enako težavo, kar kaže, da to ni okvarjena kamera, kot so predlagali delavci v trgovini, ampak težava s samo programsko opremo.

To ne bi bil prvi primer, ko bi programska oprema za prepoznavanje obraza in AI za njo imela težave pri prepoznavanju nebelih obrazov.

V letu 2015 je Google Foto slučajno označil fotografijo dveh afriško-ameriških prebivalcev kot gorile, leta 2009 pa HP-jevi računalniki http://www.youtube.com/watch?v=t4DT3tQqgRM) težko prepoznali in sledili črnim obrazom - brez težav z belimi obrazi. Istega leta je bila Nikonova programska oprema za fotoaparate ujeta, da je azijsko lice označeno kot utripajoče.

Google Photos, zajebali ste. Moj prijatelj ni gorila. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) 29. junij 2015

»To je v osnovi problem podatkov,« je zapisala Kate Crawford, glavna raziskovalka pri Microsoftu in sopredsedujoča Simpozija o družbi v Beli hiši v Obami in A.I. »Algoritmi se učijo s tem, da se hranijo določene slike, ki jih pogosto izberejo inženirji, in sistem na podlagi teh slik zgradi model sveta. Če je sistem usposobljen na fotografijah ljudi, ki so pretežno beli, bo težje prepoznati nebele obraze. «

Jacky Alcine, programer iz Brooklyna, čigar fotografija je Google napačno označil, se je strinjal. Iz njegovih izkušenj je dejal: "To bi se lahko izognili s točnim in popolnejšim razvrščanjem črnih ljudi."

Toda rasizem, ki je kodiran v AI, čeprav je nenameren, ima posledice, ki presegajo samo prepoznavanje obraza.

Preiskava ProPublica leta 2016 je pokazala, da je verjetnost dvakrat večja za črne kriminalce napačno označeni kot verjetno, da bodo ponovno storili kazniva dejanja kot beli kriminalci, medtem ko naraščajoči trend „policijskega predvidevanja“ uporablja algoritme za napovedovanje kriminala in ustrezno usmerjanje policijskih sredstev.

Vendar so bile manjšinske skupnosti zgodovinsko prekomerno nadzorovane, kar je privedlo do možnosti, da „ta programska oprema tvega, da ohranja že začarani krog“, pravi Crawford.

V Nanjingu na Kitajskem je Yan prejel drugo povračilo za svoj drugi iPhoneX. Iz poročil lokalnih novic ni jasno, ali je kupila tretjo osebo.

To, kar je bilo na kocki, tokrat, je bilo morda samo en potrošnik. Toda primer Yana je bil primer nenehne potrebe po oblikovanju tehnološke industrije z upoštevanjem raznolikosti in vključenosti.

$config[ads_kvadrat] not found