Pixelated Images ni primerna za prepoznavanje obraza Cornell Tech A.I.

$config[ads_kvadrat] not found

BLURRED FACES 01

BLURRED FACES 01
Anonim

Trije raziskovalci iz Cornell Tech v New Yorku so odkrili, da se zamegljena in slikovita slika ne ujema z umetno inteligenco. Čeprav ostanejo zasenčene slike človeškim očem nerazumljive, in zato se zdi, da ščitijo njihovo občutljivo vsebino, lahko nevronske mreže pogosto povejo, kdo je kdo na originalni sliki.

Z drugimi besedami, ljudje niso več lakmusov test. Ne moremo več samo vprašati, ali nekaj premaga vse človeške možgane. A.Is - celo preproste A.I.s - lahko prekašajo ljudi, zato morajo biti tudi premagovanje njih vedno del enačbe.

Raziskava raziskovalcev podjetja Cornell Tech je bila osredotočena na preizkušanje algoritmov za ohranjanje zasebnosti, ki zamegli ali osvetli določene informacije ali dele slik. Prej smo zaupali zaupanju v programsko opremo ali algoritme za ohranjanje zasebnosti, saj smo ugotovili, da so informacije, ki so jih prikrivali, varne, ker ne človek lahko pove, kdo je za digitalno tančico. Študija je pokazala, da je to obdobje konec in da tudi s tem povezane metode anonimizacije ne bodo trajale dolgo. Nevronske mreže, ki so se srečale s temi ukrepi za zaščito zasebnosti, niso ogrožene.

Richard McPherson je doktor znanosti. kandidat za računalništvo na Univerzi v Teksasu, Austin, ki je sledil svojemu profesorju, Vitalyju Shmatikovu, v Cornell Tech. Skupaj z Rezo Shokri so skupaj pokazali, da lahko preproste nevronske mreže razkrijejo običajne tehnike zamenjave slik. Tehnika je relativno nezahtevna, zaradi česar je odkritje bolj zaskrbljujoče: to so običajne, dostopne metode, ki so lahko premagale industrijske norme za zamegljevanje.

Nevronske mreže so velike, večplastne strukture vozlišč ali umetnih nevronov, ki posnemajo osnovno strukturo možganov. "Temeljijo na poenostavljenem razumevanju delovanja nevronov," pravi McPherson Inverse. "Dajte mu nekaj vnosa, nevron pa požari ali ne požari."

Prav tako so sposobni »učiti« z grobo opredelitvijo izraza. Če pokažete divjem (popolnoma neobrazovanemu) človeku nekaj “rdečega” in jim recite, naj iz vedra izberejo vse “rdeče” stvari, se bodo sprva borili, vendar se bodo sčasoma izboljšali. Tudi z nevronskimi mrežami. Strojno učenje pomeni le poučevanje računalnika, da izbere "rdeče" stvari, na primer iz virtualnega vedra pestrih stvari.

Tako sta McPherson in podjetje usposabljala svoje nevronske mreže. »V našem sistemu ustvarjamo model - arhitekturo nevronskih mrež, strukturiran niz teh umetnih nevronov - in jim damo veliko obfuznih slik,« pravi. "Na primer, morda jim bomo dali sto različnih slik Carol, ki so bile osvetljene, nato pa sto različnih Bobovih slik, ki so bile osvetljene."

Raziskovalci nato označijo te slikovne pike in pri tem pripovedujejo modelu, ki je na vsaki sliki. Po obdelavi tega niza podatkov omrežje funkcionalno ve, kako izgleda Pixelated Bob in Pixelated Carol. "Nato lahko podamo drugačno slikovno sliko Boba ali Carol, brez oznake," razlaga McPherson, "in lahko ugiba in reče," mislim, da je to Bob s 95-odstotno natančnostjo."

Model ne rekonstruira zamegljene podobe, ampak dejstvo, da je zmožen premagati najpogostejše in doslej najbolj zanesljive metode anonimizacije, je samo po sebi zaskrbljujoče. "Sposobni so ugotoviti, kaj je prikrito, vendar ne vedo, kako je prvotno izgledal," pravi McPherson.

Toda nevronske mreže so še vedno sposobne narediti veliko boljše kot ljudje. Ko so bile slike najbolj obfuscirane z uporabo standardne tehnike, je bil sistem še vedno več kot 50-odstoten natančen. Za nekoliko manj obfuzirane slike se je sistem izkazal za izjemnega, s približno 70-odstotno natančnostjo. YouTubova norma za zameglitev obrazov popolnoma ni uspela; Tudi najbolj nejasne slike so bile obremenjene z nevronsko mrežo, kar se je pokazalo 96-odstotno natančno.

Tudi druge, prej neobdelane, podatkovne, besedilne in slikovne tehnike anonimizacije so nezanesljive. "Poleti je bilo delo, ki je gledalo anonimizacijo besedila z uporabo pikselacije in zamegljenosti, in pokazalo, da so lahko tudi oni razbiti," pravi McPherson. Tudi druge metode, ki so vredne zaupanja, so lahko tudi na poti ven. Čeprav ne pozna tehnik prikrivanja glasu, kot so tiste, ki se uporabljajo za anonimne televizijske intervjuje, »ne bi bil presenečen«, če bi nevronske mreže lahko prekinile anonimizacijo.

McPhersonovo odkritje torej dokazuje, da »metode za ohranjanje zasebnosti, ki smo jih imeli v preteklosti, niso ravno v poganjku, zlasti s sodobnimi tehnikami strojnega učenja.« Z drugimi besedami, šifriramo se v nepomembnost, treniramo stroje, Preseči nas v vseh kraljestvih.

»S povečevanjem moči strojnega učenja se bo ta kompromis premaknil v korist nasprotnikov,« so zapisali raziskovalci.

$config[ads_kvadrat] not found