Stereotipni robot skupine Georgia Tech je prihodnost AI in ne rasizma

$config[ads_kvadrat] not found

Excerpts from Artificial Intelligence for Robotics Course (OMS CS)

Excerpts from Artificial Intelligence for Robotics Course (OMS CS)
Anonim

Za ušesa, ki jih senzibilizirajo posebnosti po šoli in seminarji o raznolikosti, bo to zvenelo slabo, toda želimo, da roboti hitro odločajo na podlagi videza. Premagovanje predsodkov je dobro, toda nezmožnost stereotipa zmanjšuje inteligenco - umetno in drugače. Dr. Alan Wagner, robotist na Georgia Tech, je glavni zagovornik tehnologije stereotipov. Trdi, da te vrste logike ni treba uporabiti za raso ali spol, samo situacije in vedenje.

V zgodnjem preizkusu svojega stereotipnega algoritma je Wagner usposobil naivnega robota, da bi naredil sklepe iz tega, kar je videl. Robot se je naučil in postal zaznavni, kar je Wagnerju omogočilo, da je začel kritično razmišljati o etiki predpostavk robota, zlasti predprogramiranih. Govoril je Inverse o njegovem delu in njegovih posledicah.

Sprehodite se skozi, kako je eksperiment delal.

Robot komunicira z različnimi tipi posameznikov - gasilcem, EMT ali podobnim - vendar nima predhodnih izkušenj z nobeno od teh kategorij posameznikov. To je v bistvu izkustveno učenje.

Ideja je bila pokazati, da bi robot lahko uporabil perceptivne lastnosti od posameznika, da bi napovedal svoje potrebe glede uporabe orodja. Način, kako je algoritem deloval, bi robotova kamera videla različne vidike tega, kar je posameznik izgledal - njihova enotna barva, na primer, ali so imeli brado in barvo las.

Prav tako bi jim postavil vprašanja o tem, kako izgledajo. Seveda zastavljanje vprašanj ni tisto, kar želite na tem področju, toda robotovo dojemanje je zdaj tako omejeno. Potrebovali smo način za zagon procesa o učenju o osebi. Oseba bi izbrala orodje, nato pa bi robot izbral orodje, robot pa bi se sčasoma naučil, katero orodje ima posameznik.

Ali ste pričakovali, da bo robot izvedel, da značka pomeni policist ali težak odsevni plašč, ki pomeni gasilca?

Nekako smo pričakovali. Toda bilo je tudi nekaj presenetljivih stvari.Na primer, robot je lažno priznal, da je brada predvidena z gasilcem - to je bilo čudno, toda ko pogledate podatke, to ni bilo presenetljivo. Prve več ljudi, ki so sodelovale z njim, so bili gasilci, ki so imeli brade. Zato zagovarjamo potrebo po zaznavni raznolikosti, idejo, da bi, če bi robot lahko videl velike, široko različne vrste posameznikov v kategoriji, bolje razvil in razumel kategorijo.

Bi rekli, da bi morali avtonomne robote trenirati, da izžigajo te navade, tako da robot ne bo pomislil, če ima ta oseba brado, je gasilec?

Vsekakor. Bistvenega pomena je, da te stvari izgladimo. Bistvenega pomena je, da imamo te robote, ki delujejo iz različnih skupin posameznikov.

Kako bi lahko izgledalo to učenje?

Robot bi se lahko osredotočil na stvari, ki bolje opisujejo gasilce. Na primer, gasilec morda ne nosi niti jakne. Robot bi potem opazil druge vidike gasilstva, morda škornje, morda rokavice, morda čelade. Rekel bi: »OK, ta oseba resnično je gasilec v tem okolju."

Če bi imeli dovolj ljudi, bi lahko prepoznali gasilca na požaru proti gasilcu na zabavi za noč čarovnic. To so subtilne zaznavne podrobnosti, kot je razlika med kakovostjo vrst uniform ali kontekstualnih okolij.

Kako uspešno je bil ta algoritem povezan z brado s gasilci?

Obstajali sta dve stvari, ki sva si resnično želeli pogledati: Ena, kaj lahko storite z njo? Če roboti lahko prepoznajo gasilce, ali to res pomaga na nek način? Dokument je pokazal, da vam omogoča, da omejite iskanje. Namesto da bi gledali brade za barvo las, iščete barvo oči ali karkoli drugega, kar bi lahko iskali, se lahko osredotočite na značilnosti, ki so resnično pomembne. Je oseba, ki nosi gasilski plašč? To bi lahko pospešilo proces.

Še ena resnično kritična stvar, ki smo jo gledali, je, kaj če je kategorija, ki jo robot napoveduje, napačna? Kako to vpliva na vas? Lahko si predstavljate, da je lahko okolje za iskanje in reševanje kaotično: Morda delate v pogojih, ki so polni dima, robot morda ne bo mogel zaznati vsega zelo dobro, morda ima napake. Lahko si predstavljate slabši primer, ko robot misli, da je oseba žrtev, ko so v resnici gasilec. Zato poskuša rešiti gasilca. To bi bilo grozno. Želeli smo videti, kje se zlomi, kako se zlomi, katere funkcije najbolj vplivajo na to in kakšne so različne vrste napak.

Ta pristop lahko uporabite na različne načine - če te osebe sploh ne morejo videti, vendar si lahko ogledajo dejanja, ki jih delajo. Če vidim osebo, ki izbere sekiro, potem lahko napovem, da imajo čelado.

Kako se obračate na to, da robota oceni kontekst in napove?

Poskušali smo pogledati nekaj različnih vrst okolij - restavracijo, šolo in dom za ostarele. Poskušali smo zajeti značilnosti o okolju in kakšne predmete so v okolju, kakšne akcije je oseba izbrala in kakšni so ljudje v okolju, in to poskušali uporabiti, da bi naredili veliko socialnih napovedi. Na primer, v šolskem okolju ljudje dvignejo roke, preden se pogovorijo. Torej, če vidim dejanje, ki ga ljudje dvignejo, kakšne predmete bi pričakoval v okolju? Pričakujem, da vidim tablo; pričakujem ogled pisalne mize? Pričakujem, da bom videl otroke.

Upamo, da bomo uporabili te informacije. Če robot izvede postopek evakuacije, bo videl, kakšne vrste ljudi so tam in kje so.

Recimo, da je robot, ki pride na vaša vrata in pravi: "Prosim, sledite mi do izhoda." Nekaj ​​tako na videz preprostega, kot je to dejansko zelo zapleteno. Če robot potrka na vrata v stanovanjski stavbi, ne veste, s kom boste komunicirali. Lahko je štiriletni otrok, lahko je 95-letna oseba. Z veseljem bi robot prilagodil svoje interaktivno vedenje tipu osebe, ki jo vidi, da bi jih rešil. Izvajamo nekatere od teh kontekstualnih lekcij in poskušamo razviti to aplikacijo.

Ali uporabljate podobno definicijo »stereotipa« za robote in ljudi, ali se še kaj dogaja?

Izraz stereotipi ima negativen kontekst. Način, kako ga uporabljamo, je preprosto razviti kategorije ljudi in uporabiti kategorične informacije za napovedovanje značilnosti osebe. V psihologiji vem, veliko dela se osredotoča na obrazne stereotipe in spolne stereotipe. Tega ne počnemo. Je proces enak? Nevem. Nimam pojma.

Ali vas skrbi, da bi ljudje imeli napačne predstave o vašem delu?

Pred nekaj leti smo razvili idejo robotov, ki bi lahko zavajali ljudi. V medijih je bila malce napačna predstava, da bi to privedlo do tega, da roboti kradejo denarnice ljudi.

Rad bi uporabil situacijo za evakuacijo v sili: ne želite vedno biti popolnoma iskren do osebe v evakuaciji, kajne? Na primer, če bi vas kdo vprašal: »Ali je moja družina v redu?« Lahko bi bilo grozno, če bi robot rekel: »Ne, vsi so umrli. Prosim, sledite mi do izhoda. “V nekaterih primerih mora biti robot na kratko nepošten. Toda moja izkušnja je bila, da so se ljudje počutili, kot da poskušamo pripeljati do konca sveta.

Vedno nas zanimajo pro-socialni vidiki teh tehnik človek-robot. Poskušamo pomagati ljudem, ne pa nekaj slabega.

$config[ads_kvadrat] not found