MIT-jev novi algoritem lahko napoveduje človeške interakcije pred nevšečnostjo

$config[ads_kvadrat] not found

Unit 6 Week 5 Phonics patterns of Long AR and Long ER ear, ear

Unit 6 Week 5 Phonics patterns of Long AR and Long ER ear, ear
Anonim

Naša nezmožnost, da bi prebrali druge ljudi, je privedla do nekaterih epskih petih neuspehov in pogrešanih poljubov. Tudi po življenjskih izkušnjah je človeške interakcije težko napovedati. Toda raziskovalci v laboratoriju MIT za računalništvo in umetno inteligenco mislijo, da lahko pomagajo: Z novim algoritmom za globoko učenje, ki lahko napove, kdaj se bosta dva človeka objemala, poljubljala, rokovala ali petih, so naredili velik korak k prihodnosti blagoslovljeno brez teh nerodnih trenutkov.

Upajo, da bo njihov novi algoritem - usposobljen za 600 ur YouTube videoposnetkov in televizijskih oddaj Pisarna, Scrubs, Teorija velikega poka, in Obupane gospodinje - lahko uporabite za programiranje manj socialno nerodnih robotov in razvoj slušalk v slogu Google Glassa, da nam predlagate ukrepe, še preden bomo imeli priložnost zamuditi. V prihodnosti si bodo zamislili, da nikoli več ne boste zamudili priložnosti, da s svojim sodelavcem povežete peto.

Zavedanje, da se roboti naučijo biti socialni na enak način kot mi, je bilo ključno za uspeh algoritma. "Ljudje se avtomatsko naučijo predvideti dejanja z izkušnjami, zaradi česar smo zainteresirani za to, da bi računalniki imeli enako pamet," pravi CSAIL Ph.D. študent Carl Vondrick, prvi avtor na sorodnem papirju, ki je bil predstavljen ta teden na mednarodni konferenci o računalniški viziji in prepoznavanju vzorcev. "Želeli smo pokazati, da lahko računalniki z gledanjem velikih količin videa pridobijo dovolj znanja, da lahko dosledno predvidevajo svojo okolico."

Vondrick in njegova ekipa sta naučila številne »nevronske mreže« algoritma, da analizirajo ogromne količine podatkov v tem primeru, ure petih visokih Jimovih in Pamovih, ter prikrite poljubce Mikea in Susan. Ob upoštevanju dejavnikov, kot so iztegnjene roke, dvignjena roka ali podaljšani pogled, je vsaka od nevronskih mrež ugibala, kaj se bo zgodilo v naslednji sekundi, in splošno soglasje o omrežjih je bilo vzeto kot končna »napoved« v študija.

Algoritem je dobil to pravico več kot 43 odstotkov časa. Čeprav se to morda ne zdi dovolj visoko, da bi zagotovilo, da bodo naše vsakodnevne interakcije manj čudne, je to velik napredek glede na obstoječe algoritme, ki imajo natančnost le 36 odstotkov.

Poleg tega lahko ljudje predvidevajo ukrepe le 71 odstotkov časa. Potrebujemo vso pomoč, ki jo lahko dobimo.

V drugem delu študije se je algoritem naučil predvideti, kateri predmet - domače statične posnetke, kot so daljinski upravljalniki, posode in smeti - se bodo pojavili na prizorišču pet sekund kasneje. Na primer, če se odprejo vrata mikrovalovne pečice, obstaja relativno velika možnost, da se naslednjič pojavi skodelica.

Njihov algoritem še ni dovolj natančen za Google Glass, vendar s soavtorjem dr. - financira nagrada za raziskave na fakulteti Google in Vondrick, ki dela s prof. štipendijo - lahko stavimo, da pride do tega. Prihodnje različice algoritma, napoveduje Vondrick, se lahko uporabijo za programiranje robotov za interakcijo z ljudmi ali celo za poučevanje varnostnih kamer za registracijo, ko oseba pade ali se poškoduje.

»Videoposnetek ni kot knjiga» Izberite svojo pustolovščino «, kjer lahko vidite vse potencialne poti,« pravi Vondrick. "Prihodnost je sama po sebi dvoumna, zato je zanimivo izzivati ​​se, da razvijemo sistem, ki te predstavitve uporablja za predvidevanje vseh možnosti."

$config[ads_kvadrat] not found