A.I .: Raziskovalci kažejo, kako lahko stroji lažno prenašajo pot skozi pogovore

$config[ads_kvadrat] not found

Inside China's first AI hot pot restaurant

Inside China's first AI hot pot restaurant
Anonim

Če nič drugega, lahko toliko za umetno inteligenco: Redko se bojijo videti neumno. Če je učenje A.I. ko se srečuje z nečim, kar je izven svojega preprogramiranega znanja, običajno ne bo sramežljivo prositi osebo, s katero govori, da pojasni.

To pa lahko povzroči precej monotono pogovor za človeka, ki sodeluje v pogovoru z chatbotom, glasovnim pomočnikom ali splošno znanim robotom: »Kaj je jabolko?« »Kaj je tiramisu?« »Kaj je sušeno meso?« »Kaj veš? dobesedno karkoli o hrani, ki ti je neumen recept, chatbot?"

Dobiš idejo, in ker raziskovalci iz japonske univerze v Osaki poudarjajo v svojem nedavnem središču pozornosti svoje delo, ta zadnja vrstica kaže na resničen problem, s katerim se sooča AI: zastavljanje vprašanj je lahko najboljši način za učenje, toda to ne pomeni Štejemo si veliko, če je množica vprašanj tako dražljiva ali dolgočasna, da človek odhaja. Ni dovolj za A.I. vedeti, kaj ne ve. Prav tako mora vedeti, kako ohraniti ljudi, ki so dovolj angažirani, da zapolnijo vrzeli v svojem znanju.

Njihova na novo zasnovana metoda uporablja tisto, kar je znano kot leksikalna pridobitev, preko implicitne potrditve, ki je v bistvu domišljijski način, da se lahko umetna inteligenca zdaj prekine tako, kot ljudje. Ta trik izvleče, ne da bi vprašal ljudi, da potrdijo, kaj je nekaj, ampak da bi rekli nekaj drugega, kar posredno partnerja za pogovor potrdi ali zanika, da je instinkt A.I. pravilen.

Oglejmo si primer.

A.I. pozna dovolj, da bi ugibal o izvoru izraza »nasi goreng«, če sodi, da se sliši indonezijsko. Dejstvo, da je človek rekel, da bodo poskušali kuhamo ta jed kaže, da je to nekakšna hrana, in tako je A.I. generira to izjavo - ne vprašanje, čeprav je v njej skrito - o kakovosti indonezijskih restavracij na tem območju.

A.I. verjetno bi lahko uporabili osnovne podatke o nedavnih odprtostih restavracij in njihove spletne preglede, da bi ugotovili, ali je ta izjava dejansko smiselna, sicer bi lahko rekli nekaj podobnega: „Tukaj je res treba imeti več dobrih indonezijskih restavracij“, če ni bilo veliko možnosti.

Ampak to je samo za zmanjšanje zmede, saj bi tudi človeško nesoglasje z izjavo še vedno odgovorilo na osnovno vprašanje o tem, ali je nasi goreng indonezijska. Samo če oseba vpraša, kaj je A.I. govori o tem, da je jasno, da je stroj naredil napako.

Torej, če ste mislili, da ste se pretvarjali skozi pogovore na zabavah, so le ljudje lahko kdaj storili… žal, avtomatizacija resnično prihaja za vse nas.

$config[ads_kvadrat] not found