AI Bolje pri kompromisu kot ljudje, najde novo študijo

$config[ads_kvadrat] not found

Ženske so močnejše, kot se zavedajo ◦✰?∘˚˳°✧°˚°◦✰∘?

Ženske so močnejše, kot se zavedajo ◦✰?∘˚˳°✧°˚°◦✰∘?
Anonim

Priznajmo. Odkar se je umetna inteligenca prvič sanjala, so se ljudje bali tistega dne, ko prevzamejo naši vladarji AI. Toda nekateri raziskovalci preizkušajo sposobnost umetne inteligence, ne samo tekmujejo s človeštvom, pa tudi sodelovati.

V študiji, objavljeni v četrtek Nature Communications skupina profesorjev računalniških znanosti BYU, Jacob Crandall in Michael Goodrich, skupaj s sodelavci na MIT in drugih univerzah, je ustvarila algoritem za sodelovanje strojev in kompromise.

Raziskovalci so programirali stroje z algoritmom, imenovanim S #, in jih vodili skozi številne igre z različnimi partnerji - strojno-strojno, človeško-strojno in človeško-človeško -, da bi preverili, katera združitev bi povzročila največ kompromisov. Izkazalo se je, da so stroji (ali vsaj tisti, ki so programirani s S #) veliko bolj kompromisni kot ljudje.

Toda to bi lahko reklo več o „človeških neuspehih“, pravi vodilni raziskovalec Jacob Crandall Inverse. "Naši človeški udeleženci so bili nagnjeni k nelojalnosti - bi se podrli sredi sodelovanja - in nepošteni - približno polovica naših udeležencev se je odločila, da ne bo sledila svojim predlogom - v nekem trenutku interakcije."

Stroji, ki so bili programirani za vrednotenje poštenosti, so bili pošteni. »Poseben algoritem je učenje, da so moralne lastnosti dobre. Programirano je, da ne laže, prav tako pa se nauči ohraniti sodelovanje, ko se pojavi, «pravi Crandall.

Poleg tega je raziskava pokazala, da so bile nekatere strategije sodelovanja učinkovitejše od drugih. Eden od teh je bil »poceni pogovor«, preprosti verbalni signali, ki se odzivajo na dano situacijo, kot je »Sweet. Postajamo bogati! «Ali» Sprejemam vaš zadnji predlog. «Ali, da izrazim nezadovoljstvo,» Prekletstvo! «» Za to boste plačali! «Ali celo» V vašem obrazu! «

Ne glede na to, kakšno vrsto igre se je igralo ali kdo je igral, je poceni pogovor podvojil količino sodelovanja. Prav tako je humaniziral stroje, pri čemer so človeški igralci pogosto ne morejo ugotoviti, ali so bili v stiku s strojem ali človekom.

Ker je bila raziskava osredotočena na testiranje algoritma S #, je ena od pomanjkljivosti raziskave, da ne upošteva kulturnih razlik med ljudmi, ki bi lahko vplivale na to, kako bi lahko različne človeške populacije uporabile ali interpretirale strategije, kot je poceni govor, ali kako Veliko človeških igralcev se lahko ukvarja s prevaro ali nelojalnostjo.

Predvsem v zadnji kratki zgodbi knjige Isaaca Asimova iz leta 1950 Jaz, Robot - "Evitable Conflict" - AI vladarji dejansko prevzamejo planet. Ampak, ker so tako razumni in programirani z nekaterimi neločljivimi etičnimi pravili, je dobra stvar za človeško raso. In kot kaže ta študija, ker so človeške interakcije neurejene in zapletene, morda lahko zaupamo strojem. Ob predpostavki seveda, če so bili programirani za poštenost.

Izvleček:

Ker je Alan Turing zamislil umetno inteligenco, je bil tehnični napredek pogosto merjen z zmožnostjo premagati ljudi pri srečanjih z ničelno vsoto (npr. Chess, Poker ali Go). Manj pozornosti je bilo namenjene scenarijem, v katerih je sodelovanje med človekom in strojem koristno, vendar ne trivialno, kot so scenariji, v katerih preference ljudi in stroja niso niti popolnoma usklajene niti popolnoma v konfliktu. Sodelovanje ne zahteva čiste računalniške moči, temveč ga spodbujajo intuicija, kulturne norme, čustva, signali in predhodno razvite dispozicije. Tukaj razvijamo algoritem, ki združuje najsodobnejši algoritem za krepitev učenja z mehanizmi za signalizacijo. Pokazali smo, da lahko ta algoritem sodeluje z ljudmi in drugimi algoritmi na ravneh, ki tekmujejo med človeškim sodelovanjem pri različnih dvakratnih ponovljenih stohastičnih igrah. Ti rezultati kažejo, da je splošno sodelovanje človek-stroj dosegljivo z uporabo ne-trivialnega, a navsezadnje preprostega niza algoritmičnih mehanizmov.

$config[ads_kvadrat] not found