Ta robot se je naučil, kako povedati "ne" človeškim zahtevam

$config[ads_kvadrat] not found

У Клиента ВШИ! Моя Смешная История!:)) От куда берутся вши! Вши как избавиться!

У Клиента ВШИ! Моя Смешная История!:)) От куда берутся вши! Вши как избавиться!
Anonim

Roboti, tako kot ljudje, se morajo naučiti, kdaj reči "ne". Če je zahteva nemogoča, bi povzročila škodo ali bi jih odvrnila od trenutne naloge, potem je to v najboljšem interesu "bot in njegovega človeka. za diplomatsko ne hvala biti del pogovora.

Toda kdaj naj stroj govori? In pod kakšnimi pogoji? Inženirji poskušajo ugotoviti, kako vtisniti ta občutek o tem, kako in kdaj naj se humanoidi odrečejo ukazom.

Pazi, da ta Nao robot ne želi hoditi naprej, vedoč, da bi to povzročilo, da bi padel z roba mize:

Enostavne stvari, vsekakor pa bistvenega pomena za preverjanje človeške napake. Raziskovalci Gordon Briggs in Matthias Scheutz iz Tuftsove univerze so razvili kompleksen algoritem, ki robotu omogoča, da oceni, kaj ga je človek prosil, da se odloči, ali naj to stori ali ne, in se ustrezno odzove. Raziskava je bila predstavljena na nedavnem zasedanju Združenja za napredek umetne inteligence.

Robot si postavi vrsto vprašanj, ki se nanašajo na to, ali je naloga opravljiva. Ali vem, kako to storiti? Ali sem zdaj fizično sposoben? Ali sem običajno fizično sposoben to storiti? Ali lahko to storim zdaj? Ali moram na podlagi svoje družbene vloge to storiti? Ali krši kakšno normativno načelo?

Rezultat je robot, za katerega se zdi, da je ne le razumen, ampak tudi en dan, celo pametno.

Opazite, kako Nao spremeni svoje mnenje o hodenju naprej, potem ko ga človeški obljubi ujame. Lahko bi si zamislili drugačen scenarij, kjer robot pravi: "Ni mogoče, zakaj bi ti zaupal?"

Toda Nao je družbeno bitje po zasnovi. Zadovoljiti ljudi je v njegovi DNK, zato glede na informacije, ki jih človek namerava ujeti, slepo stopi naprej v brezno. Seveda, če bi človek zavajal svoje zaupanje, bi ga obudili, vendar mu zaupa. To je Naoov način.

Ko robotski spremljevalci postanejo bolj prefinjeni, se bodo robotski inženirji morali spoprijeti s temi vprašanji. Roboti bodo morali sprejeti odločitve ne samo o ohranjanju lastne varnosti, ampak tudi o večjih etičnih vprašanjih. Kaj, če človek prosi robota, da ubije? Storiti goljufijo? Da bi uničil drugega robota?

Ideje strojne etike ne morejo biti ločene od umetne inteligence - tudi naši prihodnji avtomobili brez voznika bodo morali biti oblikovani tako, da bodo v našem imenu sprejemali odločitve o življenju ali smrti. Ta pogovor bo vsekakor bolj zapleten kot samo pošiljanje naročil.

$config[ads_kvadrat] not found