Fikcija iz filmov, je postala resničnost. Obdobje robotov in super tehnologij
Roboti se izkažejo za velike človeške spremljevalce. Kdo si ne bi želel, da bi nas čudovit mali Pepper povedal šalom, da bi nam dal komplimente in nas na splošno naredil, da se na svetu počutimo manj osamljeni? Celo brezoblični roboti so se izkazali za presenetljivo dobro družbo. Vzemite, na primer, Amazon Echo Alexa. Ona je robotski možgani s človeškim glasom, ujetim v telo zvočnega govornika, vendar je v pomoč in če berete njene ocene, je jasno, da je postala veliko uporabnikov kot družina. Ali bi ljudje mislili drugače, če bi lagala? Kaj če bi ti povedala nekaj, kar resnično nisi hotel slišati?
Razmislite o tem: Otrokom naj rečemo, da nikoli ne govorijo laži in da je poštenost najboljša politika, pa vendar izpuščamo, izkrivljamo resnico in odkrito laž za otroke ves čas. To jih uči, prek naših dejanj, če ne z našimi besedami, da ne gre za popolno odkritost, ampak za učenje zapletenih družbenih pravil o tem, kdaj in kako razkriti ali prikriti potencialno občutljive informacije. Roboti za programiranje, ki upoštevajo ta socialna pravila, so lahko težaven, vendar nujen del tekočega avtomatskega inovacijskega procesa.
Tukaj je primer: prejšnji konec tedna sem bil v hiši svojega brata in odšel v trgovino, da bi vzel nekaj sendvič za kosilo. Moja šestletna nečakinja mi je pomagala, da sem pripravila hrano, medtem ko so vsi ostali iz kuhinje, in me je vprašala, koliko so cene živil. Povedal sem ji, ker je poučevanje otrok o vrednosti denarja dobra stvar.
Na mizi za kosilo me je prosila, da vsem povem, koliko so cene živil. Rekel sem ne.»Zakaj?« Je vprašala, resnično zmedena, zakaj je bilo vprašanje, ki sem ga nekaj minut prej odgovoril, zdaj tajna informacija. "To ni vljudno," sem rekel in pojasnil, da so pravila drugačna, ker smo otrok, ko smo sami. Učila sem jo, da ima poštenost in odkritost čas in kraj. V človeškem kontekstu informacije ne želijo vedno biti svobodne.
Enako velja za robote. Mislimo, da ne želimo, da bi nam roboti lagali, vendar si želimo, da se naučijo zapletenih družbenih pravil prijaznosti in diskretnosti, ki včasih zahtevajo izkrivljanje resnice. In že se učijo, kako to storiti. Vzemite ta kratek posnetek Pepperja, ki je v stiku s poročevalcem, na primer:
Prva stvar iz Pepperjevih ust je kompliment: »Torej si zelo šik. Ste model?"
Novinarka je dovolj čedna, vendar Pepperjevo vprašanje ni povsem iskreno. Zavedamo se, da se Pepper dejansko ne sprašuje, če je model, in je bil programiran, da reče lepe stvari, ne glede na to, kako izgleda oseba.
Kmalu zatem, Pepper prosi za posojilo, iz neznanja. To je nevljudno vprašanje, indiskrecija, ki jo lahko enostavno oprostimo robotu, kot bi bili otroci. Poročevalec bi lahko opozoril, da je vprašanje nevljudno, da so roboti brez denarja ali da so priznali, da mu ni bilo treba dati 100 dolarjev Pepperju. Vsa resnica je, da je novinar lahko posojajo robotu denar, vendar razume, da je samo to vprašanje igra. Kar je rekel, je preusmeritev in bela laž ali pol-resnica - nima denarja za njim. Upanje je, da robot to razume kot nežen »ne« in ne predlaga, da bi novinar šel na bankomat in naredil umik. Ker ima Pepper očitno nekaj družbene milosti, se vrstica vprašanj konča.
Socialni roboti so programirani, da se učijo socialnih namigov, in to je dobra stvar - končno jih bo izboljšalo na naših delovnih mestih. Naloga programerjev ni, da izkoreninijo vse robotske prevare, ampak da dodajo funkcije, ki robotom olajšajo sprejemanje odločitev o ustreznih odgovorih.
Ko so roboti naši zaupniki, morajo imeti zavest o kontekstu in občinstvu. Na primer, če hočem z oblekami doma, bom želel pošteno oceniti, kako so različne možnosti. Če sem na zabavi in nenadoma samozavestna, da sem izbrala napačno obleko, bo zagotovilo, da sem videti v redu, najbolj koristen odgovor.
Roboti se bodo naučili veliko osebnih podatkov o svojih spremljevalcih in za njih bo pomembno, da razumejo razliko med zaupnimi informacijami in javnimi informacijami, in se zavedajo tudi, kdo posluša, kadar koli govori. Vprašanja bodo imela različne odgovore, odvisno od tega, kdo sprašuje. Roboti se bodo obnašali drugače, ko bodo gostje doma.
Roboti, kot otroci, potrebujejo odgovorno starševstvo. To pomeni, da morajo robotski programerji in lastniki robotov globoko razmišljati o etičnih in socialnih posledicah našega A.I. interakcije. Ampak to ne pomeni zahtevati popolne poštenosti - resno, nihče tega ne želi.
Državljanstvo robotov: zakaj naši umetni asistenti lahko en dan potrebujejo potne liste
Malta sodeluje z SingularityNET, da razišče dodelitev umetne inteligence in robotskega državljanstva. Ta poteza je sledila podelitvi državljanstva Sophiji, razvijalcu humanoidnega robota Hanson Robotics. Ali ste pripravljeni dati svojim Siri ali Amazon Alexa pravnim pravicam?
Pravila zmenkov: 10 nepoštenih, a ustreznih pravil, ki jih moramo vsi živeti
Ne glede na to, s kom se družite ali kje ste, obstajajo določena neizrečena pravila za zmenke, ki jih morate upoštevati, ali v iskanju ljubezni ne boste uspeli.
13 Napačne predstave o druženju s starejšimi ženskami, ki jih moramo odpraviti
Z bolj privlačnimi starejšimi ženskami v javnosti, ki se odločajo za zmenek z mlajšimi moškimi, se povečuje tudi napačna predstava o zmenjanju starejših žensk.