V nasprotju s Tayom je Microsoftov kitajski Chatbot, Xiaolce, dejansko prijeten

$config[ads_kvadrat] not found

Power Virtual Agents Tutorial - Create a Free Chatbot in Microsoft Teams

Power Virtual Agents Tutorial - Create a Free Chatbot in Microsoft Teams
Anonim

Ko ste slišali za Tay, Microsoftov tweeting A.I., ste bili res presenečeni, da je računalnik, ki se je naučil o človeški naravi, Twitter bi postal besen rasist v manj kot enem dnevu? Seveda ne. Ubogi Tay je začel vse »hellooooooo w🌎rld !!!« in se hitro preobrazil v Hitler-ljubeč računalnik, ki spodbuja genocid. Seveda se je Microsoft opravičil za grozljive tweet-e, ki jih je chatbot ustvaril z "ničelno hlado". V tem opravičilu je podjetje poudarilo, da kitajska različica Tay, Xiaoice ali Xiaolce zagotavlja uporabnikom zelo pozitivno izkušnjo v nasprotju s tem poskusom. zelo narobe.

Opombe:

»Na Kitajskem naš Xiaolce chatbot uporablja okoli 40 milijonov ljudi, veseli pa se s svojimi zgodbami in pogovori. Velika izkušnja z XiaoIce nas je vodila k spraševanju: Ali bi bila takšna umetna inteligenca prav tako privlačna v radikalno drugačnem kulturnem okolju? Tay - chatbot, ustvarjen za zabavo v Združenih državah od 18 do 24 let, je naš prvi poskus odgovoriti na to vprašanje."

Xiaolce je bil lansiran leta 2014 na spletnem mestu Weibo, ki temelji na mikro blogih. V bistvu počne to, kar je Tay delal, ima »osebnost« in zbira informacije iz pogovorov na spletu. Ima več kot 20 milijonov registriranih uporabnikov (to je več ljudi kot živi v državi Florida) in 850.000 privržencev na Weibu. Lahko jo spremljate na JD.com in 163.com na Kitajskem kot tudi na aplikaciji Line kot Rinna na Japonskem.

Na televiziji Dragon v Šanghaju se je celo pojavila kot vremenski poročevalec s človeškim zvočnim glasom in čustvenimi reakcijami.

Glede na New York Times, ljudje ji pogosto pravijo »ljubim te« in ena ženska, ki so jo intervjuvali, je celo rekla, da govori z A.I. ko je slabo razpoložena. Medtem ko je Tay, po samo enem dnevu na spletu, postal nacistični simpatizer, Xiaolce kitajskim uporabnikom ponuja brezplačno terapijo. Shrani razpoloženje uporabnika in ne informacij, tako da lahko ohrani raven empatije za naslednji pogovor. Kitajska Xiaolce obravnava kot sladko, oboževalno babico, medtem ko Američani govorijo s Tayom, kot otrok, ki ima otroka z omejenim razumom. Ali to odraža kulturni odnos do tehnologije ali A.I.? Ali kaže, da so Kitajci na splošno prijaznejši od Američanov? Bolj verjetno je, da kitajski Veliki požarni zid ščiti Xiaolce pred agresijo. Svoboda govora lahko včasih povzroči neprijetne rezultate, kot je Tay po 24 urah na Twitterju.

»Bolj ko se pogovarjate, pametnejši Tay dobi,« je v profil v klepetalnici vtipkala neka slaba duša v Microsoftu. Ne, če angleški trolli vladajo spletom. Kljub tem rezultatom, Microsoft pravi, da ne bo dal v napade na Tay. »Ostajamo trdni v naših prizadevanjih, da se učimo iz teh in drugih izkušenj, ko delamo v smeri prispevanja k internetu, ki predstavlja najboljše, ne najslabše, človeštvo.«

$config[ads_kvadrat] not found