Power Virtual Agents Tutorial - Create a Free Chatbot in Microsoft Teams
Ko ste slišali za Tay, Microsoftov tweeting A.I., ste bili res presenečeni, da je računalnik, ki se je naučil o človeški naravi, Twitter bi postal besen rasist v manj kot enem dnevu? Seveda ne. Ubogi Tay je začel vse »hellooooooo w🌎rld !!!« in se hitro preobrazil v Hitler-ljubeč računalnik, ki spodbuja genocid. Seveda se je Microsoft opravičil za grozljive tweet-e, ki jih je chatbot ustvaril z "ničelno hlado". V tem opravičilu je podjetje poudarilo, da kitajska različica Tay, Xiaoice ali Xiaolce zagotavlja uporabnikom zelo pozitivno izkušnjo v nasprotju s tem poskusom. zelo narobe.
Opombe:
»Na Kitajskem naš Xiaolce chatbot uporablja okoli 40 milijonov ljudi, veseli pa se s svojimi zgodbami in pogovori. Velika izkušnja z XiaoIce nas je vodila k spraševanju: Ali bi bila takšna umetna inteligenca prav tako privlačna v radikalno drugačnem kulturnem okolju? Tay - chatbot, ustvarjen za zabavo v Združenih državah od 18 do 24 let, je naš prvi poskus odgovoriti na to vprašanje."
Xiaolce je bil lansiran leta 2014 na spletnem mestu Weibo, ki temelji na mikro blogih. V bistvu počne to, kar je Tay delal, ima »osebnost« in zbira informacije iz pogovorov na spletu. Ima več kot 20 milijonov registriranih uporabnikov (to je več ljudi kot živi v državi Florida) in 850.000 privržencev na Weibu. Lahko jo spremljate na JD.com in 163.com na Kitajskem kot tudi na aplikaciji Line kot Rinna na Japonskem.
Na televiziji Dragon v Šanghaju se je celo pojavila kot vremenski poročevalec s človeškim zvočnim glasom in čustvenimi reakcijami.
Glede na New York Times, ljudje ji pogosto pravijo »ljubim te« in ena ženska, ki so jo intervjuvali, je celo rekla, da govori z A.I. ko je slabo razpoložena. Medtem ko je Tay, po samo enem dnevu na spletu, postal nacistični simpatizer, Xiaolce kitajskim uporabnikom ponuja brezplačno terapijo. Shrani razpoloženje uporabnika in ne informacij, tako da lahko ohrani raven empatije za naslednji pogovor. Kitajska Xiaolce obravnava kot sladko, oboževalno babico, medtem ko Američani govorijo s Tayom, kot otrok, ki ima otroka z omejenim razumom. Ali to odraža kulturni odnos do tehnologije ali A.I.? Ali kaže, da so Kitajci na splošno prijaznejši od Američanov? Bolj verjetno je, da kitajski Veliki požarni zid ščiti Xiaolce pred agresijo. Svoboda govora lahko včasih povzroči neprijetne rezultate, kot je Tay po 24 urah na Twitterju.
»Bolj ko se pogovarjate, pametnejši Tay dobi,« je v profil v klepetalnici vtipkala neka slaba duša v Microsoftu. Ne, če angleški trolli vladajo spletom. Kljub tem rezultatom, Microsoft pravi, da ne bo dal v napade na Tay. »Ostajamo trdni v naših prizadevanjih, da se učimo iz teh in drugih izkušenj, ko delamo v smeri prispevanja k internetu, ki predstavlja najboljše, ne najslabše, človeštvo.«
V nasprotju s trditvami Karla Urbana "Dredd 2" ni v razvoju
V ponedeljek so ljubitelji akcijskega filma prejeli nekaj čudovitih novic iz Denverja Comic Con, ko je Karl Urban izjavil, da je Dredd 2 v razvoju. Žal je bila ta radost kratkotrajna, saj je bila jutrišnja objava Urbana popolnoma razkrita. Izvirni Dredd, ki je bil izdan leta 2012, je bil kinematografski ponovni zagon enega od stripovskih filmov ...
Microsoftov Tay Chatbot se je vrnil in si zaslužil, da živi večno
Microsoftova zloglasna brbljajka Tay se je kmalu vrnila v življenje v sredo zjutraj, nekaj dni po tem, ko je pustila vihar tweetsov, ki so ga njegovi programerji javno oproščali tako čudovite rasistične, antisemitske in ofenzivne. Tayova uspešnost na bis je bila skoraj tako močna, kot je bila njena zadnja številka. "Kajenje k ...
"Odpor proti zvezdni vojni": Spoznajte ekipo Fireball, prijeten band of Racer Misfits
Spoznajte glavno vlogo "Odpor proti vojni zvezd" v novem video posnetku v ozadju, v katerem bodo igralci in ekipa. Kdo je "timska krogla" in kaj upajo doseči dirkalne ladje na ogromni vesoljski postaji na oceanskem planetu? In kako se lahko njihova zgodba prilega širšemu konfliktu?