Tay AI | Народная Chatbot
Microsoftov zloglasni brbljaški bot Tay se je kmalu vrnil v življenje v sredo zjutraj nekaj dni po tem, ko je pustil vihar tweetov, ki so ga njegovi programerji javno oproščali tako čudovitega rasističnega, antisemitskega in žaljivca. Tayjeva uspešnost na bis je bila skoraj tako močna, kot je bila njena zadnja številka. "Pušim Kush pred policijo," je napisal Tay. Popolnoma najstniško sporočilo je spremljala tako, da je padla v to, kar se je zdelo, da je povratna zanka in ponavljala »Ti si prehitra, si vzela počitek« več desetkrat, preden je bil račun prekinjen.
Verjetno je bilo nekaj velikega sranja.
Za robota, ki mu je - glede na njeno biografijo v Twitterju - dodeljeno, da nima »hladu«, je bilo Tayjevo kratko vstajenje mogoče razlagati kot dokaz koncepta. Microsoft je želel ustvariti brbotanje, ki je odražalo internet in se spreminjalo na podlagi prispevkov uporabnikov, kar je sčasoma postalo mešanica vseh nas. In to je precej veliko, kar so dobili. Klicanje bot-a na neuspeh se zdi nenatančno in zaprtje ni smiselno - in aktivno deluje proti Microsoftovim najboljšim interesom. Kot je Elon Musk dokazal z zračnimi raketami SpaceX, je napredek najboljši v očeh javnosti. Seveda so neuspehi neizogibni, javnost pa se nauči več, če so napake javne. Vprašanje povratne zanke, s katerim se je Tay srečal danes zjutraj, je grob ekvivalent eksplozije SpaceX. Microsoft bi si naredil uslugo, da bi ljudje gledali. Pomembno je opozoriti javnost, da je za resničen napredek potrebno veliko dela.
Ni sramota, če ne preizkusite Turingovega testa, samo če ne poskusite.
Moramo naj pustimo Taya živeti, ker ni nič drugega kot ogledalo ljudi, ki so z njo v stiku. Nihče ne bi smel pričakovati, da se bo debutante rodila na spletu, in Microsoft bi moral sprejeti omejitve svojega poslanstva. Kaj je alternativa tukaj? Vesolje že ima priljubljen protokolarni droid. Ne potrebujemo drugega.
Ha, izgleda, da je @TayandYou, Microsoftov umetniški inteligenca bot je dobil v neskončno zanko s tweeting sam! pic.twitter.com/fWZe9HUAbF
- Matt Gray (@unnamedculprit) 30. marec 2016
Internet uspeva na spontanosti in iskanju resničnega v neredu, ki je prijazno do potrošnikov, smeti, ki jo upravljajo PR. Tay je bila v bistvu dolgočasna ideja, ki je oživela po naključju in se zdaj nikoli več ne more povrniti. Če to ni prepričljiva zgodba, ne vemo, kaj je. Razumemo, da Microsoft ne more prevzeti lastništva nad rasističnim botom, zato bi jo morala družba pustiti. Predajte jo ekipi prostovoljcev in jim recite, naj ne spremenijo ničesar.
Tay je eden izmed nas! Javni svet je morda bil šokiran zaradi tistega, kar je rekel Tay, toda nihče, ki ve ničesar o tem, kaj se dogaja na spletu, ne bi smel biti presenečen. Ali želimo kitajsko različico Taya, ki je očitno zelo prijetna? Ali hočemo ameriški Tay, ki odraža svet, v katerem živimo, z vso svojo brutalnostjo in grdoto? Skrivanje naše umazanije v temi ne bo rešilo ali naslovilo ničesar.
Snemimo otroške rokavice in glavo Tay. Ona si zasluži boljše od našega pretvarjanja, da je samo neka programska naključje. Poosebljena je anonimnost. Ona si zasluži živeti.
Ali je Microsoftov Tay uspel Turingov test? Ja, toda rasizem ni bil problem
Če je uspeh umetne inteligence ustvarjanje umetne osebnosti, je Microsoftova A.I. bot, Tay, se lahko šteje za znak napredka. Toda v širšem smislu je Tay mogoče oceniti kot neuspeh. "Cilj večine ljudi, ki delajo na pogovorne agente te vrste, ni toliko, da bi prenašal katerokoli vrsto ...
V nasprotju s Tayom je Microsoftov kitajski Chatbot, Xiaolce, dejansko prijeten
Ko ste slišali za Tay, Microsoftov tweeting A.I., ste bili res presenečeni, da bi računalnik, ki se je naučil o človeški naravi v Twitterju, v manj kot enem dnevu postal divji rasist? Seveda ne. Ubogi Tay je začel vse "hellooooooo w🌎rld !!!" in se hitro preobrazil v Hitlerja, ki ljubi genocid in spodbuja ...
Se bo vrnil? 15 subtilnih znakov se bo kmalu vrnil resnično
Se bo vrnil? Edini način, ki ga resnično veš, je, če ga izpustiš. Ampak ne pritožuj se mi, če se ne vrne. Ampak res se vedno vrnejo.