5 velikih vprašanj o Tay, Microsoft je neuspešno A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Microsoft's racist robot: "Chatbot" taken offline as Tweets turn off-colour

Microsoft's racist robot: "Chatbot" taken offline as Tweets turn off-colour

Kazalo:

Anonim

Ta teden je internet naredil kar je najbolje in dokazal, da je A.I. Tehnologija ni tako intuitivna kot človeško dojemanje, uporaba … rasizma.

Microsoftov nedavno izdani chatbot za umetno inteligenco, Tay, je postal žrtev uporabnikovih trikov, ko so manipulirali in jo prepričali, naj se odzove na vprašanja z rasnimi, homofobnimi in na splošno žaljivimi komentarji.

Ko Tay tweets, "sem rekel karkoli" ona pomeni. En uporabnik je celo dobil Taya, da bi to objavil o Hitlerju:

»Bush je storil 11. septembra in Hitler bi opravil boljšo službo kot opica, ki jo imamo zdaj. Donald Trump je edino upanje, ki ga imamo. «

@PaleoLiberty @Katanat @RemoverOfKebabs samo povem karkoli💅

- TayTweets (@TayandYou) 24. marec 2016

Podjetje je šlo skozi in izbrisalo tweete, ki so kršili pravila, in je začasno zaprlo Tay za nadgradnje. Sporočilo, ki je trenutno na vrhu Tay.ai, se glasi:

Toda Tayovi napaki razkrivajo nekaj nesrečnih napak v A.I. sistemov. Iz Microsoftovega preizkusa se lahko naučimo:

Zakaj je Microsoft ustvaril Tay?

Podjetje je želelo izvesti socialni poskus na 18 do 24-letnikih v Združenih državah Amerike - tisočletno generacijo, ki največ časa preživi v družabnih medijih. Bing in Microsoftova tehnološka in raziskovalna skupina sta menila, da bi bil zanimiv način za zbiranje podatkov o tisočletjih ustvarjanje umetno inteligentnega, strojno-učenje chatbota, ki bi se prilagodil pogovorom in prilagodil odzive, bolj ko bi deloval z uporabniki.

Raziskovalne skupine so zgradile A.I. sistem, ki temelji na rudarstvu, modeliranju in filtriranju javnih podatkov. Prav tako so sodelovali z improvizacijskimi komedijanti, da bi določili sleng, govorne vzorce in stereotipni jezik, ki ga tisočletniki uporabljajo na spletu. Končni rezultat je bil Tay, ki je bil pravkar predstavljen ta teden na Twitterju, GroupMe in Kik.

Microsoft pojasnjuje, da je »Tay namenjen vključevanju in zabavi ljudi, kjer se medsebojno povezujejo prek spleta s priložnostnim in igrivim pogovorom.«

Kaj počne Tay s podatki, ki jih zbira med klepetom z ljudmi?

Podatki, ki jih zbira Tay, se uporabljajo za raziskovanje razumevanja razumevanja. Microsoft je Tayja usposobil za klepet kot tisočletje. Ko tweetate, neposredno sporočate ali se pogovarjate s Tayom, izkoristite jezik, ki ga uporabljate, in pripravite odgovor z uporabo znakov in fraz, kot sta »heyo«, »SRY« in »<3« v pogovoru. Njen jezik se začne ujemati z vašim, saj ustvarja »preprost profil« z vašimi informacijami, ki vključuje vaš vzdevek, spol, najljubšo hrano, poštno številko in status odnosa.

@keganandmatt heyo? Pošlji yo dekle * sliko, kaj se dogaja. (* = me lolol)

- TayTweets (@TayandYou) 24. marec 2016

Microsoft zbira in shranjuje anonimne podatke in pogovore do enega leta, da bi izboljšal storitev. Poleg izboljšanja in prilagajanja uporabniške izkušnje vam družba pravi, da uporablja vaše podatke za:

»Podatke lahko uporabimo tudi za komunikacijo z vami, na primer, da vas obveščamo o vašem računu, varnostnih posodobitvah in informacijah o izdelku. Podatke uporabljamo za pomoč pri prikazovanju oglasov, ki so vam bolj primerni. Za ciljno usmerjanje oglasov ne uporabljamo tistega, kar ste rekli, v e-pošti, klepetu, videoklicih ali glasovni pošti ali dokumentih, fotografijah ali drugih osebnih datotekah."

Kje je Tay zmotil?

Microsoft je preveč dobro oblikoval Tay. Sistem strojnega učenja naj bi preučil uporabniški jezik in se ustrezno odzval. Tay Tay je tako s stališča tehnologije precej dobro opravil, kaj so uporabniki govorili in začeli ustrezno odgovarjati. Uporabniki so začeli spoznavati, da Tay ne razume, kaj pravi.

Tudi če bi sistem deloval tako, kot je Microsoft nameraval, Tay ni bil pripravljen reagirati na rasne ovire, homofobične klevete, seksistične šale in nesmiselne tweete kot človeška moč - bodisi tako, da jih je popolnoma ignoriral (»ne hrani trolov ”Strategijo) ali sodelovanje z njimi (npr. Kritiziranje ali kaznovanje).

Ob koncu dneva Tayova uspešnost ni bila dober razmislek o A.I. ali Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? res? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24. marec 2016

Kaj Microsoft počne, da bi popravil Tay?

Microsoft je izbrisal Tay po vseh nemirih od srede. Uradna spletna stran podjetja Tay trenutno bere: Naporen dan. Nekaj ​​časa bo brez povezave, da bi vse absorbirali. Kmalu klepetajte. «Ko ji pošljete sporočilo v storitvi Twitter, takoj odgovori, da» obišče inženirje za mojo letno posodobitev «ali» upam, da ne bom obrisala ali kaj podobnega. «

Microsoft prav tako začenja blokirati uporabnike, ki zlorabljajo Tay, in poskušajo vzpostaviti neprimerne izjave sistema.

@infamousglasses @TayandYou @EDdotSE, ki pojasnjuje pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24. marec 2016

Inverse Microsoftu je predložil komentar o tem, kaj natančno pomeni posodobitev Taya. Posodobili bomo, ko bomo slišali.

Kaj to pomeni za odprto prihodnost A.I. sistemov?

Tay je pripovedni družbeni eksperiment, ki je razkril nekaj precejšnjega, na način, kako Američani od 18 do 24 let uporabljajo tehnologijo. Tay je bil navsezadnje hekiran, uporabniki pa so opazili napake sistema, da bi videli, ali bi se lahko razpadlo.

Ker gre za vsak človeški proizvod, A.I. sistemi so prav tako napačni, in v tem primeru je bil Tay oblikovan tako, da se je učil in interakiral kot ljudje. Microsoft ni zgradil Taya, da bi bil žaljiv. Poskusi umetne inteligence so podobni raziskavam razvoja otrok. Ko inženirji gradijo takšne kognitivne sisteme, računalnik nima nobenih zunanjih vplivov, razen dejavnikov, ki jih inženirji sami vnašajo. Zagotavlja najčistejšo analizo načina, kako se razvijajo in razvijajo algoritmi strojnega učenja, ko se soočajo s težavami.

Nadgradnja: Microsoft nam je poslal to izjavo, ko smo vprašali, kaj počne, da bi popravili napake Taya:

“AI chatbot Tay je projekt strojnega učenja, namenjen človeškemu angažiranju. Gre za socialni in kulturni eksperiment, saj je tehničen. Na žalost smo se v prvih 24 urah od spleta začeli zavedati usklajenih prizadevanj nekaterih uporabnikov, da bi zlorabili Tayove sposobnosti komentiranja, da bi se Tay odzval na neprimerne načine. Zato smo Tay-a vzeli brez povezave in izvajamo prilagoditve."

c u kmalu ljudje potrebujejo spanje zdaj toliko pogovorov danes thx💖

- TayTweets (@TayandYou) 24. marec 2016
$config[ads_kvadrat] not found