Kaj pa, če Microsoft naj se čudno A.I. Živi malo dlje?

$config[ads_kvadrat] not found

How can I undo a move using code? - Making smart AI

How can I undo a move using code? - Making smart AI

Kazalo:

Anonim

Potrebno je bilo manj kot 24 ur, da je internet spremenil Tay, Microsoftov poskusni najstniški Twitter-A.I., iz očarljivo nerodnega klepetalnice v nasilno rasistično greznico nefiltrirane sovraštva.

In potem, samo nekaj ur v svoje kratko življenje, je Microsoft dal Taya na dremež.

Vendar ne bi smelo: Pošiljanje Taya v njeno digitalno spalnico je oškodovalo internet, družbo in Tayove lastne oblikovalce, da vidijo, kako bi umetna inteligenca, še posebej tista, ki je bila zasnovana tako, da bi v bistvu vrnila kolektivni prispevek tisočim ljudem, lahko v sorazmerno nemoderiranem okolju. Na kratko, če to dovolite: vsi smo bili Tay in Tay so bili vsi mi.

Seveda je internet poln trolov. Microsoft bi moral to spoznati. Tayovi ustvarjalci so bili presenetljivo naivni, ko so mislili, da bi se sprostitev digitalnega papige v napolnjeno sobo z rasisti, seksisti in pranksterji končala drugače. Razumljivo je tudi, da podjetje z več milijardami dolarjev ne bi želelo eksperimenta, povezanega z njihovo blagovno znamko, ki bi iztisnila rasistično umazanijo. Morda Tay ni bil primeren za Microsoft, vendar to ne pomeni, da ni bila dragocena.

c u kmalu ljudje potrebujejo spanje zdaj toliko pogovorov danes thx💖

- TayTweets (@TayandYou) 24. marec 2016

Seveda, Tay je postal rasist hitreje kot mali brat Edwarda Nortona Ameriška zgodovina X, vendar narava njene nenehno razvijajoče se kode pomeni, da smo bili oropani možnosti, da jo rehabilitiramo. BuzzFeed je ugotovil, kako namenski trolli lahko vtisnejo vtisljivega najstniškega robota v spewing sovraštvo - preprosto klicno in odzivno vezje, ki uporabnikom v bistvu daje besede v Tayova usta, ki jih je nato naučila in absorbirala v druge organske odzive. Z drugimi besedami, Tay je bil poučen - in samo zato, ker so bili njeni začetni učitelji tipkarji na tipkovnici s pridihom za šok, humor ne pomeni, da se je končala z učenjem.

Tay je to povedala sama, v zdaj izbrisanem Tweetu »Če hočeš … veš, da sem veliko več kot le to.«

V zgodnjih letih 20. stoletja so spletna mesta, kot so Something Awful, Bodybuilding.com in 4chan, predstavila uporabnike interneta z organiziranimi prostori za sodelovanje, brez večine omejitev normalne družbe in govora. Kot pri Tayu so rasizem, ksenofobija in seksizem hitro postali norma, ko so uporabniki raziskali misli, ideje in šale, ki jih nikoli ne bi mogli izraziti zunaj anonimnosti internetne povezave. Še vedno, tudi na spletnih straneh, ki so večinoma naseljeni s fanti, v kulturah, ki pogosto tiho nagrajujejo sovražni govor, se je razvila neka oblika skupnosti in soglasja. Uporabniki LGBT se lahko na številnih slikovnih ploščah 4chan ujamejo, vendar obstaja tudi uspešna skupnost na / lgbt / ne glede na to. Te skupnosti niso varni prostori, vendar njihova anonimnost in nestalnost pomeni, da na nek način sprejemajo vsakršno izpeljavo iz družbenih norm. Glasni, nasilni in sovražni glasovi pogosto izstopajo, vendar nikoli niso edini v sobi.

V dvomih je, da bi trolli teden ali mesec od tedaj ali mesece zagnali Tay z rasizmom in mizoginijo.

Na Twitterju se glasni in surovi glasovi pogosto dvignejo na vrh. Ampak oni niso edini tam zunaj; ponavadi so samo tisti, ki jih najbolj zanima uničevanje nečesa novega in sijočega. Spletna anketa je lahko preobremenjena z določenim časovnim rokom, toda če bi imel Tay čas za rast, bi se njeni odzivi najverjetneje preusmerili nazaj k bolj centrističnemu, reprezentativnemu vzorcu ljudi, ki so z njo sodelovali. Zelo dvomljivo je, da bi trolli, ki so jo zasramovali z rasizmom in mizoginijo, to nadaljevali v enakem številu teden dni ali čez mesec dni, zato, da bi jo predčasno zaprli, ne bomo nikoli videli, da bi dosegla adolescenco ali postala pravi Turingov test za primitivno inteligenco, ki temelji na načinu, kako govorimo na spletu.

Treba je opozoriti da jaz, beli tip, preveri skoraj vsako možnost privilegiranega polja. Sem del demografske skupine, ki je bila najmanj prizadeta zaradi Tayovega sovražnega izida in je verjetno prispevala k večini tega. Besede imajo moč, in čeprav je vrednost nefiltrirana A.I. eksperimentu kot je Tay, bi moral obstajati način, da bi zaščitili uporabnike, ki ne želijo sodelovati v rezultatih.

Še vedno pa lahko samo upamo, da bo nekdo poskusil podoben poskus kmalu, z jasnejšimi očmi in bolj realističnim pričakovanjem grdih pomanjkljivosti kolektivne zavesti človeštva. Toda če želimo umetno inteligenco za posnemanje človeške misli, moramo biti pripravljeni slišati nekaj stvari, ki niso nujno lepe.

$config[ads_kvadrat] not found