Trolling socialnih medijev: Kako A.I. Postaja boljši pri predvidevanju shitposts

$config[ads_kvadrat] not found

VIDEOS RANDOM v42 | SHITPOSTING RANDOM | MEMES COMPILATION | UZAKI RANDOM SHITPOTS

VIDEOS RANDOM v42 | SHITPOSTING RANDOM | MEMES COMPILATION | UZAKI RANDOM SHITPOTS
Anonim

Internet je hellscape, ki ga vodijo trolovi in ​​ga obvladujejo jalovi argumenti na Facebooku ali slabše. Medtem ko so družbeni medijski giganti po vsem svetu končno, brez skrbi, začeli uvajati močnejša prizadevanja, da bi odvrnili od ponižujočega dialoga, so te rešitve ponavadi reaktivne, z drugimi besedami, ko je škoda že storjena.

Zato ne sme biti presenečenje, da raziskovalci umetne inteligence želijo razviti sisteme, ki jih lahko predvideti spletni argument, preden se to zgodi. Toda, kot je nedavno pojasnila skupina raziskovalcev na Univerzi Cornell Inverse, Ta nujno potrebna inovacija ni daleč od tega, da bi poskušali povedati prihodnost.

»V preteklosti je bilo delo na področju odkrivanja toksičnosti komentarja,« pravi računalniška znanost. Jonathan Chang. »Naš cilj je nekoliko drugačen, želimo vedeti, ali je mogoče predvideti, ali bo nekdanji civilni pogovor nekje v prihodnosti izginil. Če želite raziskati to vprašanje, poglejmo pogovore med urejevalniki Wikipedije, od katerih nekateri ostajajo civilni, drugi pa se izogibajo."

Chang in njegovi sodelavci so analizirali na stotine sporočil, ki so jih poslali včasih enostavno razdraženi kuratorji Wikipedije. Nato so uporabili 1.270 pogovorov, ki so naredili ofenzivni obrat, da bi učili model strojnega učenja, da bi avtomatizirali to vrsto moderiranja. Njihovi rezultati so bili objavljeni v dokumentu, ki je bil predstavljen na letnem srečanju Združenja za računalniško jezikoslovje 15. julija.

Torej, kako naj se "umirimo" bot? Na srečo ni preveč pokvarjen. Na koncu je bila 65-odstotna natančna, nekoliko nižja od 72-odstotne uspešnosti ljudi. Raziskovalci so ugotovili, da je ta statistika ustvarila spletni kviz, kjer so ljudje lahko preizkusili svoje sposobnosti za moderiranje komentarjev. Izkazalo se je, da je precej težko ugotoviti, ali bodo uporabniki socialnih medijev bodisi divji ali ostali civilni.

"Ideja je pokazati, da je naloga težka, vendar ne nemogoča - če bi ljudje dobili samo 50-odstotno natančnost, na primer, to ne bi bilo nič boljše kot naključno ugibanje in ne bi bilo razloga, da bi mislili, da bi lahko trenirali stroj za opravljanje bolje, ”pravi Chang. "Če primerjamo naš model s človeškimi odzivi, smo dobili nekaj vpogleda v to, kako podoben ali različen je naš računalniški pristop za človeško intuicijo."

Čang ne verjame, da bo to osvobodilo internetni pogovor o smeti, vendar ga vidi kot način za pomoč moderatorjem socialnih medijev. Namesto da bi morali biti pozorni na milijone komentarjev, ki jih lahko objavimo na dan, lahko njihov algoritem identificira na stotine tistih, ki so v nevarnosti, da se spremenijo v argument.

Čeprav bi lahko pomislili, da bi česanje skozi vse te potencialno nepredvidljive prepire povzročilo Changu žalost, pravi znanstvenik, da mu je izkušnja dejansko dala upanje za človeštvo.

"V teh dneh je veliko spletnih pesmi v pesimizmu, toda tukaj vidimo, da tudi v primerih, ko se pogovor začne na neprijazen način, še vedno obstaja možnost, da se udeleženci pomislijo, spremenijo svoje in pogovor postavite na pot za boljši rezultat, «pravi. "Prihodnost ni v kamnu."

Mogoče pa obstaja upanje za internet.

$config[ads_kvadrat] not found