Naša A.I. Politika je ostala v preteklosti

$config[ads_kvadrat] not found

НОВОСТИ СНОВА ВРУТ ПРО США. ЧТО БУДЕТ В АМЕРИКЕ ПОСЛЕ ВЫБОРОВ

НОВОСТИ СНОВА ВРУТ ПРО США. ЧТО БУДЕТ В АМЕРИКЕ ПОСЛЕ ВЫБОРОВ
Anonim

Ed Felten, namestnik ameriškega vodje za tehnologijo v Beli hiši za znanost in tehnologijo, pravi, da imajo ljudje dve odgovornosti, ko gre za razvoj in razvoj umetne inteligence.

Prvi, pravi, je, da "izkoristi prednosti A.I. drugi: "obravnavati tveganja A.I."

Felten se je pogovarjal s sobno sobo v centru za tekmovalne umetnosti Univerze v New Yorku pri A.I. Zdaj - serija poletnih predavanj, ki jo je podprla Bela hiša in je poskušala preučiti in razpravljati o ključnih vprašanjih, povezanih s prihodnostjo A.I. tehnologije.

A.I. je na razpotju, A.I. Sedaj sta sopredsedujoča Kate Crawford (raziskovalka pri Microsoft Research) in Meredith Whittaker (ustanoviteljica in vodja za Google Open Research). Zasebni in javni sektor morajo sodelovati, da bi ustvarili neke vrste izvedljivo A.I. politike. Težava pa je v tem, da medtem ko tehnološka podjetja veliko napredujejo v smeri razvoja dejanskega kodeksa in arhitekture, ki se je začela razvijati A.I. vse močne sile so naše sedanje politične strukture zastarele ali, kar je še huje, neobstoječe.

Predolgo, A.I. je bil zavržen kot futuristični koncept, ki ni primeren za moderno dobo. Toda A.I. se je tiho manifestirala v urbano politiko, prenašala množice podatkov in ponudila storitve ljudem na način, ki ga človeška moč ne more nikoli doseči. Felten je navedel primere, kako lahko algoritmi uporabijo podatke za povezovanje ljudi s cenovno dostopnimi stanovanji ali uveljavijo preglednost, tako da ima javnost dostop do dragocenih informacij.

To ne pomeni, da je A.I. je popoln; zelo veliko ne. Med glavnim panelom za večer, Latanya Sweeney, A.I. raziskovalec na Univerzi Harvard, je razpravljal o zgodbi, ki jo je imenovala "Dan, ko je bil moj računalnik rasističen."

Novinarka, ki je intervjuvala Sweeneyja, je po Googlu preiskala njeno ime in ugotovila, da se njeno ime pojavlja pod oglasi za spletna mesta, ki ponujajo zbiranje in posredovanje podatkov o kaznivih dejanjih. Sweeney ni bila nikoli aretirana, njeno ime pa ni bilo niti del podatkovne zbirke spletne strani - vendar je bilo njeno ime v oglasu vidno zaprto. Kot vsak dober znanstvenik je Sweeney vzel svoje osebne izkušnje in opravil študijo ter ugotovil, da je pri teh oglasih veliko večja verjetnost, da bodo našteli imena črnih posameznikov kot bele osebe. Razlog? Googlova dostava teh oglasov je rezultat algoritma, ki daje večjo težo temu, kar so ljudje kliknili pri prikazovanju oglasov. Ko je bilo črno ime Googled, je več ljudi kliknilo na te oglase. Sistem se je naučil vzorec in začel uresničevati te oglase.

To je dragocena lekcija za utemeljitev obljube A.I.: ljudje na koncu močjo tehnologijo, rasistična dejanja ljudi lahko vplivajo na oblikovanje in algoritme in, da, celo A.I.

Google lahko zlahka zazna te pristranskosti v svojih oglasnih storitvah in jih popravi. »Odločili so se, da ne bodo,« je trdil Sweeney.

Ali bi lahko sodobnejši politični okvir Google prisilil k sanaciji te težave? Mogoče. Nicole Wong, ki je bila od leta 2013 do 2014 Feltenov predhodnik, je poudarila, da veliko ljudi - vključno z A.I. raziskovalci sami - so resnično zaskrbljeni zaradi »naraščajoče asimetrije na oblasti« med ljudmi, ki uporabljajo velike podatke, in osebami, ki so na koncu prizadete, ki so segale od subjektov podatkov ali tistih, ki so jih prizadele odločitve, ki jih sporočajo taki podatki.

Te skrbi niso omejene samo na zasebni sektor. Roy Austin, namestnik pomočnika predsednika v Svetu za notranjo politiko v Beli hiši, se je dotaknil, kako bi lahko A.I. - ali ustvariti ogromno prekoračitev moči in zlorab, ko gre za zasebnost civilistov. "Vprašanje se glasi:" Kaj bomo naredili s temi podatki? ", Je dejal. Ena stvar je imeti podatke, a kdo ima dostop do njih? Kako dolgo? Kdo bo imel dostop do njega? Še enkrat, nimamo odgovorov na politiko ali rešitev teh vprašanj in negotovosti - in to je zaskrbljujoče, saj se vedno bolj usmerjamo v prihodnost pod nadzorom A.I.

Tretji steber, ki je zaskrbljen, je imel manj opraviti z zlobnimi uporabami A.I. in bolj s tem, kako A.I. in avtonomni sistemi izrinjajo ljudi iz delovnih mest. Henry Siu, A.I. Raziskovalec na Univerzi v Britanski Kolumbiji je razpravljal o "rutinskih" poklicih (kjer zaposleni opravljajo zelo specifičen sklop nalog, ki skoraj nikoli ne odstopajo od določene rutine), in kako so te izgube delovnih mest najbolj ranljive za motnje v tehnologiji. Avtomatizacija je pri teh delovnih mestih povzročila hudo krčenje - in se ne vračajo.

Sliši se kot ista stara zgodba o industrializaciji, vendar ni povsem. Medtem ko je »ta revolucija morda že tu… je morda manj eksotična, kot smo si zamislili,« je opozoril David Edelman, posebni pomočnik predsednika za ekonomsko in tehnološko politiko. Izguba delovnega mesta se ne bo zgodila naenkrat. Oba on in Siu sta poudarila, da je rešitev ustvariti vzgojno ozračje, kjer ljudje ne prenehajo hoditi v šolo in nenehno pridobivajo nova znanja in spretnosti, ki jim omogočajo prilagoditev. z tehnologije.

Za oblikovalce politik je lahko vtis, da se zavedajo, da Združene države same ne rešujejo teh vprašanj. Toda če namerava Amerika še naprej voditi pot za A.I., mora to storiti na političnem prizorišču.

Mustafa Suleyman, soustanovitelj podjetja Google DeepMind, je razpravljal o možnostih za A.I. pomoč zdravstvenim sistemom in omogočanje zdravnikom na strojnih algoritmih za diagnozo nekaterih bolezni in bolezni - sprostitev časa za ljudi, da pripravijo metode zdravljenja. Za Suleymana, ki je britanski, se ni zdelo, da bi bil takšen sistem vzpostavljen v bolnišnicah. Sweeney pa je poudaril, da "v ZDA nimate nadzora nad lastnimi podatki" - ni regulativnih ukrepov, ki bi zagotovili, da se informacije ne zlorabljajo. In to je a ogromno problem.

"Želim, da vse, kar lahko iztisnem iz vsakega uspeha tehnologije," je dejal Sweeney. »Problem ni tehnološka stran; problem je v tem, da nismo v koraku z javno politiko."

$config[ads_kvadrat] not found