A.I. Rapid Advance bi morala biti strašljiva, če ste pozorni

$config[ads_kvadrat] not found

Viz.Ai Hands-on Demo

Viz.Ai Hands-on Demo
Anonim

Pri prepoznavanju eksistencialnih groženj, ki jih predstavljajo tehnološke inovacije, popularna domišljija prikliče vizije Terminator, Matrica, in Jaz, Robot - distopije, ki jih vodijo roboti roboti, ki množično izkoriščajo in iztrebljajo ljudi. V teh špekulativnih prihodnostih kombinacija super-inteligence in zlih namenov vodi računalnike, da uničijo ali zasužnjijo človeško raso.

Vendar pa nova študija kaže, da bodo banalne aplikacije A.I. to bo povzročilo resne družbene posledice v naslednjih nekaj letih. Poročilo - »Zlonamerna uporaba umetne inteligence«, ki ga je sestavilo 26 raziskovalcev in znanstvenikov iz elitnih univerz in tehnološko usmerjenih možganskih možganov, opisuje načine, na katere je sedanje A.I. tehnologije ogrožajo našo fizično, digitalno in politično varnost. Da bi se njihova študija osredotočila, je raziskovalna skupina obravnavala samo tehnologijo, ki že obstaja ali pa se bo verjetno zgodila v naslednjih petih letih.

Kaj je ugotovila študija: A.I. sistemi bodo verjetno razširili obstoječe grožnje, uvedli nove in spremenili njihov značaj. Teza poročila je, da bo tehnološki napredek olajšal in naredil nekaj napak. Raziskovalci trdijo, da so izboljšave v A.I. zmanjšal obseg virov in strokovnega znanja, potrebnega za izvajanje nekaterih kibernetskih napadov, s čimer bi učinkovito zmanjšali ovire za kriminal:

Stroški napadov se lahko zmanjšajo zaradi razširljive uporabe sistemov umetne inteligence za opravljanje nalog, ki običajno zahtevajo človeško delo, obveščevalne podatke in strokovno znanje. Naravni učinek bi bil razširiti nabor akterjev, ki lahko izvajajo določene napade, stopnjo, po kateri lahko izvajajo te napade, in niz potencialnih tarč.

Poročilo vsebuje štiri priporočila:

1 - Oblikovalci politik morajo tesno sodelovati s tehničnimi raziskovalci, da bi raziskali, preprečili in ublažili morebitne zlonamerne uporabe aviarne influence.

2 - Raziskovalci in inženirji umetne inteligence bi morali resno obravnavati naravo dvojne rabe svojega dela, s čimer bi omogočili zlorabo, ki vpliva na raziskovalne prednostne naloge in norme, ter proaktivno doseganje ustreznih akterjev, kadar so predvidene škodljive aplikacije.

3 - Na področju raziskav je treba opredeliti najboljše prakse z bolj zrelimi metodami za obravnavanje težav z dvojno rabo, kot je računalniška varnost, in uvožene, kadar je to primerno, v primeru AI.

4 - Aktivno si prizadevati za razširitev kroga zainteresiranih strani in strokovnjakov s področja, ki so vključeni v razprave o teh izzivih

Kako A.I. trenutne prevare lahko izboljša: Na primer, napadi s podvodnim phishingom, v katerih se umetniki predstavljajo za prijatelja, družinskega člana ali kolega ciljnika, da bi pridobili zaupanje in pridobili informacije in denar, so že grožnja. Danes pa potrebujejo veliko porabo časa, energije in strokovnega znanja. Kot A.I. sistemi se povečajo v prefinjenosti, nekatere dejavnosti, potrebne za napad s podvodnim phishingom, kot je zbiranje informacij o cilju, so lahko avtomatizirane. Fišer bi potem lahko v vsako premostitev vložil bistveno manj energije in ciljal več ljudi.

In če se prevaranti začnejo povezovati z A.I. v njihovo spletno prepletanje lahko postane nemogoče razlikovati realnost od simulacije. »Ko se AI razvija še naprej, lahko prepričljivi chatboti izzovejo človeško zaupanje z vključevanjem ljudi v daljše dialoge in se lahko sčasoma vizualno maskirajo kot druga oseba v video klepetu,« je zapisano v poročilu.

Videli smo že posledice strojno generiranega videa v obliki Deepfakesa. Ker te tehnologije postajajo bolj dostopne in uporabniku prijazne, raziskovalci skrbijo, da bodo slabi igralci razširjali izdelane fotografije, videe in zvočne datoteke. To bi lahko imelo za posledico zelo uspešne kampanje obrekovanja s političnimi posledicami.

Poleg tipkovnice: In potencialne zlorabe niso omejene na internet. Ko se premikamo proti sprejetju avtonomnih vozil, bi lahko hekerji uporabili navzkrižne primere, s katerimi bi se zavajali avtomobili z lastnim vozništvom v napačno razumevanje njihove okolice. »Podoba stop znaka z nekaj pikami, ki se je spremenila na specifičen način, ki bi jo ljudje zlahka prepoznali kot sliko znaka stop, bi lahko kljub temu napačno klasificirali kot nekaj povsem v sistemu AI,« je zapisano v poročilu.

Druge grožnje vključujejo avtonomne brezpilotne zrakoplove z integrirano programsko opremo za prepoznavanje obrazov za namene ciljanja, usklajene napade DOS, ki posnemajo človeško vedenje, in avtomatizirane, hiper-personalizirane kampanje za dezinformacije.

Poročilo priporoča, da raziskovalci razmislijo o morebitnih zlonamernih aplikacijah A.I. teh tehnologij. Če se ustrezni obrambni ukrepi ne uvedejo, bomo morda že imeli tehnologijo za uničevanje človeštva, ne potrebujejo robotov za morilce.

$config[ads_kvadrat] not found