Viz.Ai Hands-on Demo
Pri prepoznavanju eksistencialnih groženj, ki jih predstavljajo tehnološke inovacije, popularna domišljija prikliče vizije Terminator, Matrica, in Jaz, Robot - distopije, ki jih vodijo roboti roboti, ki množično izkoriščajo in iztrebljajo ljudi. V teh špekulativnih prihodnostih kombinacija super-inteligence in zlih namenov vodi računalnike, da uničijo ali zasužnjijo človeško raso.
Vendar pa nova študija kaže, da bodo banalne aplikacije A.I. to bo povzročilo resne družbene posledice v naslednjih nekaj letih. Poročilo - »Zlonamerna uporaba umetne inteligence«, ki ga je sestavilo 26 raziskovalcev in znanstvenikov iz elitnih univerz in tehnološko usmerjenih možganskih možganov, opisuje načine, na katere je sedanje A.I. tehnologije ogrožajo našo fizično, digitalno in politično varnost. Da bi se njihova študija osredotočila, je raziskovalna skupina obravnavala samo tehnologijo, ki že obstaja ali pa se bo verjetno zgodila v naslednjih petih letih.
Kaj je ugotovila študija: A.I. sistemi bodo verjetno razširili obstoječe grožnje, uvedli nove in spremenili njihov značaj. Teza poročila je, da bo tehnološki napredek olajšal in naredil nekaj napak. Raziskovalci trdijo, da so izboljšave v A.I. zmanjšal obseg virov in strokovnega znanja, potrebnega za izvajanje nekaterih kibernetskih napadov, s čimer bi učinkovito zmanjšali ovire za kriminal:
Stroški napadov se lahko zmanjšajo zaradi razširljive uporabe sistemov umetne inteligence za opravljanje nalog, ki običajno zahtevajo človeško delo, obveščevalne podatke in strokovno znanje. Naravni učinek bi bil razširiti nabor akterjev, ki lahko izvajajo določene napade, stopnjo, po kateri lahko izvajajo te napade, in niz potencialnih tarč.
Poročilo vsebuje štiri priporočila:
1 - Oblikovalci politik morajo tesno sodelovati s tehničnimi raziskovalci, da bi raziskali, preprečili in ublažili morebitne zlonamerne uporabe aviarne influence.
2 - Raziskovalci in inženirji umetne inteligence bi morali resno obravnavati naravo dvojne rabe svojega dela, s čimer bi omogočili zlorabo, ki vpliva na raziskovalne prednostne naloge in norme, ter proaktivno doseganje ustreznih akterjev, kadar so predvidene škodljive aplikacije.
3 - Na področju raziskav je treba opredeliti najboljše prakse z bolj zrelimi metodami za obravnavanje težav z dvojno rabo, kot je računalniška varnost, in uvožene, kadar je to primerno, v primeru AI.
4 - Aktivno si prizadevati za razširitev kroga zainteresiranih strani in strokovnjakov s področja, ki so vključeni v razprave o teh izzivih
Kako A.I. trenutne prevare lahko izboljša: Na primer, napadi s podvodnim phishingom, v katerih se umetniki predstavljajo za prijatelja, družinskega člana ali kolega ciljnika, da bi pridobili zaupanje in pridobili informacije in denar, so že grožnja. Danes pa potrebujejo veliko porabo časa, energije in strokovnega znanja. Kot A.I. sistemi se povečajo v prefinjenosti, nekatere dejavnosti, potrebne za napad s podvodnim phishingom, kot je zbiranje informacij o cilju, so lahko avtomatizirane. Fišer bi potem lahko v vsako premostitev vložil bistveno manj energije in ciljal več ljudi.
In če se prevaranti začnejo povezovati z A.I. v njihovo spletno prepletanje lahko postane nemogoče razlikovati realnost od simulacije. »Ko se AI razvija še naprej, lahko prepričljivi chatboti izzovejo človeško zaupanje z vključevanjem ljudi v daljše dialoge in se lahko sčasoma vizualno maskirajo kot druga oseba v video klepetu,« je zapisano v poročilu.
Videli smo že posledice strojno generiranega videa v obliki Deepfakesa. Ker te tehnologije postajajo bolj dostopne in uporabniku prijazne, raziskovalci skrbijo, da bodo slabi igralci razširjali izdelane fotografije, videe in zvočne datoteke. To bi lahko imelo za posledico zelo uspešne kampanje obrekovanja s političnimi posledicami.
Poleg tipkovnice: In potencialne zlorabe niso omejene na internet. Ko se premikamo proti sprejetju avtonomnih vozil, bi lahko hekerji uporabili navzkrižne primere, s katerimi bi se zavajali avtomobili z lastnim vozništvom v napačno razumevanje njihove okolice. »Podoba stop znaka z nekaj pikami, ki se je spremenila na specifičen način, ki bi jo ljudje zlahka prepoznali kot sliko znaka stop, bi lahko kljub temu napačno klasificirali kot nekaj povsem v sistemu AI,« je zapisano v poročilu.
Druge grožnje vključujejo avtonomne brezpilotne zrakoplove z integrirano programsko opremo za prepoznavanje obrazov za namene ciljanja, usklajene napade DOS, ki posnemajo človeško vedenje, in avtomatizirane, hiper-personalizirane kampanje za dezinformacije.
Poročilo priporoča, da raziskovalci razmislijo o morebitnih zlonamernih aplikacijah A.I. teh tehnologij. Če se ustrezni obrambni ukrepi ne uvedejo, bomo morda že imeli tehnologijo za uničevanje človeštva, ne potrebujejo robotov za morilce.
Skupina živali ima nov singl. Ali moramo biti pozorni?
Sledil je precej soliden live album in solo album Pande Beara Panda Bear se srečuje z Grim Reaperjem in EP Crosswords od tega leta, Baltimorski avtohtoni bend… mislim, kolektivni Animal Collective je danes objavil, da lahko pričakujemo od njih nov album v Februar. Z izdajami skupine in studijskim albumom ...
'Sovražna osmica' je bila posneta s 70mm filmom. Ali moramo biti pozorni?
Ko se v gledališču zasvetijo izbrane gledalce, ki bodo gledali film novega filma Hateful Eight režiserja Quentina Tarantina, ko bo ta božič objavljen, bodo videli nekaj, kar že skoraj 40 let ni bilo na zaslonu v novem filmu. To nima nič skupnega s Tarantinovim ikonskim hitrim tempom ...
"Top Gear" bi morala biti "House of Cars" in bi morala biti na Netflix
Mirror, eden od zanesljivejših tabloidov v Londonu, poroča o govoricah iz tabora Jeremy Clarkson, da bi "Top Gear" lahko vodil v Netflix. BBC, ki je odpustil Clarksona za fizično napadanje proizvajalca v incidentu, povezanem z zrezkom, nadzira blagovno znamko, ne pa nadarjenosti, zato je Rich ...