Deepfakes ne ustrezajo strojnemu učenju - Here's Why

$config[ads_kvadrat] not found

101 odlični odgovori na najtežja vprašanja na razgovoru

101 odlični odgovori na najtežja vprašanja na razgovoru

Kazalo:

Anonim

Nova oblika napačnih informacij se bo razširila prek spletnih skupnosti, ko se bodo vmesne volilne kampanje leta 2018 povečale. Po psevdonimnem spletnem računu, ki je populariziral tehniko, ki je morda izbrala svoje ime, imenovana »deepfakes«, ki je uporabila tehnično metodo, imenovano »globoko učenje«, so ti lažni videi zelo realistični.

Doslej so ljudje uporabljali videoposnetke v pornografiji in satiri, da bi pokazali, da slavni ljudje delajo stvari, ki jih ne bi normalno. Vendar pa se bodo med sezono kampanje pojavili skoraj določeni globoki luknji, ki naj bi prikazovali kandidate, ki govorijo stvari ali pa se dogaja, da pravi kandidat ne bi bil.

Ker so te tehnike tako nove, imajo ljudje težave pri razlagi razlik med resničnimi videoposnetki in videoposnetki v globokem videzu. Moje delo, s kolegom Ming-Ching Chang in našimi doktorji znanosti. študent Yuezun Li, je našel način, da zanesljivo pove resnične videoposnetke iz videoposnetkov v globokem krogu. To ni trajna rešitev, ker se bo tehnologija izboljšala. Ampak to je začetek in ponuja upanje, da bodo računalniki lahko pomagali ljudem povedati resnico iz fikcije.

Kaj je "Deepfake", Kakorkoli?

Izdelava videa v globokem formatu je zelo podobna prevajanju med jeziki. Storitve, kot je Google Prevajalnik, uporabljajo strojno učenje - računalniško analizo več deset tisoč besedil v več jezikih - za odkrivanje vzorcev besedne rabe, ki jih uporabljajo za ustvarjanje prevoda.

Deepfake algoritmi delujejo na enak način: za pregled gibov obraza ene osebe uporabljajo tip sistema za strojno učenje, imenovano globoka nevronska mreža. Nato sintetizirajo podobe drugega človeka, ki ustvarjajo analogna gibanja. S tem učinkovito ustvarite videoposnetek ciljne osebe, ki se pojavi ali reče stvari, ki jih je oseba, ki je vir podatkov, storila.

Preden lahko pravilno delujejo, globoke nevronske mreže potrebujejo veliko informacij o izvoru, kot so fotografije oseb, ki so vir ali tarča oponašanja. Več slik, ki se uporabljajo za usposabljanje algoritma za globoko luknjo, bolj realistična bo digitalna predstavitev.

Zaznavanje utripanja

V tej novi vrsti algoritma so še vedno pomanjkljivosti. Ena izmed njih je povezana s tem, kako simulirani obrazi utripajo - ali ne. Zdravi odrasli ljudje utripajo nekje med dvema in desetimi sekundami, en utrip pa traja od ene desetine do štiri desetine sekunde. To bi bilo običajno videti v videu osebe, ki govori. Vendar pa to ni tisto, kar se dogaja v mnogih videoposnetkih.

Ko je na obraznih obrazih osebe usposobljen globinski algoritem, je to odvisno od fotografij, ki so na voljo na internetu in jih lahko uporabite kot podatke o vadbi. Tudi za ljudi, ki so pogosto fotografirani, je na spletu na voljo nekaj slik, ki pokažejo zaprte oči. Ne le, da so fotografije takšne redke - ker so oči ljudi odprte večino časa - vendar fotografi običajno ne objavljajo slik, kjer so oči glavnih subjektov zaprte.

Brez slik usposabljanja ljudi, ki utripajo, je manj verjetno, da bodo algoritmi globokega pretvarjanja ustvarili obraz, ki normalno utripa.Ko izračunamo celotno stopnjo utripanja in primerjamo to z naravnim območjem, smo ugotovili, da znaki v videih v globokih fake utripajo veliko manj pogosto kot pravi ljudje. Naša raziskava uporablja strojno učenje za preučevanje odpiranja in zapiranja oči v videih.

Glej tudi: Hollywood ne bo oddajal azijsko-ameriških zvezd, ampak A.I. Strojno učenje lahko

To nam daje navdih za odkrivanje globokih videov. Nato razvijemo metodo za zaznavanje, kdaj oseba v videu utripa. Natančneje, skenira vsak okvir zadevnega videoposnetka, zazna obraze v njem in nato samodejno poišče oči. Nato uporabi drugo globoko nevronsko mrežo, da ugotovi, ali je zaznano oko odprto ali zaprto, z uporabo videza oči, geometrijskih značilnosti in gibanja.

Vemo, da naše delo izkorišča pomanjkljivost v vrsti podatkov, ki so na voljo za usposabljanje globokih algoritmov. Da bi se izognili padcu podobno napako, smo naš sistem trenirali na veliki knjižnici slik odprtih in zaprtih oči. Zdi se, da ta metoda deluje dobro, zato smo dosegli več kot 95-odstotno stopnjo odkrivanja.

To seveda ni zadnja beseda pri odkrivanju globokih piščancev. Tehnologija se hitro izboljšuje, konkurenca med ustvarjanjem in odkrivanjem ponarejenih videov pa je podobna igri šaha. Zlasti lahko bliskavico dodamo videoposnetkom v globini, tako da vključimo slike obraza z zaprtimi očmi ali uporabimo video posnetke za usposabljanje. Ljudje, ki želijo zamenjati javnost, bodo lažje izdelovali lažne videoposnetke - in mi in drugi v tehnološki skupnosti bomo morali še naprej iskati načine, kako jih odkriti.

Ta članek je bil prvotno objavljen na The Conversation by Siwei Lyu. Preberite izvirni članek tukaj.

$config[ads_kvadrat] not found