Perfektné falošné videá rozpozná umelá inteligencia
Perfektné falošné videá rozpozná umelá inteligencia

Video: Perfektné falošné videá rozpozná umelá inteligencia

Video: Perfektné falošné videá rozpozná umelá inteligencia
Video: R.I.P. 13 Hollywood Western Stars Who DIED Too Young! THE UNLUCKY 13! All True! More Western Stars! - YouTube 2024, Apríl
Anonim
V Anglicku sa začína premiéra opery o otrave Litvinenkom
V Anglicku sa začína premiéra opery o otrave Litvinenkom

Pred rokom Stanfordov Manish Agrawala pomohol vyvinúť technológiu synchronizácie pier, ktorá umožnila redaktorom videa meniť slová rečníkov takmer nepostrehnuteľne. Tento nástroj mohol ľahko vložiť slová, ktoré človek nikdy nehovoril, dokonca ani do polovice vety, alebo vymazať slová, ktoré povedal. Všetko bude vyzerať realisticky voľným okom a dokonca aj pre mnohé počítačové systémy.

Tento nástroj výrazne zjednodušil opravu chýb bez opätovného snímania celých scén a taktiež prispôsobil televízne relácie alebo filmy pre rôzne publikum na rôznych miestach. Táto technológia však tiež vytvorila nové znepokojujúce príležitosti pre ťažko dostupné falošné videá s jasným úmyslom prekrútiť pravdu. Nedávne republikánske video napríklad použilo drsnejšiu techniku na rozhovor s Joeom Bidenom.

Toto leto Agrawala a kolegovia zo Stanfordu a UC Berkeley predstavili prístup založený na umelej inteligencii k technológii synchronizácie pier. Nový program presne detekuje viac ako 80 percent falzifikátov a rozpoznáva najmenšie rozdiely medzi zvukmi ľudí a tvarom ich úst.

Agrawala, riaditeľ Stanfordského inštitútu pre mediálne inovácie a profesor počítačových vied na Forest Baskett, ktorý je tiež súčasťou Stanfordského inštitútu pre umelú inteligenciu zameranú na človeka, však varuje, že neexistuje dlhodobé technické riešenie hlbokých falzifikátov.

Ako fungujú falzifikáty

Manipulácia s videom má svoje oprávnené dôvody. Každý, kto napríklad nakrúca fiktívnu televíznu šou, film alebo reklamu, môže ušetriť čas a peniaze tým, že pomocou digitálnych nástrojov opraví chyby alebo prispôsobí skripty.

Problém nastáva, keď sa tieto nástroje zámerne používajú na šírenie nepravdivých informácií. A mnohé z techník sú pre bežného diváka neviditeľné.

Mnoho hlbokých falošných videí sa spolieha na výmenu tváre a doslova prikrýva tvár jednej osoby na video inej osoby. Napriek tomu, že nástroje na zmenu tváre môžu byť presvedčivé, sú relatívne hrubé a zvyčajne zanechávajú digitálne alebo vizuálne artefakty, ktoré počítač dokáže zistiť.

Na druhej strane technológie synchronizácie pier sú menej viditeľné, a preto je ťažšie ich zistiť. Manipulujú s oveľa menšou časťou obrazu a potom syntetizujú pohyby pier, ktoré presne zodpovedajú tomu, ako by sa v skutočnosti pohybovali ústa človeka, keby hovoril určité slová. Podľa Agrawala, vzhľadom na dostatok ukážok imidžu a hlasu osoby, môže falošný producent prinútiť človeka „povedať“čokoľvek.

Detekcia falzifikátov

V obave z neetického používania takejto technológie spolupracoval Agrawala s doktorom doktoranom zo Stanfordu Ohadom Freedom na vývoji detekčného nástroja; Hani Farid, profesor Kalifornskej univerzity v Berkeley School of Information; a Shruti Agarwal, doktorandka z Berkeley.

Vedci najskôr experimentovali s čisto manuálnou technikou, pri ktorej pozorovatelia študovali videozáznamy. Fungovalo to dobre, ale v praxi to bolo náročné na prácu a čas.

Vedci potom testovali neurónovú sieť založenú na umelej inteligencii, ktorá by po školení o videu s bývalým prezidentom Barackom Obamom urobila rovnakú analýzu oveľa rýchlejšie. Neurónová sieť detekovala viac ako 90 percent Obamovej vlastnej synchronizácie pier, aj keď presnosť pre ostatných reproduktorov klesla na zhruba 81 percent.

Skutočný test pravdy

Vedci tvrdia, že ich prístup je len súčasťou hry na mačky a myši. Ako sa techniky hlbokého falšovania zlepšujú, zanechajú ešte menej kľúčov.

V konečnom dôsledku, hovorí Agrawala, skutočným problémom nie je ani tak boj proti hlboko falošným videám, ako boj proti dezinformáciám. V skutočnosti poznamenáva, že väčšina dezinformácií vzniká skreslením významu toho, čo ľudia skutočne povedali.

"Aby sme znížili dezinformácie, musíme zlepšiť mediálnu gramotnosť a vyvinúť systémy zodpovednosti," hovorí. "To môže znamenať zákony zakazujúce úmyselné vytváranie dezinformácií a dôsledky ich porušovania, ako aj mechanizmy na odstránenie následnej ujmy."

Odporúča: