Att upptÀcka Deepfakes kan betyda lÀslÀppar

Att upptÀcka Deepfakes kan betyda lÀslÀppar

LAS VEGAS – Deepfake-videor var roliga i cirka 10 sekunder, och sedan insĂ„g vi alla de fruktansvĂ€rda konsekvenserna. Hur kan mĂ€nniskor berĂ€tta vad som Ă€r riktigt och vad inte nĂ€r de inte kan lita pĂ„ sina ögon?

Black Hat Bug Art

PÄ Black Hat hÀr presenterade ZeroFox-forskare sina tekniker för att identifiera djupa falska videor. CTO Mike Price sprang igenom deepfakes historia och överlagrade processen som anvÀndes för att skapa dem. ZeroFox forskningsingenjör Matt Price (ingen relation) sprang sedan igenom tillgÀngliga detekteringsverktyg och deras respektive nackdelar innan han introducerade sina egna.

Hur Deepfakes görs

Som en uppfriskning Àr en deepfake en video skapad med artificiell intelligens. Tekniken analyserar video av en individ för att skapa ett nytt och övertygande klipp av dem. Resultaten kan vara underhÄllande men ocksÄ lÀskiga, eftersom det Àr möjligt att snabbt skapa falska videor som enkelt kan delas online.

För sin del anser Mike Price att termen “deepfake” missbrukas och har vuxit till att omfatta alla manipulerade videor. Han presenterade en mycket mer exakt definition: En video dĂ€r en persons ansikte har bytts mot en annan persons ansikte. Denna process innefattar att mata bilder av de tvĂ„ mĂ„lpersonerna i en djupinlĂ€rningsalgoritm för att trĂ€na den för att byta ansikten och sedan anvĂ€nda den informationen för att ansiktsbyta en tredje video.

Mike Price pÄpekade hur priset för att skapa och distribuera en djupfake Àr trivialt vid denna tidpunkt. James Foster, VD pÄ ZeroFOX, diskuterade tidigare det potentiella hotet med djupa förfalskningar i en presentation av RSAC 2019 om valpÄverkande kampanjer. Vid den tiden redogjorde Foster för sin oro över kostnaden för att identifiera djupa falska videor; de Àr billiga att skapa men mycket svÄra att identifiera och ta bort automatiskt.

Deepfakes Ă€r helt klart mogna för anvĂ€ndning i smetkampanjer, men Mike Price tror att det fortfarande Ă€r ett framtida hot. “Av alla kĂ€nda offentliga förfalskningar vi kĂ€nner till har ingen av dem Ă€nnu anvĂ€nts för skadliga [purposes]. “Denna reporter skulle hĂ€vda att pornografiska förfalskningar Ă€r skadliga.

För att visa hur deepfakes kan anvÀndas i en skadlig desinformationskampanj skapade Mike Price ett verktyg som automatiskt skapar och distribuerar deepfakes. Med hjÀlp av ett godartat exempel pÄ en djupt falsk video dÀr rep Adam Schiff uttryckte sin kÀrlek till valpar visade Mike Price hur det kunde redigeras om sÄ det sÄg ut som ett Fox News-, CNN- eller MSNBC-segment. Hans verktyg kan sedan automatiskt ladda upp och distribuera videon via e-post och SMS.

Den sista vektorn Ă€r en som Mike Price tror kan vara mycket effektiv och det kommer till hans grundlĂ€ggande frĂ„ga: “Om nĂ„gon gjorde ett lite bĂ€ttre jobb med dessa videoklipp och distribuerade dem inför valet, skulle vi dĂ„ vara rustade att hantera det? ” Han tror inte det.

Hur man upptÀcker en Deepfake

Att göra en djupfake Ă€r billigt och enkelt, men att upptĂ€cka dem Ă€r mycket svĂ„rare. “En av de första punkterna jag vill göra: mĂ€nniskor Ă€r hemska detektionsmaskiner”, sĂ€ger Matt Price. Han citerade en studie som heter FaceForensics, som fann att mĂ€nniskor bara kunde identifiera riktiga bilder 80 procent av tiden.

“I bĂ€sta fall kunde mĂ€nniskor identifiera dessa förfalskningar med en hastighet pĂ„ 75 procent och i vĂ€rsta fall med en hastighet pĂ„ 40 procent”, sĂ€ger Matt Price. “Den armĂ©n av mĂ€nskliga analytiker som du kommer att distribuera för att upptĂ€cka djupa förfalskningar kommer inte att fungera.”

Maskiner, Ă„ andra sidan, kan göra ett bĂ€ttre jobb, men bara under vissa förhĂ„llanden. Matt Price skisserade flera metoder för att identifiera falska videor. Fysiologiska element, som att blinka eller andas, kan hjĂ€lpa till, men de kan ocksĂ„ maskeras helt enkelt genom att lĂ€gga till mer varierande bilder i deepfake-algoritmen. Att undersöka PRNU-mönster i bilder – som Ă€r brister unika för ljussensorn för specifika kameramodeller – fungerar ocksĂ„, men nĂ€r flera kameravinklar Ă€r inblandade blir det mindre anvĂ€ndbart. Och eftersom ansiktselement mĂ„ste snedvrids och omjusteras i djupa förfalskningar, kan artefakter eller feljusteringar i ansiktssymmetri ocksĂ„ vara anvĂ€ndbara för att upptĂ€cka djupa förfalskningar.

Ett lovande verktyg som Matt Price har identifierat Ă€r Recurrent Neural Networks, som kan utbildas för att identifiera inkonsekvenser i ljusförhĂ„llanden, skuggor, reflektioner eller till och med det djupt förfalskade ansiktet. Detta fungerar eftersom deepfake-algoritmer fungerar ram för ram men inte “kommer ihĂ„g” vad som skapats för tidigare bilder.

Matt Price förklarade ocksÄ hur detektionsmodeller kunde skrÀddarsys för individer, sÄsom högprofilerade politiker som sannolikt kommer att bli djupt förfalskade. Den hÀr metoden Àr sÀrskilt anvÀndbar, eftersom detektionsmodellen kan utbildas med endast autentiska bilder, snarare Àn att behöva blanda i djupa förfalskningar. Nackdelen Àr naturligtvis att den bara fungerar för en person och inte kan generaliseras.

Medan var och en av dessa detektionsmetoder har fördelar och nackdelar, delar de alla en universell brist: nĂ€r kvaliteten pĂ„ videon gĂ„r ner, sĂ„ gör detekteringsgraden ocksĂ„. “Mer Ă€n troligt kommer du att ha tillgĂ„ng till den komprimerade videon”, sĂ€ger Matt Price. Det beror pĂ„ att för en djupfake att vara effektiv, mĂ„ste den komprimeras och delas pĂ„ olika plattformar. Andra saker som utlöser djupfalsdetektering Ă€r nĂ€r bara en liten del av videon har bluffats, eller bara en person i en grupp mĂ€nniskor Ă€r förfalskad.

Deepfake filmstjÀrna

Med tanke pĂ„ alla dessa begrĂ€nsningar ville Matt Price hitta en enda lösning som kunde hitta den falska över alla typer av djupfakes. Resultatet Ă€r Mouthnet, ett verktyg som bara tittar pĂ„ munnen. Det borde fungera, teoretiserade Matt Price, för en djupfake behöver redigera mĂ„lets mun för att fĂ„ dem att sĂ€ga nĂ„got. “Du fĂ„r inte röra ögonen, du fĂ„r inte röra nĂ€san, du mĂ„ste röra munnen,” förklarade han.

Med hjÀlp av 200 deepfake-videor för trÀning satte han sin modell mot 100 videor som inte anvÀndes i trÀning; 41 procent av deepfakes upptÀcktes, men 10 procent felklassificerades. Av de enskilda bilderna frÄn videor identifierade Mouthnet förfalskningarna 53 procent av tiden. Det Àr inte kÀftande resultat, men Matt Price sÀger att datasetet var sÀrskilt svÄrt, sÄ han Àr glad. Med tiden planerar han att förbÀttra modellen med ytterligare maskininlÀrningstrÀning.

För att ta itu med hotet frĂ„n deepfakes slĂ€pper ZeroFox ett verktyg som heter Deepstar, som “automatiserar nĂ„gra av de arbetsintensiva uppgifter som krĂ€vs”, sa företaget i ett blogginlĂ€gg. “Till exempel kan den ta tag i video frĂ„n innehĂ„llswebbplatser, ta bilder frĂ„n video som krĂ€vs för att trĂ€na eller omskola djupinlĂ€rningsklassificeringsapparater, utföra nödvĂ€ndiga omvandlingar pĂ„ dessa ramar som ansiktsuttag och automatisera testning och poĂ€ngsĂ€ttning av nya detektionsmodeller, för att nĂ€mna nĂ„gra funktioner. “

ZeroFox slÀpper ocksÄ Mouthnet tillsammans med andra verktyg.

“Med lanseringen av Deepstar kommer forskare och försvarare att ha ett extra verktyg i sin verktygslĂ„da för att hjĂ€lpa till att effektivisera processen med djupfalsdetekteringsforskning,” sa Mike Price i ett pressmeddelande. “Med troligt missbruk av djupa förfalskningar som en del av ett försök att informera allmĂ€nheten felaktigt, ansĂ„g vi att det var viktigt att bidra med vĂ„rt verktygslĂ„da till samhĂ€llet som redan har gjort ett fantastiskt arbete och att hjĂ€lpa försvarare att förbĂ€ttra sin förmĂ„ga att förbereda sig för framtida utmaningar i detta omrĂ„de.”

ZeroFox hoppas att sÀkerhetsgemenskapen kommer att kunna anvÀnda dessa verktyg för att bygga mer anvÀndbara verktyg som kan rensa djupfakes. Deepstar Àr öppen kÀllkod och kommer snart att finnas tillgÀngligt frÄn ZeroFox webbplats.