AI-verktyg kan upptÀcka Deepfakes, men hur lÀnge?

AI-verktyg kan upptÀcka Deepfakes, men hur lÀnge?

Deepfakes – de realistiska, AI-doktrerade videoklippen som visar hĂ€ndelser som aldrig har hĂ€nt – har varit en kĂ€lla till oro i flera Ă„r, och i takt med att tekniken gĂ„r framĂ„t blir detekteringen svĂ„rare.

För nÀrvarande lÀmnar redigerade bilder och videor digitala fingeravtryck som kan upptÀckas med rÀtt verktyg. Forskare vid University of California, Riverside, utvecklade till exempel en AI-algoritm som kan kÀnna igen manipulerade bilder och videor genom att hitta obetydliga artefakter som lÀmnats efter med redigeringsverktyg.

Denna algoritm för djupinlĂ€rning – frĂ„n Amit Roy-Chowdhury, professor i elektroteknik och datateknik och UCR-forskare – hittar avvikelser orsakade av att infoga, ta bort eller manipulera objekt i bilder. Tanken, förklarar Roy-Chowdhury, Ă€r att lokalisera bildmanipulationer. “Vi trĂ€nar ett neuralt nĂ€tverk för att identifiera manipulerade regioner i framtida bilder”, sĂ€ger han.

Utveckla ett “vĂ€ltrĂ€nat neuralt nĂ€t”

Neurala nÀtverk Àr den grundlÀggande komponenten i deep-learning algoritmer. Till skillnad frÄn klassisk programvara, dÀr utvecklare manuellt ger datorer instruktioner, utvecklar neurala nÀtverk sitt beteende genom att analysera och jÀmföra exempel.

Neurala nĂ€tverk Ă€r sĂ€rskilt bra pĂ„ att hitta mönster och klassificera röriga, ostrukturerade data som bilder och videor. NĂ€r du tillhandahĂ„ller ett neuralt nĂ€tverk med tillrĂ€ckligt med exempel pĂ„ en viss typ av bild – en process som kallas “trĂ€ning” – kommer det att kunna hitta liknande funktioner i bilder som den inte har sett tidigare.

“NĂ€r nĂ„gon manipulerar en bild försöker de göra det pĂ„ ett sĂ€tt som inte kan detekteras för det mĂ€nskliga ögat”, sĂ€ger Roy-Chowdhury. “Men vanligtvis pĂ„verkas en del av pixelutrymmet av dessa manipulationer.”

UCR-forskare trÀnade sitt neurala nÀtverk pÄ antecknade bilder som manipulerades med olika verktyg och lÀt det upptÀcka de vanliga pixelmönstren som syns pÄ grÀnserna för de drabbade objekten. Efter trÀning kan AI-modellen markera omrÄden i bilder som innehÄller manipulerade objekt.

FĂ„ngar en Deepfake

För nÀrvarande arbetar djupinlÀrningsmodellen pÄ stillbilder, men samma teknik kan justeras för att upptÀcka djupa förfalskningar och andra tekniker för videomanipulation. Deepfakes Àr i grunden videor dÀr varje ram Àndras för att ersÀtta ett ansikte med ett annat.

“IdĂ©n kan ocksĂ„ anvĂ€ndas för videor. I varje ram finns det en region som har manipulerats, och ett vĂ€lutbildat neuralnĂ€t kan markera det manipulerade omrĂ„det”, sĂ€ger Roy-Chowdhury.

UCR: s neurala nÀtverk Àr ett av flera anstrÀngningar som syftar till att fÄnga djupa förfalskningar och andra bild- och videot manipuleringstekniker. Tidigare i Är utvecklade forskare vid University of Surrey en kombination av blockchain och neurala nÀtverk för att registrera autentiska videor och identifiera manipulerade versioner. Ett annat projekt frÄn University of Albany anvÀnde tvÄ neurala nÀtverk för att upptÀcka syntetiserade videor genom att hitta onaturliga fenomen som oblinkande ögon.

Men nĂ€r igenkĂ€nningsmetoder förbĂ€ttras, förbĂ€ttras ocksĂ„ tekniken för att skapa realistiska smidda bilder och videor. “Detta Ă€r ett katt-och-mus-spel”, sĂ€ger Roy-Chowdhury. “Det Ă€r ett icke-trivialt problem. Oavsett vad vi gör, kommer mĂ€nniskor som skapar dessa manipulationer med nĂ„got annat. Jag vet inte om det nĂ„gonsin kommer att finnas en tid dĂ€r vi kommer att kunna upptĂ€cka alla slags manipulationer.”