Viktiga punkter
- Deepfakes representerar ett betydande hot mot vårt samhälle genom att sprida felaktig information, skada rykte med identitetsstöld och potentielt orsaka konflikter med nationell säkerhet som konsekvens.
- Trots att AI-tekniken erbjuder verktyg för att upptäcka deepfakes, är de inte felfria. Mänsklig bedömning spelar en fortsatt avgörande roll i att identifiera dessa manipulationer.
- Både människor och AI-baserade detektionsverktyg har sina egna styrkor och svagheter när det gäller att känna igen deepfakes. Genom att kombinera deras respektive förmågor kan man öka framgången i att upptäcka och minska riskerna med deepfake-tekniken.
Deepfakes skapar hot i alla delar av samhället. Vår förmåga att urskilja falskt innehåll är essentiell för att motverka spridning av desinformation. Men, i takt med att AI-tekniken utvecklas, vem kan vi då lita på för att avslöja deepfakes: människan eller maskinen?
De potentiella riskerna med Deepfakes
Med en ständigt växande AI-teknik blir farorna med deepfakes ett allt större hot. Här följer en snabb sammanfattning av några av de mest betydande riskerna som deepfakes innebär:
- Desinformation: Manipulerade videor och ljudupptagningar kan användas för att sprida falska nyheter och skapa felaktig information.
- Imitation: Deepfakes kan användas för att imitera individer, skada deras rykte eller lura människor i deras bekantskapskrets.
- Nationell säkerhet: Ett tänkbart worst-case scenario med deepfakes är skapandet av fabricerade bilder eller ljud som visar en världsledare initierar en konflikt.
- Samhällsoroligheter: Bedrägliga bilder och ljud kan användas av olika intressenter för att väcka ilska och oroligheter bland specifika grupper.
- Cyberbrott: Cyberkriminella använder sig redan av AI-röstkloning för att rikta in sig på individer med övertygande meddelanden från personer de känner.
- Integritet och samtycke: Skadlig användning av deepfakes tar individernas identitet utan deras tillåtelse.
- Tillit: Om vi inte kan urskilja sanning från falskhet, kommer trovärdigheten för korrekt information undermineras.
Deepfakes kommer fortsätta att utvecklas och bli mer övertygande. Därför är det viktigt med tillförlitliga verktyg och processer för att kunna upptäcka dem. AI erbjuder ett sådant verktyg genom deepfake-detekteringsmodeller. Men, precis som algoritmer designade för att identifiera AI-genererad text, är även verktygen för deepfake-detektering inte perfekta.
I nuläget är mänsklig bedömning den enda andra pålitliga metoden vi har. Frågan är då, är vi bättre på att upptäcka deepfakes än algoritmer?
Är algoritmer bättre än människor på att upptäcka Deepfakes?
Eftersom deepfakes utgör ett så allvarligt hot, investerar teknikföretag och forskningsgrupper stora summor i forskning och utveckling. Under 2019 erbjöd företag som Meta, Microsoft och Amazon en prissumma på $1 000 000 i en Deepfake Detection Challenge för den bästa modellen för detektering.
Den bäst presterande modellen hade en noggrannhet på 82,56% mot en uppsättning allmänt tillgängliga videoklipp. Men när samma modeller testades mot en ”black box dataset” med 10 000 okända videoklipp, hade den bäst presterande modellen en noggrannhet på endast 65,18%.
Det finns också ett flertal studier som jämför AI-verktygens prestanda med människors förmåga att upptäcka deepfakes. Resultaten varierar från studie till studie, men generellt sett presterar människor antingen lika bra eller bättre än verktygen för deepfake-detektion.
En studie från 2021 publicerad i PNAS visade att vanliga ”mänskliga observatörer” uppnådde en något högre noggrannhet än de ledande verktygen för deepfake-detektering. Studien visade även att människor och AI-modeller var känsliga för olika typer av fel.
En intressant upptäckt från forskning vid University of Sydney är att den mänskliga hjärnan omedvetet är mer effektiv på att upptäcka deepfakes än våra medvetna ansträngningar.
Att identifiera visuella ledtrådar i Deepfakes
Vetenskapen bakom deepfake-detektion är komplex och analysen som krävs beror på materialets karaktär. Till exempel är den uppmärksammade deepfake-videon av Nordkoreas ledare Kim Jong-un från 2020 i grunden en ”talking head” video. I detta fall kan det mest effektiva sättet att upptäcka deepfake vara att analysera visemes (munrörelser) och fonem (fonetiska ljud) för att hitta inkonsekvenser.
Både mänskliga experter, vanliga tittare och algoritmer kan utföra denna typ av analys, även om resultaten varierar. MIT har definierat åtta frågeställningar för att identifiera manipulerade videor:
- Var uppmärksam på ansiktet. Avancerade deepfake-manipulationer involverar nästan alltid ansiktsförändringar.
- Observera kinder och panna. Ser huden för slät eller rynkig ut? Stämmer hudens åldrande överens med åldern på hår och ögon? Deepfakes kan uppvisa avvikelser.
- Granska ögon och ögonbryn. Uppstår skuggor där man förväntar sig? Deepfakes kan ibland misslyckas med att helt efterlikna en scen naturliga fysik.
- Var uppmärksam på glasögon. Finns det någon reflex? Är reflektionen för stark? Ändras vinkeln på reflektionen när personen rör sig? Även här kan deepfakes misslyckas med att helt representera ljusets fysik.
- Kontrollera eventuell ansiktsbehåring. Ser ansiktsbehåringen äkta ut? Deepfakes kan lägga till eller ta bort mustascher, polisonger eller skägg. Däremot kan deepfakes ha problem med att göra förändringarna av ansiktsbehåring helt naturliga.
- Granska eventuella födelsemärken i ansiktet. Ser de äkta ut?
- Observera hur personen blinkar. Blinkar personen lagom mycket, för lite eller för mycket?
- Analysera läpprörelser. Vissa deepfakes är baserade på läppsynkronisering. Ser läpprörelserna naturliga ut?
De senaste AI-verktygen för deepfake-detektion kan analysera samma faktorer, men med varierande resultat. Forskare utvecklar även nya metoder, som att detektera blodflöde i ansikten på personer i videor. Nya tillvägagångssätt och förbättringar kan leda till att AI-verktyg framöver konsekvent överträffar människor i att upptäcka deepfakes.
Att identifiera ljudledtrådar i Deepfakes
Att upptäcka manipulerat ljud är en helt annan utmaning. Utan de visuella ledtrådarna från video och möjligheten att identifiera avvikelser i ljud och bild, är deepfake-detektion starkt beroende av ljudanalys (även andra metoder som verifiering av metadata kan vara hjälpsamma i vissa fall).
En studie som publicerades av University College London år 2023 visade att människor kan upptäcka manipulerat tal 73% av gångerna (engelska och mandarin). Precis som med deepfake-videor, upptäcker mänskliga lyssnare ofta intuitivt onaturliga talmönster i AI-genererat tal, även om de kanske inte kan peka ut exakt vad som känns fel.
Vanliga tecken på deepfake-ljud inkluderar:
- Sluddrande tal
- Brist på variation i röstläget
- Bakgrundsljud eller störningar
- Inkonsekvens i rösten eller talet
- Brist på ”fyllighet” i rösterna
- Överdrivet manusbundet tal
- Brist på naturliga fel (tvekan, rättelser, hostningar etc.)
Algoritmer kan också analysera tal för samma tecken på deepfake, och nya metoder gör dessa verktyg mer effektiva. Forskning av USENIX har identifierat mönster i hur AI återskapar röster, och funnit att dessa inte efterliknar naturligt tal. AI-röstgeneratorer producerar smala ljudkanaler, ungefär som ett sugrör, utan de naturliga rörelserna som sker under mänskligt tal.
Tidigare forskning från Horst Görtz-institutet analyserade äkta och manipulerat ljud på engelska och japanska. Denna avslöjade subtila skillnader i de högre frekvenserna mellan äkta och manipulerat tal.
Både variationerna i röstkanalen och högfrekventa inkonsekvenser kan uppfattas av mänskliga lyssnare och AI-detektionsmodeller. När det kommer till högfrekvensskillnader kan AI-modeller teoretiskt sett bli allt mer precisa. Detsamma kan dock även sägas om AI-deepfakes.
Både människor och algoritmer luras av Deepfakes, men på olika sätt
Studier visar att både människor och de senaste verktygen för AI-detektion har liknande förmåga att upptäcka deepfakes. Framgångsfrekvensen kan variera från 50 % till över 90 %, beroende på hur testerna är utformade.
I förlängningen luras både människor och maskiner av deepfakes i liknande utsträckning. Avgörande är dock att vi är mottagliga på olika sätt, och det kan vara vår största tillgång i hanteringen av deepfake-teknikens risker. Genom att kombinera styrkorna hos både människan och AI-verktygen, kan vi minska nackdelarna med respektive metod och förbättra framgångsfrekvensen.
Till exempel visade forskning från MIT att människor var bättre på att identifiera deepfakes av kända ledare och personer än vad AI-modeller var. Studien visade även att AI-modellerna hade problem med bilder med flera personer, vilket kan bero på att algoritmerna var tränade på video med enstaka talare.
I motsats till detta, visade samma studie att AI-modeller presterade bättre än människor när det gällde bilder av låg kvalitet (suddiga, korniga, mörka etc.), som avsiktligt kan användas för att lura mänskliga tittare. Nya AI-detektionsmetoder, som att övervaka blodflödet i vissa delar av ansiktet, möjliggör analyser som människor inte kan utföra.
I takt med att fler metoder utvecklas kommer AI:s förmåga att upptäcka tecken vi inte kan se att förbättras, men även dess förmåga att lura. Den stora frågan är om deepfake-detektionstekniken kommer att fortsätta ligga steget före deepfakes själva.
Att se saker annorlunda i en tid av Deepfakes
AI-verktygen för deepfake-detektion kommer fortsätta att utvecklas, liksom kvaliteten på själva deepfake-innehållet. Om AI:s förmåga att lura överstiger dess förmåga att upptäcka (vilket är fallet med AI-genererad text), kan mänsklig bedömning vara det enda verktyget vi har kvar för att bekämpa deepfakes.
Vi har alla ett ansvar att lära oss tecknen på deepfakes och hur man upptäcker dem. Utöver att skydda oss mot bedrägerier och säkerhetshot, är all information vi diskuterar och delar online sårbar för desinformation om vi tappar greppet om verkligheten.