Med hjälp av generativ AI är det möjligt att mycket verklighetstroget ändra på en människas ansikte, kropp eller röst så att man kan få henne att göra och säga saker som hon i verkligheten aldrig har gjort eller sagt. Med hjälp av AI är det möjligt att skapa bilder och videor av närmast vad som helst och få dem att se ut som äkta foton eller videor. Den här typen av AI-teknik som härmar verkligheten kallas för deepfake (ibland också djupfejk).
Bakom deepfake ligger djupa neurala nätverk. De är modeller för maskininlärning som imiterar principerna för hur biologiska nervnät fungerar. Den tekniska utvecklingen har gjort stora framsteg under de senaste åren, delvis tack vare GAN-modellen, som presenterades av den amerikanska AI-forskaren Ian Goodfellow och hans team 2014. [i] I modellen har ett neuralt nätverk i uppgift att utvärdera ett annat och att försöka skilja åt människo- och maskinskapat material. På så sätt lär neurala nätverk sig själva.
Målet är att ett generativt nätverk lär sig producera så bra förfalskningar att det utvärderande nätverket inte längre kan skilja dem från äkta material. GAN-modellen har vidareutvecklats till allt kraftfullare deepfake-applikationer, och förfalskningar görs också med andra modeller.
Ofarlig, nyttig och skadlig användning av AI
Deepfake används numera till en uppsjö av olika ändamål från underhållningsindustrin till spridningen av desinformation. Med hjälp av deepfake-tekniken är det möjligt att skapa en digital tvilling av vem som helst, till exempel av en skådespelare som inte längre lever men som man vill ska återvända till vita duken. Tekniken används också i stor utsträckning till exempel på ljudboksmarknaden, där äkta människoröster ersätts av AI-röster som låter lika äkta. I reklambranschen kan det enkelt göras olika versioner av samma reklamfilm på till exempel nio olika språk.
I undervisnings- och inlärningssammanhang kan deepfake-tekniken användas till exempel till att skapa en mer lättsmält AI-podcastversion av en invecklad vetenskaplig artikel (t.ex. med Googles Notebook LM) eller till att skriva ett tal för Martin Luther King, som en AI-version av King läser upp.
Deepfake-tekniken har också gett upphov till mycket ont. Med hjälp av den kan det utan en persons eget samtycke skapas till exempel en sexvideo med personen, som ser autentisk ut, om det finns annat bild- eller videomaterial tillgängligt av hen. Tekniken används också runt om i världen till att skämma ut människor, speciellt kvinnor och flickor. Falska videor som ser autentiska ut används till exempel vid mobbning och utpressning av journalister. [ii]
Genom att klona en människas röst har föräldrar också lurats på pengar, då de ringts upp av personer som låtit som deras egna barn. [iii] På så sätt har också en medarbetare på ett företag lurats till att överföra en stor summa pengar till ett konto, som pengarna definitivt inte borde har överförts till, [iv] och på samma sätt har rektorn på en skola i USA kunnat svartmålas. [v] Det finns gott om sådana exempel.
Deepfake-bilder, -videor och -ljudklipp sprids nuförtiden närmast utan undantag också under stora nyhetshändelser. Vid politiska val har deepfake använts till att smutskasta politiker och till att undergräva förtroendet för valsystemen. Inför presidentvalet i USA 2024 ringde en klonad AI-version av Joe Bidens röst upp människor och uppmuntrade dem att låta bli att rösta. [vi] Inför samma val försökte man måla upp en bild av vicepresidentkandidaten Tim Walz som pedofil bland annat genom att lägga ut en deepfake-video på nätet, där en person som felaktigt skulle framstå som Walz “tidigare elev” talade till kameran och berättade om sina fruktansvärda upplevelser. [vii] Det finns en lång lista också över sådana exempel, och den här typen av förfalskningar har förekommit också i Finland. [viii]
För att deepfake ska kunna orsaka skada måste det vara möjligt att sprida det i meddelandetjänster och på sociala medier. Techjättarna, som Meta, Tiktok, Google och Microsoft, har uppmanats att ta ansvar för att begränsa spridningen av deepfake-material.
Identifiering av deepfake
Numera kan det vara närmast omöjligt att skilja skickligt gjorda deepfake-förfalskningar från äkta material. Detsamma kan uttryckas också omvänt: det har blivit allt svårare att bevisa att en äkta video faktiskt också är äkta. Därför har det hänt i många situationer att äkta material har anklagats för att vara förfalskat. Det kan ha långtgående konsekvenser för spridning av korrekt information och för vad människor i slutändan väljer att tro på.
Fram till för ett tag sedan kunde deepfake-förfalskningar kännas igen på att AI gett människor till exempel för många eller för få fingrar eller att den haft svårt att skapa örsnibbar och glasögon som såg äkta ut. Småningom har dock den här typen av små fel kunnat åtgärdas, och förfalskningar som gjorts med bra AI-verktyg går inte längre att skilja från äkta material. Röstförfalskningar är också numera närmast felfria.
De generella instruktionerna nedan kan hjälpa en att utvärdera hur tillförlitlig informationen på nätet är – även i situationer där det är oklart huruvida materialet är deepfake eller inte:
- Om en bild, en video eller ett ljudklipp på sociala medier ger upphov till en stark känslomässig reaktion är det första man bör göra att ta sig en funderare och därefter en till, innan man väljer att tro på materialet eller sprider det vidare.
- Tänk på tre frågor: Vem har lagt ut bilden, videon eller ljudklippet? Vilka bevis har lagts fram för att stödja innehållet? Vad säger andra källor om innehållet?
- Utöva lateral läsning: Handlar det om någonting som det också rapporterats om i tillförlitliga källor? Har någon ifrågasatt materialets äkthet i kommentarsfältet? Hittar du andra bilder, videor eller material om samma händelse?
- Gör en omvänd bildsökning med bilden eller videon (t.ex. med Google Lens) och undersök vilka sammanhang materialet tidigare har förekommit i.
- Var skeptisk speciellt om någon typ av skandalomsusade bilder, videor eller ljudklipp börjar spridas på sociala medier precis före ett val eller någon annan stor nyhetshändelse. Var vid behov i kontakt med myndigheter, faktagranskare eller journalistiska medier.
För att lösa problemet har man försökt använda sig av olika typer av identifieringstekniker, som kan hittas på nätet med sökorden “deepfake detector”. Faktabaari rekommenderar dock inte att man förlitar sig enbart på dem.
Det finns en pågående kapplöpning mellan utvecklingen av deepfake och av motsvarande identifieringsteknik, där identifieringstekniken alltid är steget efter. [ix] Identifieringsverktygen kan felaktigt tro att äkta material är förfalskat eller att förfalskat material är äkta. Algoritmerna som försöker upptäcka förfalskningar är endast så bra eller dåliga som data som de har tränats med. Identifieringstekniken har också fördomar, och den kan vara dålig på att identifiera deepfake-förfalskningar med mörkhyade personer [x] eller bli förvirrad om den äkta bilden eller videon minskats eller exempelvis suddats ut. Kvaliteten på identifieringsverktygen varierar mycket, och på samma sätt som alla andra AI-verktyg används de också i syfte att tjäna pengar.
Det finns en pågående kapplöpning mellan utvecklingen av deepfake och av motsvarande identifieringsteknik, där identifieringstekniken alltid är steget efter.
Således kan identifieringsverktygen används som en del av en faktagranskningsprocess, men de ska hellre ses som assistenter än experter. Det är bra att försöka ta reda på vilken typ av källmaterial identifieringsverktyget har tränats med, vem det har utvecklats av och vilka begränsningar det har. Utgå aldrig från att identifieringsverktyget gör en sanningsenlig bedömning, utan kontrollera också vad det står om ämnet i andra källor.
Som med all annan teknisk utveckling gör man förnuftigt i att hålla sig uppdaterad om hur identifieringsverktygen utvecklas.
Faktabaari har som mål att informera sina läsare på sin webbplats och i sitt månadsbrev om verktyg som vi använder i professionellt granskningsarbete.
I början av 2025 har Faktabaari uppdaterat sitt AI-to-spel med nya bildpar med hjälp av den senaste tekniken, för att stödja diskussionen som den allt vanligare deepfake-tekniken gett upphov till. Tanken är att erbjuda lärare och elever möjlighet att testa huruvida de själva kan känna igen AI-genererade bilder bland äkta bilder. Efter egna gissningar är det lättare att ta tag i temat tillsammans med dem som vuxit upp i digitaliseringens tidsålder. Testa spelet här (även på svenska): https://peli.faktabaari.fi/fi
- Läs guiden kapitel för kapitel på vår webbplats – tack vare Svenska folkskolans vänner rf också på svenska
Källor
[i] se t.ex. MIT Technology Review (2018). The GANfather: The man who’s given machines the gift of imagination, https://www.technologyreview.com/2018/02/21/145289/the-ganfather-the-man-whos-given-machines-the-gift-of-imagination/
[ii] BBC (2024). Inside the deepfake porn crisis engulfing Korean schools https://www.bbc.com/news/articles/cpdlpj9zn9go ; BBC (2024). Girl, 12, victim of ‘deepfake’ bullying porn image https://www.bbc.com/news/articles/ckvgezk74kgo ; VOA (2024). Journalist ‘haunted’ by AI deepfake porn video https://www.voanews.com/a/journalist-haunted-by-ai-deepfake-porn-video/7624281.html
[iii] Guardian (2023). US mother gets call from ‘kidnapped daughter’ – but it’s really an AI scam https://www.theguardian.com/us-news/2023/jun/14/ai-kidnapping-scam-senate-hearing-jennifer-destefano
[iv] Guardian (2024). Company worker in Hong Kong pays out £20m in deepfake video call scam https://www.theguardian.com/world/2024/feb/05/hong-kong-company-deepfake-video-conference-call-scam
[v] BBC (2024). The racist AI deepfake that fooled and divided a community https://www.bbc.com/news/articles/ckg9k5dv1zdo
[vi] Reuters (2024). Consultant fined $6 million for using AI to fake Biden’s voice in robocalls https://www.reuters.com/world/us/fcc-finalizes-6-million-fine-over-ai-generated-biden-robocalls-2024-09-26/
[vii] Wired (2024). Russian Propaganda Unit Appears to Be Behind Spread of False Tim Walz Sexual Abuse Claims https://www.wired.com/story/russian-propaganda-unit-storm-1516-false-tim-walz-sexual-abuse-claims/
[viii] se t.ex. Cybersäkerhetscentrets veckoöversikt 03/2024 https://www.kyberturvallisuuskeskus.fi/fi/ajankohtaista/kyberturvallisuuskeskuksen-viikkokatsaus-032024
[ix] Binh, Le, Shahroz Tariq, Sharif Abuadbba m.fl. (2023) Why Do Deepfake Detectors Fail?, https://www.researchgate.net/publication/368843207_Why_Do_Deepfake_Detectors_Fail
[x] University at Buffalo. (2024) New deepfake detector designed to be less biased, https://www.buffalo.edu/home/story-repository.host.html/content/shared/university/news/ub-reporter-articles/stories/2024/01/lyu-deepfake-bias.detail.html
- Läs guiden kapitel för kapitel på vår webbplats – tack vare Svenska folkskolans vänner rf också på svenska