Syväväärennökset matkivat todellisuutta

GENERATIIVISEN TEKOÄLYN AVULLA voidaan hyvin todentuntuisesti muuttaa ihmisten kasvoja, vartaloa ja ääntä siten, että heidät saadaan tekemään ja sanomaan asioita, joita he eivät todellisuudessa ole koskaan tehneet tai sanoneet. Tekoälyllä voidaan luoda aitojen ­valokuvien näköisiä kuvia tai aidoilta näyttäviä videoita mistä tahansa. Kun käytetään tällaista todellisuutta matkivaa tekoälyteknologiaa, puhutaan syväväärennöksistä (engl. deepfake).

Syväväärennökset hyödyntävät syviä neuroverkkoja. Ne ovat koneoppimismalleja, jotka jäljittelevät biologisten hermoverkkojen toimintaperi­aatteita. Teknologian kehitys on edennyt valtavin harppauksin viime vuosina, osittain kiitos GAN-mallin, jonka yhdysvaltalainen tekoälytutkija Ian Goodfellow ja hänen tiiminsä esittelivät vuonna 2014. (1) Tässä mallissa yksi neuroverkko toimii toisen arvioijana ja pyrkii erottamaan aidot tuotokset koneen luomista. Tällä tavoin neuroverkot opettavat itse itseään.

Tavoitteena on, että generoiva verkko oppii tuottamaan niin hyviä väärennöksiä, ettei arvioiva verkko enää erota niitä aidoista materiaaleista. GAN-mallista on edelleen kehitetty yhä tehokkaampia syväväärennössovelluksia, ja väärennöksiä tehdään myös muilla malleilla.

Harmitonta, hyödyllistä ja pahaa tekoälyn käyttöä

Syväväärennöksiä käytetään tänä päivänä monenlaiseen aina viihdeteollisuudesta disinformaation levittämiseen. Syväväärennösteknologian avulla voidaan luoda digitaalinen kaksonen kenestä tahansa, vaikkapa edesmenneestä näyttelijästä, joka halutaan palauttaa ­valkokankaalle. Teknologiaa hyödynnetään paljon myös esimerkiksi ­äänikirjamarkkinoilla, jolloin aidon ihmisen sijasta täysin aidolta kuulostava tekoälyääni lukee kirjan. Ja mainosmarkkinoilla, jossa samasta mainoksesta voi kätevästi tehdä vaikkapa version yhdeksälle eri kielelle.

Opetus- ja oppimiskäytössä syväväärennösteknologiaa voidaan hyödyntää esimerkiksi siten, että hankalasta tieteellisestä tekstistä tehdään helpommin sulateltava tekoäly-podcast (esim. Googlen Notebook LM), tai Martin Luther Kingille kirjoitetaan tai annetaan puhe, jonka tekoäly-­King lukee ääneen.

Syväväärennösteknologia on mahdollistanut myös paljon pahaa. Sitä hyödyntämällä kenestä tahansa ihmisestä, josta on kuva- tai videomateriaalia saatavilla, voidaan luoda ilman tämän omaa suostumusta esimerkiksi aidolta näyttävä seksivideo. Teknologiaa käytetäänkin nykyisin runsaasti häpäisemään ihmisiä, etenkin naisia ja tyttöjä, ympäri maailmaa. Tekaistuja, aidolta näyttäviä videoita käytetään esimerkiksi koulukiusaamiseen ja journalistien painostamiseen. (2)

Ihmisen ääntä kloonamalla on myös huijattu vanhemmilta rahaa soittamalla näille heidän oman lapsensa äänellä. (3) Sillä on keploteltu yrityksen työntekijä siirtämään iso rahasumma tilille, jonne rahoja ei missään nimessä olisi pitänyt siirtää (4) ja mustamaalattu erään koulun rehtoria Yhdysvalloissa. (5) Esimerkkejä riittää.

Syväväärennettyjä kuvia, videoita ja ääninauhoja levitetään nykyisin lähes poikkeuksetta myös isojen uutistapahtumien aikaan. Vaaleissa syväväärennöksiä on käytetty lokaamaan poliitikkoja ja murentamaan luottamusta vaalijärjestelmiin. Yhdysvalloissa Joe Bidenista kloonattu tekoälyääni soitteli vuoden 2024 presidentinvaalien alla ihmisille ja kehotti heitä olemaan äänestämättä. (6) Varapresidenttiehdokas Tim Walzista yritettiin samoissa vaaleissa maalata kuva pedofiilina muun muassa julkaisemalla netissä syväväväärennetty video, jossa Walzin tekaistu “entinen oppilas” puhui kameralle ja kertoi karmeista kokemuksistaan. (7) Myös tällaisia esimerkkejä löytyy pitkä lista, eikä Suomikaan ole ollut väärennöksiltä suojassa. (8)

Jotta syväväärennöksillä voidaan saada vahinkoa aikaan, niitä pitää pystyä levittämään viestipalveluissa ja sosiaalisessa mediassa. Digijäteiltä, kuten Metalta, Tiktokilta, Googlelta ja Microsoftilta onkin vaadittu vastuunkantoa syväväärennösten leviämisen suitsimiseksi.

Syväväärennösten tunnistaminen

Taitavasti tehtyjä syväväärennöksiä on nykyisin jopa mahdotonta erottaa aidosta materiaalista. Saman voi sanoa myös toisin päin: aidon videon todentaminen aidoksi videoksi on käynyt yhä vaikeammaksi. Niinpä onkin käynyt niin, että monessa tilanteessa täysin aitoa materiaalia on alettu syyttää väärennetyksi. Tällä voi olla vakavia vaikutuksia oikean tiedon leviämiselle ja sille, mihin ihmiset lopulta uskovat.

Vielä hetki sitten syväväärennöksen saattoi tunnistaa siitä, että tekoäly loi vaikkapa liikaa tai liian vähän sormia ihmisille, tai se kompasteli korvan­nipukoiden ja silmälasien kanssa. Vähitellen tällaiset pienet virheet ovat kuitenkin kuroutuneet umpeen, eikä hyvillä tekoälysovelluksilla tehtyjä syväväärennöksiä enää juuri erota aidosta materiaalista. Myös ääniväärennökset ovat kehittyneet liki virheettömiksi.

Alla olevat yleispätevät ohjeet auttavat arvioimaan verkossa vastaan tulevan informaation luotettavuutta – myös silloin, kun on epäselvää, onko materiaali syväväärennettyä vai ei:

  • Jos jokin somessa vastaan tuleva kuva, video tai ääninauha herättää voimakkaan tunnereaktion, ensimmäiseksi on syytä pysähtyä, harkita ja harkita vielä uudestaan ennen kuin uskoo materiaalia ja jakaa sitä eteenpäin.
  • Pohdi kolmea kysymystä: Kuka kuvan/videon/ääninauhan on julkaissut? Mitä todistusaineistoa sen tueksi on esitetty?
  • Mitä muut lähteet sanovat asiasta?
  • Käytä lateraalista lukutapaa: Ovatko luotettavat lähteet raportoineet asiasta? Onko joku kyseenalaistanut materiaalin aitouden kommenteissa? Löydätkö muita kuvia/videoita/materiaalia samasta tapahtumasta?
  • Laita kuva tai videon kuvakaappaus käänteiseen kuvahakuun (esim. Google Lens) ja katso, missä yhteyksissä materiaalia on aiemmin levitetty.
  • Ole skeptinen etenkin, jos juuri ennen vaaleja tai muun ison uutistapahtuman aikaan sosiaalisessa mediassa alkaa levitä jokin skandaalinkäryinen kuva, video tai ääninauha. Ota tarpeen mukaan yhteyttä viranomaisiin, faktantarkistajiin tai muuhun journalistiseen mediaan.

Ratkaisua tilanteeseen on etsitty myös tunnistusteknologioista, joita verkosta löytyy “deepfake ­detector” -hauilla. Faktabaari ei kuitenkaan suosittele luottamaan yksistään niihin.

Syväväärennösten kehittämisen ja niiden tunnistamisen välillä on meneillään jatkuva ­kilpajuoksu, jossa tunnistusteknologia on aina askeleen jäljessä. (9) Tunnistustyökalut saattavat virheellisesti luulla aitoa materiaalia väärennetyksi, tai väärennettyä materiaalia aidoksi. Algoritmit, jotka yrittävät havaita väärennöksiä, ovat vain yhtä hyviä tai huonoja kuin data, jolla ne on koulutettu. Tunnistusteknologiallakin on ennakkoluuloja, ja se saattaa tunnistaa huonosti esimerkiksi tummaihoisista ihmisistä tehtyjä väärennöksiä (10), tai hämääntyä, jos aitoa kuvaa tai videota on kutistettu tai vaikkapa sumennettu. Tunnistustyökalujen laatu vaihtelee valtavasti, ja siinä missä rahaa tehdään kaikilla muillakin tekoäly­työkaluilla, sitä tehdään myös tunnistustyökaluilla.

Niinpä tunnistustyökaluja voi kokeilla käyttää osana faktantarkistusprosessia, mutta niihin kannattaa suhtautua pikemminkin apureina kuin asiantuntijoina. On hyvä yrittää perehtyä siihen, millä lähdemateriaalilla tunnistustyökalu on koulutettu, kuka sen on kehittänyt ja mitkä sen rajoitteet ovat. Älä koskaan pidä tunnistustyökalun arviota faktana, vaan etsi myös muista lähteistä tietoa asiasta.

Kuten muunkin teknologian kehityksen osalta, myös tunnistustyökalujen kanssa kannattaa pitää tietonsa ajan tasalla.

  • Faktabaari pyrkii verkkosivuillaan ja kuukausikirjeessään informoimaan lukijoitaan työkaluista, joita hyödynnämme ammattimaisessa tarkistustoiminnassa.
  • Vuoden 2025 alussa Faktabaari on päivittänyt syväväärennösten yleistymisen vaatiman keskustelun tukemiseksi AI-to-pelinsä kuvapareilla, joissa on käytetty viimeisintä teknologiaa. Ajatuksena on tarjota opettajille ja oppilaille mahdollisuus testata, tunnistaako aidon kuvan tekoälyllä luotujen kuvien joukosta. Arvausten jälkeen on helpompi lähestyä teemaa diginatiivien kanssa. Kokeile: https://peli.faktabaari.fi/fi
  • Oppaan etusivulle

Lähteet

(1) ks. esim. MIT Technology Review (2018). The GANfather: The man who’s given machines the gift of imagination, https://www.technologyreview.com/2018/02/21/145289/the-ganfather-the-man-whos-given-machines-the-gift-of-imagination/

(2) BBC (2024). Inside the deepfake porn crisis engulfing Korean schools https://www.bbc.com/news/articles/cpdlpj9zn9go; BBC (2024). Girl, 12, victim of ‘deepfake’ bullying porn image https://www.bbc.com/news/articles/ckvgezk74kgo; VOA (2024). Journalist ‘haunted’ by AI deepfake porn video https://www.voanews.com/a/journalist-haunted-by-ai-deepfake-porn-video/7624281.html

(3) Guardian (2023). US mother gets call from ‘kidnapped daughter’ – but it’s really an AI scam https://www.theguardian.com/us-news/2023/jun/14/ai-kidnapping-scam-senate-hearing-jennifer-destefano

(4) Guardian (2024). Company worker in Hong Kong pays out £20m in deepfake video call scam https://www.theguardian.com/world/2024/feb/05/hong-kong-company-deepfake-video-conference-call-scam

(5) BBC (2024). The racist AI deepfake that fooled and divided a community https://www.bbc.com/news/articles/ckg9k5dv1zdo

(6) Reuters (2024). Consultant fined $6 million for using AI to fake Biden’s voice in robocalls https://www.reuters.com/world/us/fcc-finalizes-6-million-fine-over-ai-generated-biden-robocalls-2024-09-26/

(7) Wired (2024). Russian Propaganda Unit Appears to Be Behind Spread of False Tim Walz Sexual Abuse Claims https://www.wired.com/story/russian-propaganda-unit-storm-1516-false-tim-walz-sexual-abuse-claims/

(8) ks. esim. Kyberturvallisuuskeskuksen viikkokatsaus 03/2024 https://www.kyberturvallisuuskeskus.fi/fi/ajankohtaista/kyberturvallisuuskeskuksen-viikkokatsaus-032024

(9) Binh, Le, Shahroz Tariq, Sharif Abuadbba et al. (2023) Why Do Deepfake Detectors Fail? https://www.researchgate.net/publication/368843207_Why_Do_Deepfake_Detectors_Fail

(10) University at Buffalo. (2024) New deepfake detector designed to be less biased https://www.buffalo.edu/home/story-repository.host.html/content/shared/university/news/ub-reporter-articles/stories/2024/01/lyu-deepfake-bias.detail.html

edu@faktabaari.fi

Evästeet

Käytämme sivustollamme yksityisyyden suojaavaa analytiikkaa palveluidemme parantamiseksi.

Lue lisää tietosuoja käytännöistämme täältä.