Tiktokissa on julkaistu useita videoita, joissa Suomen presidenttiehdokkaiden ääniä on kloonattu tekoälyllä ja heidät on laitettu sanomaan asioita, joita he eivät ole todellisuudessa sanoneet.
Videot vaikuttavat pääasiassa olevan huumoria, mutta Faktabaari tarttui aiheeseen lisätäkseen tietoisuutta siitä, että ehdokkaiden äänistä on olemassa vakuuttavan kuuloisia puhesynteesejä. Puhesynteesi tarkoittaa keinotekoista, ihmiseltä kuulostavaa puhetta, joka saadaan halutessaan kuulostamaan tietyltä henkilöltä.
Huoltovarmuuskeskuksen johtava varautumisasiantuntija Antti Sillanpää muistutti Ylellä perjantaina, että viimeiset 72 tuntia ennen vaaleja ovat tärkeimmät. “On oltava valppaana vaalihäirinnän varalta.” Hän on aiemmin arvioinut, että hyvin ajoitettu syväväärennös (engl. deepfake) saattaisi vaikuttaa äänestyspäätökseen.
Financial Times -lehti julkaisi muutama päivä sitten artikkelin, jossa arvioitiin, että ääniväärennökset ovat nousemassa tehokkaaksi uudeksi informaatiosodankäynnin välineeksi ympäri maailmaa, kun äänikloonaustyökalut yleistyvät verkossa. Yhdysvalloissa esimerkiksi parhaillaan tutkitaan tapausta, jossa epäillään, että presidentti Joe Bidenilta kuulostava keinotekoisesti luotu ääni oli soitellut äänestäjille ja kehottanut heitä olemaan äänestämättä New Hampshiren presidentinvaalien esivaaleissa.
Slovakian parlamenttivaaleissa syksyllä 2023 deepfake-teknologiaa ja äänikloonausta käytettiin vääristelemään poliitikkojen sanomisia juuri ennen vaalipäivää. Eräästä maan kärkipoliitikosta oli esimerkiksi tehty tekoälyn avulla ääninauha, jossa kuulosti siltä kuin tämä olisi keskustellut toimittajan kanssa vaalien manipuloinnista ja äänten ostamisesta Slovakian romanivähemmistöltä.
Lue myös: Näin tarkistat, onko materiaali aitoa vai deepfake
Vitsejä ja vaalitenttejä
Esimerkiksi ChatGPT_vitsit-Tiktok-tilin julkaisemat “presidenttiehdokkaiden ryhmäpuhelut” ovat olleet Tiktokissa suosittuja viime aikoina. Yhdessä ryhmäpuhelussa esimerkiksi Alexander Stubb ehdottaa Sveitsin valtaamista ja muut presidenttiehdokkaat yhtyvät ideaan. Toisessa tekoälyllä tehdyssä ryhmäpuhelussa tasavallan presidentti Sauli Niinistö vastaanottaa presidenttiehdokkaiden hölmöjä kysymyksiä presidentin työstä.
Torstaina taxcollector99-niminen anonyymi Tiktok-tili julkaisi videon, jossa Helsingin Sanomien vaalitenttiä on muokattu tekoälyllä. Perjantaina iltapäivällä videolla oli noin 12 000 katselukertaa. Videolla esimerkiksi Alexander Stubb ehdottaa uutta veroa, jossa veroprosentti olisi korkeampi niille, jotka eivät aja uutta Mersua tai jotka katsovat hintoja kaupassa. Pekka Haavisto puolestaan ehdottaa muun muassa kaikkien muiden kampaamoiden paitsi hänen oman puolisonsa kampaamon sulkemista Suomessa. Hjallis Harkimo kertoo, että presidenttinä hän ostaisi Jokerit takaisin veronmaksajien rahoilla. Mitään näistä asioista presidenttiehdokkaat eivät todellisuudessa ole sanoneet. Ehdokkaiden äänet kuulostavat videolla hyvin uskottavilta, mutta heidän huuliaan ei ole yritetty synkronoida puheen tahtiin. Lisäksi käyttäjä on aihetunnisteella “#ai” pyrkinyt osoittamaan, että kyse on tekoälyllä tehdystä sisällöstä. Katsomalla Helsingin Sanomien vaalitentin, huomaa, ettei tentissä ole puhuttu videolla esitettyjä asioita.
Suomen Kyberturvallisuuskeskus kertoi viime viikon lopulla saaneensa hiljattain ilmoituksen siitä, että erään organisaation toimitusjohtajan ääntä oli kloonattu ja sen avulla oli pyydetty tekemään iso rahasiirto. Tuolla kerralla puhesynteesi oli tehty englanniksi. Kyberturvallisuuskeskus kertoo myös saaneensa yksittäisiä ilmoituksia suomenkielisistä syväväärennöksistä, mutta arvioi, etteivät ne “vaikuta vielä olevan kovinkaan yleisiä.” “Kyberturvallisuuskeskukselle ilmoitetuissa tapauksissa on väärennetty julkisuuden henkilön ääntä ja esitetty suomen kielellä väitteitä, joita henkilö ei ole itse sanonut”, se kertoi viikkokatsauksessaan.
NewsGuard kertoi viime syksynä löytäneensä Tiktokista useita tilejä, jotka hyödyntävät realistiselta kuulostavia äänikloonauksia saadakseen satoja miljoonia katselukertoja salaliittosisällöille.
Ongelma äänikloonausten kanssa on se, että niitä on tällä hetkellä usein vaikeampaa tunnistaa kuin syväväärennettyjä videoita. Syväväärennetyissä videoissa voi näkyä virheitä esimerkiksi siinä, etteivät ääni ja kuva ole yhtäaikaiset, puhujan hampaat, korvat tai kädet näyttävät oudoilta, tai videolla on muita epärealistisia elementtejä. Aitoa ääninauhaa on kuitenkin vaikeaa erottaa tekoälyllä tehdystä, sillä puhekloonausteknologia on tänä päivänä erittäin edistynyttä. Lisäksi teknologiajätit eivät ole kyenneet puuttumaan syväväärennettyihin ääninauhoihin erityisen tehokkaasti.
Nämä ohjeet ja kysymykset auttavat arvioimaan ääninauhan luotettavuutta:
- Jos jokin somessa vastaan tuleva ääninauha herättää voimakkaan tunnereaktion, ensimmäiseksi on syytä pysähtyä, harkita ja harkita vielä uudestaan ennen kuin uskoo materiaalia ja jakaa sitä eteenpäin.
- Ole skeptinen etenkin, jos juuri ennen vaaleja sosiaalisessa mediassa alkaa levitä jokin skandaalinkäryinen ääninauha. Ota tarpeen mukaan yhteyttä viranomaisiin, faktantarkistajiin tai muuhun journalistiseen mediaan.
- Pohdi kolmea kysymystä: Kuka ääninauhan on julkaissut? Mitä todistusaineistoa sen tueksi on esitetty? Mitä muut lähteet sanovat asiasta?
- Kuulostaako ääninauhalla siltä, että puhuja hengittää välissä? Tulevatko hengitykset loogisissa kohdissa? Entä onko puheessa täytesanoja ja epäröintiä, vai kuulostaako puhe epäilyttävän harkitulta ja suoraviivaiselta?
- Onko puheen intonaatio liian monotonista ollakseen totta?
- Pohdi, voisiko presidenttiehdokas tai muu henkilö, josta ääninauha on julkaistu, todella sanoa jotakin sellaista, mitä ääninauha väittää.
-
Jos et itse pysty selvittämään ääninauhan todenperäisyyttä, odota rauhassa, että aiheesta selviää lisätietoa.
Oletko törmännyt julkisessa keskustelussa tai somessa epäilyttävään väitteeseen? Pyydä faktantarkistusta tällä lomakkeella.
Pääkuva: Presidenttiehdokkaat Helsingin Sanomien vaalitentissä. EPA-EFE/KIMMO BRANDT
Tämä julkaisu on osa European Media and Information Fundin (EMIF) rahoittamaa Faktabaarin faktantarkistushanketta.