Uudet FactHacker-videot kehottavat arvioimaan tekoälyä ja huomaamaan syväväärennökset

FactHacker-videot käsittelevät tekoälyä ja sillä tehtyjä syväväärennöksiä. Tekoäly on tullut jäädäkseen, joten on hyvä tuntea sen toimintaa ja pysähtyä, harkita ja tarkistaa, FactHacker neuvoo nuoria.

Faktabaarin FactHacker-videosarja sai jatkoa kahdella ajankohtaisella videolla, joissa esiintyy uusi FactHacker-hahmo, Faktabaarin Markus Neuvonen.

Katso koko FakctHackerin selviytymisopas täällä.

“Oletko koskaan kysynyt neuvoa kaverilta, joka on supervakuuttava ja vaikuttaa tajuavansa asian tosi hyvin – mutta joka ei todellisuudessa tiedä siitä asiasta yhtään mitään?” Neuvonen kysyy tekoälyä käsittelevällä videolla.

Hän vertaa tekoälyä sukujuhliin tulevaan viihdyttävään enoon, jolla on varma näkemys joka asiaan, ja joka kertoo sen mielellään kaikille. Mutta oikeasti eno on lukenut lehtiä viimeksi joskus 1990-luvulla ja muistaakin vähän miten sattuu, joten sen tiedot ja neuvot on vähän niin ja näin.

Generatiiviset tekoälyt toimivat tämäntapaisesti – ne hallusinoivat eli juttelevat omiaan, joten niihin ei kannata luottaa.

“Kenties harhaanjohtavinta tekoälyssä on kuitenkin se, että vaikka se tuottaa hyvin vakuuttavasti ja uskottavasti esitettyä sisältöä, se ei aina kuitenkaan perustele tekemiään ratkaisuja, eikä välttämättä paljasta lähteitään”, Neuvonen sanoo.

“Tiedosta, että tekoäly ei tuota tietoa vaan vakuuttavalta kuulostavia väitteitä, joiden todenperäisyydestä ei ole varmuutta – ei ainakaan itse tarkistamatta.”

Syväväärennökset voivat olla jopa vaarallisia

Toinen FactHacker-video pureutuu syväväärennöksiin.

“Kuvaa, ääntä ja videota on aina manipuloitu. Ikivanhat kuvat Loch Nessin hirviöstä ja myyttistä Isojalkaa esittävä video kiertävät yhä. Mutta 2022 tekoälyn ansiosta väärennösten tekemisestä tuli periaatteessa mahdollista kaikille”, FactHacker-Neuvonen sanoo.

“Kun generatiiviselle tekoälylle antaa niin sanotun promptin eli kehoituksen tehdä esimerkiksi realistinen kuva yksisarvisesta, se pystyy tekemään hyvinkin aidon näköistä jälkeä.”

Videolla käydään läpi muutamin esimerkein, miten tekoälyllä tehtyjä Deepfakeja on jo käytetty rikollisiin tarkoituksiin ja erilaisiin huijauksiin.

Esimerkiksi Maltalla vuonna 2023 paljastui tapaus, jossa kymmenien maltalaisten Facebook-tilit oli kaapattu ja tileillä oli julkaistu näistä käyttäjistä tehtyjä erittäin realistisia deepfake-videoita. Videoilla yritettiin saada käyttäjien ystäviä ja tuttavia haksahtamaan kryptovaluuttahuijaukseen.

Talvella 2024 presidentti Alexander Stubbista liikkui sosiaalisessa mediassa video, jossa hänen kloonatulla äänellään tuputettiin kryptovaluuttaa.

Syväväärennysten huomaamiseen tärkeintä on muistaa lähdekritiikki – mikään ei korvaa hyvää arvostelukykyä.

“Kysy siis: Miksi näet sen, mitä näet? Kuka julkaisija on, ja mitä hän tavoittelee?” Neuvonen opastaa.

Hän muistuttaa, että on hyvä myös itse kokeilla tekoälyllä aineistojen tekemistä, niin näkee, minkätyylisiä kuvia ne tyypillisesti tuottavat.

Tekoälysovellukset ovat tulleet jäädäkseen, ja niiden tuottamille sisällöille me tulemme altistumaan – halusimme tai emme.

Siksi tärkeintä on olla valppaana ja muistaa: Pysähdy, harkitse ja tarkista.

Videot ovat osa Faktabaarin vuonna 2023 aloittamaa FactHacker-sarjaa, joka on suunnattu etenkin yläkoululaisille sekä toisen asteen opiskelijoille ja niiden tueksi on laadittu myös oppimateriaalia.

Videot on linkattu myös AI-to peliin. Pysähdy Harkitse ja Tarkista!

Videot on tehty osana Think Twice -hanketta. Think Twice on Euroopan unionin rahoittama. Esitetyt näkemykset ja mielipiteet ovat kuitenkin vain kirjoittajan/kirjoittajien omia eivätkä välttämättä vastaa Euroopan unionin tai Euroopan koulutuksen ja kulttuurin toimeenpanoviraston (EACEA) näkemyksiä ja mielipiteitä. Euroopan unionia tai tuen myöntävää viranomaista ei voida pitää niistä vastuussa.

edu@faktabaari.fi

Evästeet

Käytämme sivustollamme yksityisyyden suojaavaa analytiikkaa palveluidemme parantamiseksi.

Lue lisää tietosuoja käytännöistämme täältä.