Tekoäly & faktantarkistus

Marraskuussa 2022 yhdysvaltalainen tekoäly-yritys OpenAI julkaisi yleisölle avoimeen testaukseen ChatGPT-chatbotin. Se sai välittömästi valtavan kansainvälisen huomion, sillä ChatGPT pystyy varsin monipuolisesti muun muassa luomaan runoja ja esseitä, kirjoittamaan koodia ja antamaan neuvoja melkein mihin tahansa kysymyksiin. ChatGPT on virtuaaliavustaja ja keskustelubotti, jolta voi pyytää vaikkapa tiivistelmän talvisodasta tai kohteliaan englanninkielisen sähköpostin, jossa pahoitellaan sitä, että vastaaminen on viivästynyt. Se toimii laadukkaasti myös suomeksi. 

ChatGPT ei kuitenkaan ole ainoa laatuaan. Useat yliopistot, start-up-yritykset ja teknologiajätit kehittävät parhaillaan yhä parempia ja tarkempia keskustelubotteja ja hakukoneavustajia. Artikkelin kirjoitushetkellä tunnettuja keskustelubotteja ovat ChatGPT:n lisäksi esimerkiksi Google Bard, Jasper Chat, Perplexity AI ja Bing AI.[i] Myös Kiina kehittää omia keskustelubottejaan. Niistä tunnetuin lienee tällä hetkellä Baidun botti, jota on vaivannut sensuuriongelma.[ii] 

Koska ala kehittyy kovaa vauhtia eikä kaikkien keskustelubottien ominaisuuksia ole tarkoituksenmukaista käydä tässä läpi, artikkeli tarjoaa yleiskatsauksen siihen, mitä keskustelubotit ovat, mihin niitä voi hyödyntää ja mitä ongelmia niihin liittyy faktantarkistuksen kannalta. Paras tapa ymmärtää, mistä on kyse, on käydä itse kokeilemassa jotain lukuisista keskusteluboteista.

Miten keskustelubotit toimivat?

ChatGPT ja muut vastaavat tekoälyavusteiset keskustelubotit on rakennettu suurten kielimallien päälle. Kielimalli ennustaa todennäköisyyksien perusteella sitä, miten jonkin lauseen tulisi jatkua. Esimerkiksi ChatGPT on koulutettu syöttämällä sille valtavia määriä internetistä löytyvää tekstiä, kuten lehtijuttuja, raportteja, tutkimuksia, kirjoja ja blogitekstejä. Sen jälkeen mallin toimintaa on hienosäädetty vahvistusoppimisella. ChatGPT:tä voi käyttää usealla eri kielellä, myös suomeksi.

Perplexity AI, jota voi luonnehtia ChatGPT:n ja hakukoneen yhdistelmäksi, puolestaan etsii vastauksia käyttäjän kysymyksiin reaaliaikaisesti eri puolilta verkkoa. Toisin kuin ChatGPT, Perplexity tarjoaa itse myös lähteet väitteilleen. Käyttäjä voi esittää sille jatkokysymyksiä, jolloin Perplexity vastaa niihin aiemman kontekstin perusteella. Keskustelubotit toimivatkin siten, että niille kirjoitetaan kysymys tai syöte, jonka ne tulkitsevat ja johon ne antavat sitten koulutuksensa pohjalta vastauksen. Keskustelubotteja on alettu käyttää esimerkiksi koodaamisen ja kirjoittamisen avustajana, tiivistelmien tekijänä, ideointikaverina ja oikeinkirjoituksen tarkistajana. Joillain ammattialoilla tekoälysovelluksilla voi olla vaikutuksia jopa työvoiman kysyntään.[iii] 

Tekoälyavusteisten keskustelubottien ero ”perinteisiin” hakukoneisiin on se, että hakukoneesta käyttäjän on itse etsittävä kaiken tarjotun informaation ja lukemattomien linkkien seasta relevantein tieto. Keskustelubotit sen sijaan tarjoavat informaation valmiiksi pureskellussa muodossa – joko lähteiden kanssa tai ilman. Lisäksi, kuten yllä esitettiin, niitä voi hyödyntää myös moneen muuhun asiaan kuin pelkkään tiedonhakuun.

Tekoäly ei erota, mikä on totta ja mikä ei

Pian ChatGPT:n beta-version julkaisun jälkeen moni huolestui siitä, että ChatGPT antaa välillä uskottavan kuuloisia vastauksia, jotka ovat täyttä puppua. Se saattaa keksiä lähdeviitteitä, joita ei ole olemassa, tai väittää todeksi jotakin sellaista, mitä ei ole koskaan tapahtunut. Tällaista kutsutaan kielimalleille varsin yleiseksi ”hallusinoinniksi”. Tosin hallusinointi-termiä on myös arvosteltu harhaanjohtavaksi, sillä se antaa ymmärtää, että kielimallilla olisi jokin todellisuuspohja, josta hallusinaatio poikkeaa. Näin ei kuitenkaan ole. Kielimallit eivät ymmärrä sanojen merkityksiä, vaan vain sen, mikä suhde sanoilla on toisiinsa. Lauseet voivat siis olla kieliopillisesti täysin oikein ja myös kuulostaa loogisilta, mutta ne eivät pidä paikkaansa.

Esimerkiksi kysymällä ChatGPT:ltä, kuka on Ruben Stiller, se vastaa, että Stiller on suomalainen toimittaja, juontaja ja kirjailija. Se kuitenkin väittää myös, että Stiller olisi kirjoittanut useita kirjoja, ja jopa nimeää kysyttäessä neljä Stillerin kirjoittamaa kirjaa, jotka ovat kaikki keksittyjä. Stillerin syntymävuoden ChatGPT kertoo oikein, mutta syntymäpaikan se ilmoittaa väärin. Todellisuudessa Stiller on kotoisin Nummesta. Lisäksi ChatGPT muun muassa väittää, että Stiller olisi juontanut Ruben & Joonas -ohjelmaa yhdessä Joonas Nordmanin kanssa, vaikka ohjelmaa tehtiin Joonas Hytösen kanssa. Myös väitteen siitä, että Ruben & Joonas on ollut Stillerin tunnetuin tv-ohjelma, voi kyseenalaistaa. 

Eri testikerroilla ChatGPT antaa erilaisia vastauksia. Yllä oleva vastaus on syyskuulta 2023.  Joulukuussa 2023 ChatGPT edelleen luetteli keksittyjä kirjoja ja tv-ohjelmia, mutta suositteli vastauksensa lopussa “tarkistamaan ajankohtaiset tiedot luotettavista lähteistä.” 

ChatGPT:n ilmaisversion ”tietämys” päättyi aiemmin syyskuuhun 2021, mutta päivityksen jälkeen sitä on jatkettu tammikuuhun 2022 saakka. Tätä uudemmista tapahtumista se ei osaa kertoa. Niinpä ChatGPT ei osaa esimerkiksi kertoa siitä, että Ruben Stilleristä julkaistiin elämäkerta syksyllä 2022.

ChatGPT on koulutettu valtavalla tekstimäärällä, mutta se ei pysty erottamaan totuutta valheesta. Se oppii vain yhteyksiä ja säännönmukaisuuksia tekstissä, ei sitä, mikä on totta ja mikä ei. Tämän vuoksi kriittisyys botin antamia vastauksia kohtaan on äärimmäisen tärkeää.

Open AI on kertonut, että ChatGPT:llä on myös taipumus vahvistaa käyttäjien olemassa olevia uskomuksia riippumatta niiden todenperäisyydestä. Se saattaa esimerkiksi kompata käyttäjän poliittista mielipidettä, vaikka se ei perustuisi tosiasioihin.[iv] 

Suuren huomion saaneella ChatGPT:llä on valuvikansa, joita on pyritty korjaamaan sen uusissa versioissa, lisäosissa ja muiden yhtiöiden kehittämissä keskusteluboteissa. Esimerkiksi Perplexity AI, Bing AI ja ChatGPT:n maksullinen versio on suunniteltu etsimään verkosta tietoa reaaliaikaisesti: niiden pitäisi siis tietää myös se, mitä viime aikoina on tapahtunut. 

Faktabaarin testien perusteella esimerkiksi englannin kielellä toimiva hakukoneavustaja Perplexity on kohtalaisen tarkka faktoissa. Se käyttää lähteinä laatulehtiä, kuten New York Timesia, Le Mondea, Deutsche Wellea ja luotettavia faktantarkistusorganisaatioita. Perplexityn yhtenä rajoitteena on se, että tällä hetkellä lähteiksi käyvät vain englanninkieliset materiaalit, minkä vuoksi vaikkapa monista Suomea koskevista asioista siltä on hankalaa saada kattavaa tietoa. Se ei myöskään ole yhtä monipuolinen työkalu kuin ChatGPT.

Lisäksi Perplexity antaa monimutkaisiin ja tulkinnanvaraisiin kysymyksiin usein liian yksinkertaistettuja vastauksia näennäisen luotettavalla sävyllä. Se, kuten muutkin keskustelubotit, esittää yksinkertaisena totuutena asioita, joista ihmiset eivät todellisuudessa ole päässeet yhteisymmärrykseen.

Vaikka Perplexity ja monet muut keskustelubotit ovat jo varsin tarkkoja ja monella tavalla käteviä, merkittävä kysymys onkin se, millä perusteella ja mihin lähteisiin perustuen ne väittävät sitä mitä väittävät. Kuka päättää, mihin lähteisiin monimutkaisissa kysymyksissä nojataan?

Faktavirheiden lisäksi keskusteluboteilla ja hakukoneavustajilla on ”asennevinoumia”, jotka heijastelevat sitä, millä materiaalilla ja miten ne on koulutettu. Vaikka vastaukset eivät siis varsinaisesti olisi valheellisia, ne voivat olla[v] hyvin leimaavia ja vinoutuneita esimerkiksi rotu- ja sukupuolikysymysten, politiikan, uskonnon tai eri ammatteja koskevien stereotypioiden osalta. Nykyiset GPT-mallit on koulutettu materiaaleilla, jotka heijastelevat globaalin pohjoisen arvoja ja normeja. 

Tavallisesta hakukoneesta, kuten Googlesta, käyttäjä saa eteensä valtavan määrän monimutkaisen algoritmin järjestämiä linkkejä, joista täytyy osata valikoida parhaat. Keskustelubotit säästävät oman tiedonhaun ja ajattelun vaivaa, mutta toisaalta saattavat yksinkertaistaa ja tiivistää asioita liikaa. Keskustelubotin vastauksissa monet näkökulmat ja asioihin liittyvät syvemmät pohdinnat jäävät pimentoon. 

Kuka tarkistaisi faktat ja kantaisi vastuun?

Yksi ChatGPT:n kaltaisten keskustelubottien huolestuttavista piirteistä on se, että disinformaation levittäjät pystyvät niiden avulla moninkertaistamaan sanomansa ja levittämään valheita valtavan tehokkaasti.[vi] Tekoälyä voi pyytää kirjoittamaan sata erilaista versiota samasta väitteestä vain muutamassa sekunnissa.[vii]  Esimerkiksi Amazonin verkkokirjakauppaan on jo ilmestynyt liuta tekoälyn tehtailemia sähköisiä kirjoja, jotka kilpailevat huomiosta ja tuloista kirjailijoiden teosten kanssa.[viii]  Kauhuskenaarioissa internet täyttyy heikkolaatuisesta tekoälyn kirjoittamasta hölynpölystä, josta oikean tiedon erottaminen käy mahdottomaksi. Tällaisesta informaatiosaasteesta (engl. information pollution) on puhuttu jo ennen keskustelubotteja, mutta tekoälysovellukset pystyvät pahentamaan ongelmaa huomattavasti. 

Jos totuus peitellään vaihtoehtoisilla teorioilla tapahtuneesta, vastaanottaja alkaa turtua. Kriittinen ajattelu väsyy, jos ihminen on jatkuvasti epävarma lukemiensa, kuulemiensa tai näkemiensä asioiden todenperäisyydestä. Tällaisella voi olla merkittäviä vaikutuksia demokratiaan, jonka yhtenä perustana on tiedonsaanti. 

Yhdeksi ratkaisuksi ongelmaan on ehdotettu automatisoitua faktantarkistusta. Siis sitä, että tekoäly tarkistaisi tekoälyn esittämiä väitteitä.

Faktantarkistusorganisaatiot ympäri maailmaa ovat jo ennen ChatGPT:n julkaisemista kehittäneet keinoja, joiden avulla tekoälyä voitaisiin hyödyntää faktantarkistuksen tehostamisessa.[ix]. Monet innovaatioista liittyvät siihen, että tekoäly auttaisi tunnistamaan väitteitä, jotka faktantarkistajien olisi syytä tarkistaa. Toistaiseksi kaiken korjaava hopealuoti, jossa tekoäly voisi luotettavasti myös tarkistaa väitteet, puuttuu. Poynter-instituutin toukokuussa 2023 tekemän testin[x] mukaan tekoäly on ainakin vielä epäluotettava faktantarkistaja, vaikka se osuukin välillä oikeaan. 

Toisaalta ratkaisuksi yritetään myös kehittää työkaluja, jotka tunnistaisivat, milloin teksti on tekoälyn kirjoittamaa. Toistaiseksi siinäkään ei ole pitävästi onnistuttu. Siitä, miten tarpeellista ylipäätään on tietää, onko teksti tekoälyn vai ihmisen tekemää, on esitetty eriäviä mielipiteitä. Onko ainoastaan sillä merkitystä, onko teksti faktuaalisesti totta vai ei?

Luottamuksen säilymisen kannalta olisi tärkeää, että joku kantaisi vastuun tekoälyn tuotoksista. Esimerkiksi ChatGPT:n kehittänyt OpenAI-yritys on omissa käyttöehdoissaan nimenomaisesti irtisanoutunut kaikesta vastuusta ChatGPT:n tuotoksista ja todennut, että chattibotin vastaukset saattavat sisältää virheitä. Myöskään esimerkiksi Microsoft ei ole vaikuttanut ottavan tosissaan Bing AI:n valheita.[xi] Yleensä keskustelubottien kehittäjät katsovatkin, että on teknologioiden käyttäjien vastuulla varmistaa, että chattibottien käyttämisen vaikutus on pikemminkin myönteinen kuin kielteinen. Käyttäjä itse on vastuussa faktojen tarkistamisesta.

Moni asiantuntija kuitenkin näkee, että keskustelubottien kehittäjien pitäisi kantaa vastuuta toimistaan ja päätöksistään. Keskustelubotteja pitäisi kehittää avoimesti ja läpinäkyvästi, ja niissä pitäisi olla selkeät mekanismit virheiden käsittelemiseen. Teknologioiden kehittäjiltä on myös toivottu läpinäkyvyyttä sen suhteen, mitä harjoitusdataa keskustelubotteihin on käytetty ja miten ne on käytännössä koulutettu.

Syväväärennökset 

Oma lukunsa netin informaatioympäristön hämmentämisessä ja sotkemisessa ovat vielä syväväärennökset (deepfake). Generatiivisen tekoälyn avulla voidaan nykyisin hyvin todentuntuisesti muuttaa ihmisten kasvoja, vartaloa ja ääntä siten, että heidät saadaan tekemään ja sanomaan asioita, joita he eivät todellisuudessa ole koskaan tehneet tai sanoneet. Tekoälyllä voidaan myös helposti ja nopeasti luoda aitojen valokuvien näköisiä kuvia lähes mistä tahansa. Videoihin ja kuviin voidaan lisäksi vaikkapa lisätä esineitä totuuden vääristämiseksi.

Samoihin aikoihin, kun laajat kielimallit ovat tulleet kaikkien käytettäviksi, myös syväväärennökset ovat lisääntyneet räjähdysmäisesti. Niiden tuloa on povattu ja ennustettu jo vuosikausia, mutta nyt ne näyttävät viimein yleistyneen, kun kuvien tekemiseen tarkoitetut tekoälysovellukset, kuten Midjourney ja DALL-E, sekä lukuisat kaupalliset äänenkloonausohjelmat on julkaistu kenen tahansa netinkäyttäjän saataville.

Laajat kielimallit osaltaan myös edesauttavat hyvien syväväärennösten luomista, sillä kuka tahansa voi tehdä nyt kieliopillisesti uskottavaa tekstiä pienemmilläkin kielillä, kuten suomeksi. Teksti puolestaan voidaan muuntaa puheeksi, joka vieläpä saadaan halutessa kuulostamaan vaikkapa presidentti Sauli Niinistöltä.

Jo vuosikausia etenkin naisia ympäri maailmaa on kiristetty ja häpäisty tekemällä heistä syväväärennettyä pornoa, mutta vuonna 2023 deepfake-teknologiaa on alettu ahkerasti käyttää myös poliittisessa kamppailussa ja vaaleissa länsimaissa. Esimerkiksi Slovakian parlamenttivaaleissa syksyllä 2023 generatiivista tekoälyä käytettiin useita kertoja vääristelemään poliitikkojen sanomisia.[xii] Eräästä maan kärkipoliitikosta oli esimerkiksi muokattu ääninauha, jossa kuulosti siltä kuin tämä olisi keskustellut toimittajan kanssa vaalien manipuloinnista ja äänten ostamisesta Slovakian romanivähemmistöltä. Todellisuudessa ääninauha oli deepfake-teknologialla tehty.

Yhdysvalloissa Floridan kuvernööri Ron DeSantis joutui syksyllä 2023 syväväärennöksen uhriksi, kun verkossa levisi hänestä tekoälyllä tehty video, jossa DeSantis kertoi luopuvansa presidenttiehdokkuudestaan.[xiii] 

Helmikuussa Chicagon pormestariehdokkaiden esivaalissa joku puolestaan oli kloonannut ehdokas Paul Vallasin äänen ja laittanut hänen suuhunsa sanoja, joiden perusteella vaikutti siltä kuin Vallas hyväksyisi poliisiväkivallan.[xiv]

Deepfake-teknologialla levitetään nykyisin lähes poikkeuksetta disinformaatiota suurten uutistapahtumien aikaan. 

Suomikaan ei ole näistä kehityskuluista irrallaan. Täälläkin esimerkiksi Tiktokin ja Youtuben käyttäjät ovat kloonanneet kotimaisten poliitikkojen ääniä ja hassutelleet sillä, mitä kaikkea poliitikot voidaan saada sanomaan ja laulamaan. Huoltovarmuuskeskuksen johtava varautumisasiantuntija Antti Sillanpää onkin arvioinut Suomen Kuvalehdessä, että ”hyvin ajoitettu, ajatuksia sekoittava syväväärennös voi vaikuttaa äänestyspäätökseen.”[xv] 

Samalla on konkretisoitunut myös toinen huoli syväväärennöksistä: se, että myös aitoa materiaalia on alettu syyttää väärennetyksi. Tällä voi olla vakavia vaikutuksia oikean tiedon leviämiselle ja siihen uskomiselle. Tästäkin on jo lukuisia esimerkkejä, tuore tapaus esimerkiksi Israelin ja Gazan konfliktista. 

Muutamia päiviä Hamasin hyökkäyksen jälkeen Israelin pääministerin toimisto julkaisi X:ssä kuvia, joiden se kertoi olevan otettu Hamasin murhaamista ja polttamista israelilaisvauvoista. Kuvissa näkyi valkoisessa kangaskääreessä jonkinlaisia palaneita jäänteitä. Somenkäyttäjät olivat ladanneet näitä kuvia tekoälykuvia tunnistavaan AI or Not -sovellukseen, jonka johtopäätös oli se, että kuvat ovat luultavasti tekoälyllä tehtyjä. 

Esimerkiksi Al Jazeera Arabic uutisoi asiasta väittäen, että Israel oli julkaissut tekoälyllä manipuloituja kuvia. Samaan aikaan lisähämmennystä toi se, että joku oli muokannut yhtä Israelin julkaisemista kuvista niin, että kangaskääreessä olikin nyt koiranpentu. Koiranpentukuvaa levitettiin väittäen, että se oli aito ja alkuperäinen kuva, jota Israelin viranomaiset olivat muokanneet valehdellakseen Hamasin toimista. Tapauksesta on kattavasti raportoinut France24.[xvi]

Lopulta faktantarkistajien ja syväväärennösasiantuntijoiden johtopäätös oli se, että Israelin julkaisemat kuvat olivat aitoja. Moni kuitenkin jo kuvitteli, että Israelin pääministerin toimisto levittää syväväärennöksiä. Tapaus nosti konkreettisesti esiin tekoälykuvien ja -videoiden tunnistamisteknologian vaarallisen sudenkuopan: sen, että ne antavat vääriä positiivisia. Onkin tärkeää ymmärtää, että syväväärennösten vastateknologia, tunnistusteknologia, ei ole täydellistä ainakaan tällä hetkellä. Tässäkään mielessä tekoäly ei toistaiseksi ole luotettava faktantarkistaja.

Jotta syväväärennöksillä voidaan saada vahinkoa aikaan, niitä pitää pystyä levittämään viestipalveluissa ja sosiaalisessa mediassa. Digijäteiltä, kuten Metalta, Tiktokilta, Googlelta ja Microsoftilta onkin vaadittu vastuunkantoa syväväärennösten leviämisen suitsemiseksi. 

Vaikka taitavasti tehtyjä syväväärennöksiä onkin liki mahdotonta erottaa aidosta materiaalista, joistain asioista niitä voi edelleen yrittää tunnistaa:

Yleispätevinä ohjeina voi sanoa, että:

  • Jos jokin somessa vastaan tuleva kuva, video tai ääninauha herättää voimakkaan tunnereaktion, ensimmäiseksi on syytä pysähtyä, harkita ja harkita vielä uudestaan ennen kuin uskoo materiaalia ja jakaa sitä eteenpäin.  
  • Pohdi kolmea kysymystä: Kuka kuvan/videon/ääninauhan on julkaissut? Mitä todistusaineistoa sen tueksi on esitetty? Mitä muut lähteet sanovat asiasta? 
  • Käytä lateraalista lukutapaa: Ovatko luotettavat lähteet raportoineet asiasta? Onko joku kyseenalaistanut materiaalin aitouden kommenteissa? Löydätkö muita kuvia/videoita/materiaalia samasta tapahtumasta? 
  • Ole skeptinen etenkin, jos juuri ennen vaaleja sosiaalisessa mediassa alkaa levitä jokin skandaalinkäryinen kuva, video tai ääninauha. Ota tarpeen mukaan yhteyttä viranomaisiin, faktantarkistajiin tai muuhun journalistiseen mediaan.

Tiettyjen yksityiskohtien kanssa generatiivisella tekoälyllä on edelleen usein haasteita. Sen vuoksi: 

  • Tarkista, ovatko videolla puhuvan ihmisen suun liikkeet ja ääni yhtäaikaiset ja uskottavat.  
  • Kuulostaako ääninauhalla siltä, että puhuja hengittää välissä? Tulevatko hengitykset loogisissa kohdissa? Entä onko puheessa täytesanoja ja epäröintiä, vai kuulostaako puhe epäilyttävän harkitulta ja suoraviivaiselta?   
  • Onko puheen intonaatio liian monotonista ollakseen totta?  
  • Räpsyvätkö puhujan silmät? Entä katsovatko ne samaan suuntaan?   
  • Tekoälyllä tehdyissä kuvissa ja videoissa virheitä voi näkyä esimerkiksi käsissä, hampaissa, korvissa, silmälaseissa ja vartalon mittasuhteissa. Ihmisen iho myös usein näyttää liian pehmeältä ollakseen totta. Tarkista ne. 

- - -

[i] Google Bard https://bard.google.com/; Jasper AI https://www.jasper.ai/chat; Perplexity AI https://www.perplexity.ai/; Bing AI https://www.bing.com/

[ii] McDonnell, Stephen (2023). Elusive Ernie: China’s new chatbot has a censorship problem. BBC. https://www.bbc.com/news/world-asia-66727459 

[iii] Napolitano, Elizabeth (2023). AI eliminated nearly 4,000 jobs in May, report says. CBS News. https://www.cbsnews.com/news/ai-job-losses-artificial-intelligence-challenger-report/

[iv] OpenAI (luettu 19.12.2023). Is ChatGPt biased? https://help.openai.com/en/articles/8313359-is-chatgpt-biased

[v] Damisch J., Kim F. & Shi H. (2023). Reducing Bias in Large Language Models. Berkeley School of information. https://www.ischool.berkeley.edu/projects/2023/reducing-bias-large-language-models

[vi] Larraz Irene & Lozano Borja (2023). How AI-generated content could both fuel disinformation and improve fact-checking. Poynter. https://www.poynter.org/commentary/2023/artificial-intelligence-help-harm-fact-checking/

[vii] Brewster, J., Fishman, Z. & Xu, E. (2023). Funding the Next Generation of Content Farms: Some of the World’s Largest Blue Chip Brands Unintentionally Support the Spread of Unreliable AI-Generated News Websites. NewsGuard. https://www.newsguardtech.com/misinformation-monitor/june-2023/

[viii] Roscoe, Jules (2023). Ai-Generated Books of Nonsense Are All Over Amazon’s Bestseller Lists. Vice. https://www.vice.com/en/article/v7b774/ai-generated-books-of-nonsense-are-all-over-amazons-bestseller-lists

[ix] Abels, Grace (2022). What is the future of automated fact-checking? Fact-checkers discuss. Poynter. https://www.poynter.org/fact-checking/2022/how-will-automated-fact-checking-work/

[x] Abels, Grace (2023). Can ChatGPT fact-check? We tested. Poynter. https://www.poynter.org/fact-checking/2023/chatgpt-ai-replace-fact-checking/

[xi] Algorithm Watch (2023). ChatGPT and Co: Are AI-driven search engines a threat to democratic elections? https://algorithmwatch.org/en/bing-chat-election-2023/

[xii] Meager, Morgan (2023). Slovakia’s Election Deepfakes Show AI Is a Danger to Democracy Wired. https://www.wired.co.uk/article/slovakia-election-deepfakes

[xiii] Suciu, Peter (2023). There Is Now A Deep Fake Video Of Ron DeSantis Dropping Out Of The 2024 Race. Forbes.com. https://www.forbes.com/sites/petersuciu/2023/09/02/there-is-now-a-deep-fake-video-of-ron-desantis-dropping-out-of-the-2024-race/?sh=287ed09f7bf9

[xiv] Vallas Campaign denounces fake, deceptive impersonation video (katsottu 19.12.2023). https://www.paulvallas2023.com/post/vallas-campaign-denounces-fake-deceptive-impersonation-video

[xv] Havula, Pipsa (2023). Hölynpölyä. Suomen Kuvalehti. https://suomenkuvalehti.fi/uutisviikko/huijausten-kanssa-syyta-olla-tarkkana-vaalien-alla-hyvin-ajoitettu-ajatuksia-sekoittava-syvavaarennos-voi-vaikuttaa-aanestyspaatokseen/?shared=1273770-c6709861-500

[xvi] Gallo, Nathan (2023). Was this photo of a dead Israeli baby AI-generated? When AI-detection errors muddle public debate. France24.  https://observers.france24.com/en/middle-east/20231018-was-this-photo-of-a-dead-israeli-baby-ai-generated-when-ai-detection-errors-muddle-public-debate

info@faktabaari.fi

Evästeet

Käytämme sivustollamme yksityisyyden suojaavaa analytiikkaa palveluidemme parantamiseksi.

Lue lisää tietosuoja käytännöistämme täältä.