Tekoälyn ongelmia

Tekijänoikeudet 

Generatiiviset tekoälymallit on koulutettu erittäin suuresta määrästä tekstiä, koodia, kuvia jne.  Ne on usein poimittu Internetistä ja yleensä ilman omistajan lupaa. Itse asiassa emme tiedä tarkasti, mitä materiaalia koulutukseen on käytetty. 

GenAI-yrityksiä vastaan on jo nostettu useita kanteita, joissa on riitautettu tekijänoikeussuojattujen teosten käyttö koulutusmateriaalina. Samanaikaisesti kansallisella ja kansainvälisellä tasolla harkitaan sääntelytoimenpiteitä[i] ja itsesääntelyä, jolla pyritään vastaamaan generatiivisen tekoälyn tuomiin haasteisiin ja mahdollisuuksiin.

EU:n ensimmäinen tekoälyä koskeva sääntelykehys, tekoälylaki, on parhaillaan toimielinten välisissä neuvotteluissa.[ii] EU:ssa valmistellaan tekoälyalan yrityksille avoimuusvaatimuksia, joiden mukaan niiden on toimitettava yksityiskohtaiset asiakirjat koulutustarkoituksiin käytetystä tekijänoikeussuojatusta sisällöstä.

Generatiivisen tekoälyn avulla luodut tekstit ja kuvat saattavat loukata jonkun tekijänoikeuksia. Kansainvälinen käytäntö kuitenkin on vielä tällä hetkellä, että tekijänoikeuksilla voidaan suojata vain ihmisen tekemiä luomuksia. Tekoälyn tuotokset eivät siis nauti tekijänoikeussuojaa. Meneillään on kuitenkin useita kansainvälisiä oikeustapauksia, jotka saattavat muuttaa nykyistä käytäntöä. Jotkut yksittäistapaukset saattavat noudattaa perinteisiä tekijänoikeussääntöjä. Esimerkiksi jos tiedetään, että tekoälyjärjestelmä on koulutettu alkuperäisen teoksen avulla, ja tekoälytuotos on identtinen alkuperäisen teoksen kanssa, niin on hyvin mahdollista, että tekoälytuotos loukkaa teoksen tekijänoikeussuojaa.

INPUT – Generatiivisen tekoälyn kouluttamiseen liittyvät kysymykset

GenAI-yritykset kouluttavat järjestelmiään tietokokonaisuuksien pohjalta, joihin voi kuulua mm. tekoälybottien verkosta keräämää sisältöä. Tämä herättää useita tekijänoikeuskysymyksiä, kuten:

  • GenAI-yritysten tekoälyn koulutukseen käytetyn sisällön avoimuus ja sen dokumentointi 
  • Ratkaisut, joilla estetään tekijänoikeuden suojaaman sisällön kerääminen verkosta (scraping). Verkkosisällön osalta useat GenAI-yritykset ovat jo ilmoittaneet noudattavansa ns. robotti.txt-protokollaa ja siihen liittyviä rajoituksia, jotka koskevat verkkosivujen indeksointia ja aineiston keräämistä.[iii] Sen lisäksi muita teknisiä ja oikeudellisia lähestymistapoja on kehitteillä tai harkinnassa.
  • Mahdollisuus lisensoida laillisesti sisältöä GenAI-koulutusmateriaaliksi esimerkiksi kollektiivisen oikeudenhallinnan järjestelmien avulla. 
  • Kehittyvä oikeuskäytäntö: oikeudenhaltijat ovat nostaneet useita kanteita GenAI-yrityksiä vastaan, jotka ovat jo käyttäneet heidän sisältöään koulutusmateriaalina. Voitaisiinko tällainen käyttö sisällyttää tekijänoikeutta koskeviin poikkeuksiin?
  • Kansainvälinen ulottuvuus, joka liittyy tekijänoikeuksien alueellisuuteen. Osa EU:ssa palveluja tarjoavista GenAI-yrityksistä toimii sellaisilla lainkäyttöalueilla, jotka eivät välttämättä rajoita tekijänoikeuksien suojaaman aineiston käyttöä koulutustietona. 
  • Syötetietojen käyttö tuotoksen hyväksyttävyyden todisteena. Syötteessä voisi esimerkiksi edellyttää, ettei tuotoksen aineisto ole tekijänoikeuslain suojaamaa vaan vapaasti käytössä eikä se ole puolueellista, ennakkoluuloista tai epätasapainoista.

OUTPUT - Generatiivisen tekoälyn tuotokset

GenAI-työkalujen tuotokset syntyvät yksinkertaisten syötteiden perusteella tai niitä voidaan käyttää avustamaan ihmistä hänen innovatiivisissa, luovissa, brändäys- ja muissa tietoon ja tietämykseen liittyvissä toimissaan. Tämä herättää väistämättä erilaisia tekijänoikeuksiin liittyviä kysymyksiä, kuten esimerkiksi:

  • GenAI:n tuotosten tekijänoikeussuoja: Muutamat teollis- ja tekijänoikeusvirastot ovat antaneet suuntaviivoja kriteereistä, joiden perusteella tekoälyn tuotokset voitaisiin suojata tekijänoikeudella. Tällä hetkellä ainoastaan ihmisten tekemä luova työ nauttii tekijänsuojaa.
  • Tekijänoikeussuoja GenAI:n tuotoksia vastaan: Jotkin oikeudenhaltijat pohtivat myös, miten heitä voidaan suojella siltä, että he eivät joudu kilpailemaan omien teostensa pohjalta tuotettujen tai niitä jäljittelevien tuotosten kanssa. 
  • GenAI-työkalujen käyttö tekijänoikeuksia loukkaaviin toimiin ja rikoksiin sekä niiden estäminen, valvonta ja mahdolliset seuraamukset. 

Tekijänoikeudet kouluissa

Opettajat voivat käyttää ainakin toistaiseksi tekoälysovellusten luomia kuvia ja tekstejä materiaaleissaan vapaasti, sillä tekoälyn tuotoksilla ei ole tekijänoikeussuojaa. Lisäksi uuden tekijänoikeuslain opetuspoikkeus antaa oppilaille ja opettajille kouluympäristössä mahdollisuuden käyttää digitaalista materiaalia opetustarkoituksiin aiempaa laajemmin.[iv]  

Uusien sovellusten käyttöön liittyy kuitenkin merkittäviä eettisiä ja juridisia kysymyksiä, joista laajimpia ratkotaan kansainvälisellä ja kansallisella tasolla. Opetushallituksen julkaiseman blogin mukaan lainsäädännön ja kunkin koulun ja oppilaitoksen omien sääntöjen mukainen, vastuullinen toiminta on tärkeää kaikessa digilaitteiden ja sovellusten käytössä, niin myös tekoälyyn tutustuttaessa.[v] Tekoälyyn liittyvä osaaminen on osa tämän päivän ja tulevaisuuden yleissivistystä ja kuuluu kaikille oppijoille.

Lähdekritiikki

Tekoälyn antamista vastauksista on lähdetietojen puuttumisen vuoksi vaikea päätellä, mihin aineistoon ne perustuvat. On tyypillistä, että tekoälypalvelut keksivät lähdemateriaaleja, joita ei ole oikeasti olemassa. Oppilaiden ja opiskelijoiden kanssa töitä tehdessä ja tekoälysovelluksia käyttäessä kannattaa muistaa kriittinen suhtautuminen AI:n antamiin lähteisiin, ja osa tehtävää tulisikin olla lähteiden tarkistaminen. Se vie toki aikaa mutta opettaa lähdekritiikkiä ja tiedonhakua perusteellisella tavalla.

Tietoturva

ChatGPT ja monet muut sovellukset eivät noudata ainakaan tätä kirjoittaessa EU:n tietosuoja-asetusta (GDPR). Siksi on tärkeää muistaa, ettei näille alustoille voi jakaa mitään luottamuksellista materiaalia esim. oppilastiedoista. GPT-järjestelmät saattavat olla myös ristiriidassa tietosuoja-asetuksen muiden kohtien kanssa, jonka pohjalta ihmisillä on esim. oikeus tulla unohdetuksi. Tietojen poistaminen GPT-mallista on kuitenkin ainakin tällä hetkellä mahdotonta.

Läpinäkyvyyden puute

Markkinoille on tullut viimeisten kuukausien aikana lukuisia generatiivista tekoälyä hyödyntäviä ohjelmistoja ja sivustoja. Suurin osa niistä on kaupallisia ja kaikki niistä eivät ole välttämättä turvallisia ja luotettavia esimerkiksi tietosuojan kannalta. Monet organisaatiot ovat rajoittaneet uusien ohjelmistojen käyttöä odottaen tarkempia tietoturvaselvityksiä niiden toiminnasta. Koulujen kannalta tilanne on hankala. Harvalla koulutuksenjärjestäjällä on tarvittavaa tietotaitoa tai resursseja tarkistaa uusien ohjelmistojen mahdollisia riskejä. 

Generatiivisen tekoälyn (GenAI) käyttämät keinotekoiset neuroverkot ovat yleensä ”mustia laatikoita”, eli niiden sisäistä toimintaa ei voida tutkia. Tämän vuoksi ne eivät ole ”läpinäkyviä” eikä ole mahdollista selvittää, miten niiden tuotokset on syntyneet. Tekoälysovellukset voivat siis tuottaa odottamattomia tuloksia. Tämä läpinäkymättömyys on myös keskeinen syy GenAI-malleihin liittyviin luottamusongelmiin.[vi]  Jos käyttäjät eivät ymmärrä, miten GenAI-järjestelmä on päätynyt tiettyyn tulokseen, he eivät todennäköisesti ole halukkaita ottamaan sitä käyttöön tai käyttämään sitä.[vii] 

Siksi kaikkien tulisi tiedostaa, että GenAI-järjestelmät toimivat kuin mustat laatikot ja että sen vuoksi on vaikeaa ellei mahdotonta tietää, miksi tietty sisältö on luotu. Tuotokset voivat myös heijastaa tiettyjä kulttuurisia tai kaupallisia arvoja, jotka vääristävät tuotettua sisältöä. Nykyisellään vaikuttaa siltä[viii], että luotettavinta tietoa GPT-kielimallien opetusaineistoissa on Wikipedian sisältö, mutta sekään ei ole täysin neutraalia tai vapaata vinoumista, jotka periytyvät sen käyttäjäkunnalta.[ix]

Virheellisen informaation leviäminen

GPT on koulutettu internetistä peräisin olevasta materiaalista, jossa on mukana usein disinformaatiota ja syrjivää tai muuta arveluttavaa sisältöä. GPT:n kehittäjät ovat pyrkineet niitä jossain määrin karsimaan, mutta tehokkaiden valvontamekanismien ja säännösten puuttuessa GenAI:n tuottama vinoutunut tai vääristynyt aineisto leviää eteenpäin. GenAI-järjestelmät saattavat siis tuottaa ja levittää eteenpäin loukkaavaa ja epäeettistä materiaalia. 

Vaikka tekoäly voi tuottaa tuloksia, jotka näyttävät huomattavan oivaltavilta ja hyödyllisiltä, se voi myös keksiä ”tosiasioita”, jotka kuulostavat täysin uskottavilta ja liittää ne tuotoksiinsa. Tätä ilmiötä kutsutaan usein hallusinoinniksi.[x] Virheet voivat olla syvälle kietoutuneita tekoälyn tuotoksiin, ja niitä voi olla vaikea havaita. Ne esiintyvät yleisimmin kun kysytään lainauksia, lähteitä, viittauksia tai muita yksityiskohtaisia tietoja. Kannattaa siis aina tarkistaa annetut lähdetiedot ja viittaukset.

Vaikka GenAI:n tuottama materiaali voi vaikuttaa varsin tarkalta, ammattimaiselta ja vakuuttavalta, niin se voi sisältää virheellistä informaatiota ja vinoutuneita ajatuksia. Tämä on erityisesti suuri riski nuorille oppijoille, joilla ei ole vankkaa yleis- tai ennakkotietoa kyseisestä aiheesta. 

Reaalimaailman ymmärtämättömyys 

Tekoälyn tuottama vastaus voi vaikuttaa usein niin luontevalta, että tuntuu kuin se ymmärtäisi tuottamansa tekstin sisältöä. GPT ei kuitenkaan ymmärrä tuottamaansa tekstiä, ja se tuottaa usein virheellisiä lausumia. Siksi kaikkeen tekoälyn tuottamaan materiaaliin on suhtauduttava kriittisesti.

Tekoälyjärjestelmien tuottama teksti pohjautuu laskennallisiin todennäköisyyksiin. Siksi GenAI sovelluksia kutsutaan joskus ”stokastisiksi papukaijoiksi.” Ne toistavat harjoitusaineistostaan (yleensä internetistä poimittua tekstiä) löytämiään kielellisiä malleja aivan kuten papukaija voi matkia ääniä ymmärtämättä todellisuudessa, mitä se sanoo.

Unescon raportin mukaan GenAI:n perustana eivät ole havainnot todellisesta maailmasta tai tieteellisten menetelmien avulla hankitut tulokset, eikä se ole linjassa inhimillisten tai sosiaalisten arvojen kanssa. Näistä syistä se ei voi tuottaa aidosti uutta sisältöä reaalimaailmasta, esineistä ja niiden välisistä suhteista, ihmisistä ja sosiaalisista suhteista, ihmisen ja esineen välisistä suhteista tai ihmisen ja teknologian välisistä suhteista.[xi] 

GenAI:ta tuottavat yritykset myöntävät, että GPT:t keksivät asioita, joita ei ole olemassa. Esimerkiksi ChatGPT:n julkisen käyttöliittymän alaosassa todetaan seuraavaa: ”ChatGPT saattaa tuottaa epätarkkoja tietoja ihmisistä, paikoista tai tosiasioista”.

Vähemmistöjen marginalisointi

GenAI-mallien kehittäjillä ja tarjoajilla on ensisijainen vastuu siitä, että näiden mallien tuotoksiin sisältyviä ennakkoluuloja käsitellään asianmukaisesti.  Käyttäjän on kuitenkin hyvä olla tietoinen siitä, että GenAI-tekstin tuotos edustaa usein yleisintä tai vallitsevaa näkemystä maailmasta, sillä hetkellä, kun sen harjoitusaineisto tuotettiin, ja että osa siitä on ongelmallista tai sisältää ennakkoluuloja (esim. stereotyyppiset sukupuoliroolit).[xii] Kielimalleista esimerkiksi ChatGPT on päässyt aiemmin käsiksi vain loppuvuoteen 2021 ulottuviin tietoihin, mutta syksyllä 2023 se ja vastaavat tekoälysovellukset ovat päässeet käsiksi reaaliaikaisin tietoihin verkossa.

ChatGPT:llä ja vastaavilla työkaluilla on taipumus tuottaa vakiovastauksia, joissa heijastetaan mallien kouluttamiseen käytettyjen tietojen omistajien tai luojien arvoja.[xiii] Jos sanasarja esiintyy usein harjoitusaineistossa – kuten yleisten ja kiistattomien aiheiden ja valtavirran tai vallitsevien uskomusten kohdalla – GPT toistaa sen todennäköisesti tulosteessaan. Tämä saattaa rajoittaa ja heikentää moniarvoisten mielipiteiden ja moniarvoisten ajatusten ilmaisujen kehittymistä. On olemassa väestöryhmiä, joilla on minimaalinen tai rajallinen digitaalinen läsnäolo verkossa. Heidän äänensä ei näin ollen tule kuulluksi eikä heidän huolenaiheitaan esitetä tekoälymallien kouluttamiseen käytetyissä tiedoissa. GPT-mallit voivat siis entisestään marginalisoida jo ennestään heikommassa asemassa olevia ihmisiä. Siksi on hyvä tiedostaa, että vähemmistöjen äänet voivat jäädä vastauksissa huomiotta.

Ikärajasuositukset

Generatiivisen tekoälyn koulukäytössä on huomioitava ohjelmistojen antamat ikäsuositukset. Esim. OpenAI ilmoittaa sivuillaan, ettei ChatGPT:tä ole tarkoitettu alle 13-vuotiaille lapsille, ja että 13–18-vuotiaiden lasten tulisi hankkia vanhempiensa suostumus ennen ChatGPT:n käyttöä, sillä ohjelmisto saattaa tuottaa tuloksia, jotka eivät sovellu kaikenikäisille. Opettajien tulisi ottaa tämä huomioon käyttäessään ohjelmistoa oppilaiden kanssa. Lisäksi jos ChatGPT:tä käytetään alle 13-vuotiaiden oppilaiden opetuksessa, niin vuorovaikutuksen ChatGPT:n kanssa on oltava aikuisen suorittama.[xiv] 

Ympäristövaikutukset

Uusien digitaalitekniikoiden käytössä on huomioitava myös ympäristön ekologiseen kestävyyteen liittyviä näkökohtia. Generatiivisen tekoälyn ympäristökustannukset jätetään usein huomiotta. Tekoälyn kouluttaminen sekä Bitcoinin kaltaisten kryptovaluuttojen lohkomisen vaatiman datan varastointi ja laskenta ovat erittäin resurssi-intensiivisiä prosesseja. 

Datakeskukset vastaavat noin 2–3 prosentista maailman kasvihuonekaasupäästöistä.[xv] Datan määrä maailmassa kaksinkertaistuu joka toinen vuosi. Tietokeskusten palvelimet, jotka tallentavat tätä jatkuvasti kasvavaa tietomerta, vaativat valtavia määriä energiaa ja vettä (suoraan jäähdytykseen ja epäsuorasti uusiutumattoman sähkön tuottamiseen) tietokonepalvelimien, laitteiden ja jäähdytysjärjestelmien käyttämiseen. Suurella energiankulutuksella on huomattavia ympäristövaikutuksia.

DigComp 2.2:ssa suositellaan tekoälyn käyttäjiä pohtimaan tekoälyjärjestelmien käytön eettisiä seurauksia koko niiden elinkaaren ajan.[xvi] Näihin kuuluvat sekä ympäristövaikutukset (digitaalisten laitteiden ja palvelujen tuotannon ympäristövaikutukset) että yhteiskunnalliset vaikutukset, jotka voivat rajoittaa työntekijöiden yksityisyyttä tai oikeuksia. Tästä on esimerkkinä halpatyövoiman käyttö kuvien merkitsemiseen tekoälyjärjestelmien kouluttamiseksi.

Toisaalta tekoälyä voidaan käyttää myös ympäristöystävällisiin tarkoituksiin esimerkiksi kehittämällä järjestelmiä, jotka optimoivat erilaisten tilojen energiatehokkuutta seuraamalla lämmitystarvetta ja ilmastointia.

Kuluttajien on hyvä olla tietoinen teknologian ympäristövaikutuksista, jotta he osaisivat valita ekologisia ja kestävää kehitystä edistäviä digitekniikan vaihtoehtoja ja toimintatapoja.

Laadukkaat väärennökset

Generatiivista tekoälyä hyödyntäviä ohjelmistoja voidaan käyttää kuvien tai videoiden muuttamiseen tai manipulointiin. Näitä deepfake-väärennöksiä on vaikea erottaa aidoista kuvista tai videoista. Aikaisemmin huijaussivustot ja disinformaatiota sisältävät sivustot saatettiin tunnistaa amatöörimäisesti tehdyistä videoista ja käännösvirheitä sisältävistä kömpelöistä teksteistä. Nykyään disinformaation levittäjien on GenAI:n avulla helppo luoda erittäin aidon näköisiä väärennöksiä, joissa voidaan käyttää luvatta esimerkiksi jonkun kasvoja ja ääntä. 

GenAI helpottaa näin myös disinformaation levittämistä, vihapuheen lisääntymistä ja valitettavasti myös rikollista toimintaa. Tekoäly voi auttaa tietoverkkorikollisia tuottamaan haittaohjelmia nopeasti, automatisoimaan hyökkäyksiä ja tehostamaan huijauksia tai sosiaalista manipulointia koskevia hyökkäyksiä käyttämällä väärennöksiä ja tekoälyllä toimivaa todelliselta ihmiseltä kuulostavaa äänisynteesiä.[xvii]

Esimerkki BBC:lltä[xviii]: Lapsille suunnatut ”opetussisällöt” sisältävät vääristeltyä ”tieteellistä” informaatiota ja videoita

BBC:n Global Disinformation Team löysi YouTubesta kymmeniä kanavia, jotka tuottavat harhaanjohtavaa pseudo-tieteellistä materiaalia lapsille muun muassa arabiaksi, espanjaksi ja thaiksi. Monilla näistä kanavista oli yli miljoona tilaajaa. Niiden videot saavat usein miljoonia katselukertoja.

Kanavien tekijät julkaisevat sisältöä nopeasti, ja monet julkaisevat useita videoita päivittäin. Pystyäkseen tekemään näin nopeasti BBC:n toimittajat epäilivät, että sisällöntuottajat käyttivät generatiivisia tekoälyohjelmia. Nämä ovat Chat GPT:n ja MidJourneyn kaltaisia ohjelmia, jotka voivat luoda uutta sisältöä, kun niitä pyydetään [esim. “musta kissa, jolla on kruunu päässään”], sen sijaan että etsisivät internetistä jo olemassa olevia esimerkkejä.

Tämän teorian testaamiseksi he ottivat videoita jokaiselta kanavalta ja käyttivät tekoälyn tunnistustyökaluja ja asiantuntija-analyysiä arvioidakseen todennäköisyyttä tai todennäköisyyttä sille, että kuvamateriaali, selostus ja käsikirjoitus oli tehty tekoälyn avulla. BBC:n analyysi osoitti, että useimmissa videoissa tekoälyä oli käytetty tekstin ja kuvien tuottamiseen sekä tietojen poimimiseen verkkosivustolta ja materiaalin manipulointiin todellisista tiedevideoista. Tuloksena on sisältö, joka näyttää koostuvan tosiseikoista, mutta on useimmiten valheellista tai harhaanjohtavaa.

- - -

[i] European Commission (2023) International Draft Guiding Principles for Organizations Developing Advanced AI systems. https://digital-strategy.ec.europa.eu/en/library/international-draft-guiding-principles-organizations-developing-advanced-ai-systems

[ii]Council of EU (2023). Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world. https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/ 

[iii] Cloudware (ladattu 19.12.2023) What is robots.txt? How a robots.txt file works. https://www.cloudflare.com/en-gb/learning/bots/what-is-robots-txt/

[iv] Kopiosto (ladattu 19.12.2023) Kopiraittila. https://kopiraittila.fi/tekijanoikeustietoa/opettajan-tekijanoikeus/ 

[v] Opetushallitus (ladattu 18.12.2023) Tekoälyä hyödyntäviin sovelluksiin tutustuminen koulussa ja oppilaitoksissa.  https://www.oph.fi/fi/opettajat-ja-kasvattajat/joko-teidan-tyoyhteisossanne-keskustellaan-tekoalysta-0  

[vi] Nazaretsky, T., Cukurova, M. and Alexandron, G. 2022a. An Instrument for Measuring Teachers’ Trust in AI-Based Educational Technology. LAK22: 12th International Learning Analytics and Knowledge Conference. Vancouver, Association for Computing Machinery, pp. 55-66.

[vii] Nazaretsky, T. et al (2022) Teachers’ trust in AI-powered education technology. British Journal of Educational Technology. BERA.  https://doi.org/10.1111/bjet.13232 

[viii] Laaksonen, S. (2023) Tekstiä tuottava tekoäly ja tieteen avoimuus. https://blogs.helsinki.fi/thinkopen/tekoaly-ja-tieteen-avoimuus/ 

[ix] Wikipedia (ladattu 19.12.2023) https://en.wikipedia.org/wiki/Wikipedia:Systemic_bias  

[x] Mollick, E.& Mollick, L. (2023) Assigning AI: seven approaches for students, with prompts. http://dx.doi.org/10.2139/ssrn.4475995    

[xi] Fengchun, M. (2023). Guidance for generative AI in education and research. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000386693

[xii] Fengchun, M. (2023). Guidance for generative AI in education and research. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000386693

[xiii] Ks. esim. Coded bias-dokumenttifilmi: https://www.netflix.com/es-en/title/81328723 

[xiv] OpenAI (ladattu 19.12.2023) Is ChatGTP safe for all ages? https://help.openai.com/en/articles/8313401-is-chatgpt-safe-for-all-ages 

[xv] Kumar, A., and Davenport, T. (2023) How to make generative Ai greener. HBR. https://hbr.org/2023/07/how-to-make-generative-ai-greener 

[xvi] Vuorikari, R., Kluzer, S. and Punie, Y., (2022) DigComp 2.2: The Digital Competence Framework for Citizens - With new examples of knowledge, skills and attitudes, EUR 31006 EN, Publications Office of the European Union, Luxembourg. doi:10.2760/490274 

[xvii] Belani, G. (2023) AI for Cybersecurity and Cybercrime. IEEE Computer Society. https://www.computer.org/publications/tech-news/trends/ai-fighting-ai 

[xviii] BBC (2023) AI used to target kids with disinformation. https://www.bbc.co.uk/newsround/66796495

info@faktabaari.fi

Evästeet

Käytämme sivustollamme yksityisyyden suojaavaa analytiikkaa palveluidemme parantamiseksi.

Lue lisää tietosuoja käytännöistämme täältä.