Demokratia, osallisuus ja tekoäly

Demokratiassa valta on kansalla – siis meillä ihan tavallisilla ihmisillä. Se tarkoittaa muun muassa oikeutta osallistua yhteiskunnalliseen päätöksentekoon joko suoraan tai valitsemalla edustajia, jotka laativat lakeja ja tekevät päätöksiä puolestamme, parhaan käsityksensä mukaan. Suomen tulee demokraattisena valtiona kunnioittaa lukuisia eri perus- ja ihmisoikeuksia, kuten sananvapautta ja tasa-arvoa.

Yhteiskunnassa tapahtuu kuitenkin valtavasti arkeemme vaikuttavia asioita, joihin meillä on joko hyvin vähän tai ei lainkaan mahdollisuutta vaikuttaa. Teknologinen kehitys kuuluu näihin: generatiivista tekoälyä on kehitetty tavallisten ihmisten ulottumattomissa, ja se on uinut lukemattomiin eri palveluihin ja käyttötarkoituksiin kuin huomaamatta, ajan saatossa. Tästä huolimatta sen kehitys olisi ollut täysin mahdotonta ilman tavallisia ihmisiä, jotka käyttävät arjessaan digitaalisia palveluita. Heiltä tulee monen tekoälyn opettamiseen tarvittava data, tavalla tai toisella, luvatta tai luvan kanssa. 

Demokratioiden keskiössä ovat valistuneet, mielipiteitä muodostavat yksilöt, jotka kykenevät erilaisten yhteisöjen ja yhteiskunnan jäsenenä yhteistoimintaan muiden kanssa. Generatiivisen tekoälyn mukaantulo tarjoaa mahdollisuuksia haastaa tätä perustaa yhä enemmän. Ääriaineisten ja autoritaaristen valtioiden on entistä helpompi hämmentää, ohjailla keskustelua, saastuttaa informaatiota, luoda epäsopua ja jakaa ihmisiä.

Luottamus toisiin ihmisiin ja yleisesti yhteiskuntaan on demokratioissa täysin välttämätöntä. Jos mihinkään tai kehenkään ei voi luottaa, on demokratia, ja samalla yksilönvapaus, todellisessa vaarassa. Siksi tähän kehitykseen on tartuttava määrätietoisesti, kaikilla yhteiskunnan alueilla ja tasoilla.

Koska digitalisaation tuloksena syntynyt tekoäly vaikuttaa elämäämme monin eri tavoin, on kohtuullista ajatella, että sen hyödyntäjillä ja käyttäjillä – tai sen ongelmista kärsivillä – tulisi puolestaan olla mahdollisuus vaikuttaa tekoälyn käyttöön ja kehitykseen. Uudet teknologiat kulkevat käsi kädessä demokratian ja yksilönvapauksien kanssa. 

EU:n lait suojelevat ihmisiä ja organisaatioita 

Euroopan unionissa painotetaan yksilöiden oikeuksia teknologioiden sääntelyssä. Tulevan tekoälysääntelyn (AI Act) tavoitteena on varmistaa, että EU:ssa käytettävät tekoälyjärjestelmät ovat turvallisia, läpinäkyviä, jäljitettäviä, syrjimättömiä ja ympäristöystävällisiä. Näkemys on myös, että tekoälyjärjestelmiä tulisi valvoa ihmisten eikä automaation avulla, jotta haitallisia vaikutuksia voitaisiin paremmin hallita.

EU:n dataan liittyvä sääntely turvaa yksilöiden ja erityisesti lasten oikeuksia jo melko hyvin. Myös uusi digipalvelusäädös (Digital Services Act, DSA) jatkaa jouhevasti eurooppalaisen tietosuojasäädöksen (GDPR) linjoilla. DSA tuo kuitenkin mukanaan lisää velvoitteita suurille palveluntarjoajille asettaessaan muun muassa täyskiellon lasten profiloinnille mainontaa varten. 

Jo GDPR:n voimaantulo edellytti, että informaatio siitä miten ja miksi dataa kerätään, pitää tarjota myös lapsille ymmärrettävässä muodossa. Nyt se on sitäkin tärkeämpää, kun dataa yksilöistä ei enää kerätä vain ”mainosten kohdistamista varten”, vaan sitä käytetään tekoälyn kehittämiseen.

Vaikka tavoitteena onkin esimerkiksi huolehtia eurooppalaisesta tekoälyosaamisesta ja yritysten innovaatiokyvystä, eurooppalaisella tekoälylainsäädännöllä halutaan myös varmistaa, että käytettävät teknologiat ovat ihmiskeskeisiä ja luotettavia.

Matti Meikäläisen kannalta tämä tarkoittaa muun muassa sitä, että alustoja on kielletty manipuloimasta ja taivuttelemasta käyttäjiään niin, että heidän kykynsä tehdä valistuneita ja vapaita valintoja estyy.[i] Heitä ei saa myöskään pisteyttää sosiaalisesti, millä tarkoitetaan ihmisten luokittelua käyttäytymisen, taloudellisen aseman tai henkilökohtaisten ominaisuuksien perusteella. Sosiaalista pisteytystä käytetään jo Kiinassa esimerkiksi päätettäessä siitä, annetaanko kansalaisille lupaa matkustaa ulkomaille. 

Suomi, päättäjät ja tekoäly 

Valtiovarainministeriö sanoo tekoälyn eettisessä ohjeistuksessaan näin: ”Julkisessa hallinnossa on kyse toimimisesta kansalaisten valtuutuksella, julkisilla varoilla ja kansalaisten eduksi. Tämä laillinen ja eettinen suhde kansalaisen, valtion ja virkahenkilön välillä on myös tekoälyn käytön perusta.”[ii]

On tärkeää huomata, että kansalaisten valtuutuksella toimiminen voi tarkoittaa hyvin erilaisia asioita, eikä Suomessa ole toistaiseksi käytäntöä ottaa kansalaisia mukaan aktiivisesti keskustelemaan ja kehittämään tekoälyä julkisten palveluiden yhteydessä.

Edellytykset moniääniselle osallistumiselle tekoälyn kehitykseen ovat olemassa niin lain kuin julkishallinnon eettisen ohjeistuksenkin pohjalta. Myös teknologisia ratkaisuja, joilla suuria ihmismääriä voidaan saada keskustelemaan rakentavasti yhteisistä asioista, on jo saatavilla. Esimerkki tällaisesta kokeilusta on Sitran ”Mitä mieltä, Suomi?” -kampanja, jonka avulla kartoitettiin kansalaisten mielipiteitä eri asioista yhteisymmärrykseen tähtäävällä tavalla.[iii]  

Digitalisaation, mutta myös tekoälyn hyödyntäminen sosiaali- ja terveyspalveluissa on välttämätöntä, jotta palvelut voidaan taata kaikille. Sosiaali- ja terveysministeriö onkin näyttänyt esimerkkiä eri ryhmien osallistamisesta suunnitteluun ja kysynyt myös kansalaisten näkemyksiä siitä, millaisia digitaalisia palveluja he haluavat tulevaisuudessa.[iv] Näin toimimalla voitaisiin varmistaa, että myös tekoälyteknologioilla edistetään hallinnon yleisiä tavoitteita, kuten avointa ja aktiivista kansalaisuutta tukevaa hallintoa ja luottamukseen ja perusoikeuksien edistämiseen perustuvaa yhteiskuntaa.

Kuka saa vaikuttaa tekoälyn kehitykseen? 

Jos sinä saisit vaikuttaa tekoälyn tulevaisuuteen, mitä siltä toivoisit? Kysymys sinulle, olitpa kuka vain, on yhtä tärkeä kuin kysymys tekoälytutkijalle tai -kehittäjälle. Juuri monet tekoälytutkijat ovat viime aikoina toivoneet enemmän moniäänisyyttä tekoälykeskusteluun, sillä olemme painottaneet liikaa teknologiaa, jolloin ihminen on ehkä jäänyt taka-alalle.

Tällä hetkellä toiveenasi voisi olla niinkin yksinkertainen asia kuin että käyttämäsi generatiivinen tekoäly ei hallusinoisi vaan sen antamaan tietoon voisi luottaa. Jos katsomme vähän pidemmälle tulevaisuuteen, kysymys on paljon suuremmasta ja tärkeämmästä asiasta. On tärkeää pohtia, kuka käyttää valtaa meihin ja ympäristöömme, mutta myös sitä, onko meillä itsellämme lainkaan valtaa vaikuttaa tulevaisuuden suuntaan.

Tekoälyjä on monenlaisia, joten niin on luonnollisesti tapoja hyödyntääkin niitä. Siksi vaikutus yhteiskuntaan tai yksilöiden elämään on joissakin tapauksissa näkyvämpää ja jää toisaalla täysin pimentoon. Tekoäly voi olla vaikkapa tavallisen ihmisen viihdettä tai tiedonhakua keskustellen chatbotin välityksellä. Toisaalla se on yrityksen työkalu, jonka avulla voi summata tietoa tai kääntää asiantuntija-artikkeleita. Tai sitten se on täysin näkymättömissä, konepellin alla, esimerkiksi vakuutusyhtiön tai viraston koneistossa, verkkokaupan tai somen suosituksissa, jossa se tekee ”itsenäisiä” päätöksiä henkilökohtaisiin tietoihin pohjautuen. Silloin tekoälyyn ei voi suoraan itse vaikuttaa, vaikka sillä on suuri merkitys ihmisen arjessa.

Digitalisaatio on tuonut monien hyötyjen ohella paljon haittoja. Yksi tärkeimmistä ongelmista on digitaalisten varantojen (infrastruktuuri, data ja osaaminen) keskittyminen pienelle joukolle maailmanlaajuisia jättiyrityksiä. Generatiivisen tekoälyn kehityksessä on hyödynnetty suurten ihmisjoukkojen käyttämistä digitaalisista palveluista – sosiaalisesta mediasta, verkkokaupoista ja hakukoneista – kerättyä dataa, joka on digitaalisille jäteille arvokasta raaka-ainetta. Siksi suurimmat voittajat ovat ainakin toistaiseksi likimain samoja yrityksiä kuin aiemminkin.

Jos emme aktiivisesti toimi eri puolilla yhteiskuntaa, äärimmäisessä tapauksessa muutama yksilö suuryritysten johdossa voisi saada sellaista valtaa, jollaista ei ole koskaan ennen nähty ihmiskunnan historiassa. Se olisi räikeässä ristiriidassa demokratian periaatteiden kanssa. Jos digitaalinen valta keskittyy edelleen, keskittyy valitettavasti myös valta vaikuttaa tulevaisuuteen, ja se olisi kaikkien kannalta huono asia.

Lait ja oman ymmärryksemme kasvattaminen suojelevat meitä jonkin verran haitoilta, mutta entä hyödyt: kuinka ottaa kaikki irti lupaavasta teknologiasta, jolla voisimme oikeasti parantaa maailmaa? Tekoälyn kehittämisen valta on saatava hajautettua ja vieläpä meille yksilöille asti. 

Joissakin maissa ratkaisua on haettu hallinnon tekemän tekoälystrategian ja ihmisten toimijuuden yhdistelmällä. 

Mainio esimerkki löytyy Skotlannista, jossa maan hallinto on linjannut tekoälystrategiansa olevan luottamuksen arvoinen, eettinen ja kaikkia osallistava.[v] Sana ”osallistava” ei ole jäänyt vain kirjoitettuun dokumenttiin, vaan sitä toteutetaan määrätietoisella otteella. Skotlannissa tekoälyjärjestelmät valjastetaan demokratian palvelukseen, sillä yksi kehittämisen periaatteista edellyttää, että tekoälyjärjestelmät suunnitellaan kunnioittamaan oikeusvaltioperiaatetta, ihmisoikeuksia, demokraattisia arvoja ja monimuotoisuutta. 

Ilahduttavinta on se, että myös lapset ja nuoret pääsevät osallistumaan, toimimaan ja siten vaikuttamaan. Huolimatta tekoälyn nopeasta kehityksestä, lasten kokemuksia tekoälystä on tutkittu vain vähän. Skotlantilaisten kokeilukoulujen tutkimusohjelmassa lapset pohtivat tekoälyn eettisiä kysymyksiä. Ohjelma kannustaa lapsia toimijuuteen. Lasten huolet, toiveet ja näkemykset tekoälystä koetaan arvokkaiksi ja ne viedään päättäjille pohdittaviksi tekoälyä koskevan päätöksenteon pohjaksi. Lapsen oikeudet ovat olennainen osa tekoälyajattelua, jolloin lapsille ja nuorille annetaan tulevaisuusvaltaa vaikuttaa itseään koskeviin asioihin.

Haaveena demokraattinen ja inhimillisiin arvoihin perustuva tekoäly 

Meillä kaikilla on teoriassa oikeus vaikuttaa tulevaisuuteen, mutta kuinka käytännössä osallistua ”kaukana olevien” asioiden, kuten tekoälyinnovaatioiden, -politiikan ja -hallinnon muotoiluun? Aivan ensimmäiseksi jokaisen täytyy tunnistaa olevansa oikeutettu mielipiteeseen tekoälystä ilman, että se edellyttää teknistä osaamista. 

Vaikka tekoälyn käyttäminen sopivien lääkkeiden kehittämiseen voi olla kaukana tavallisen ihmisen elämästä, tulisi yksilöiden saada vaikuttaa kaikkeen teknologian kehitystyöhön, jolla vaikutetaan ihmisten oikeuksiin ja elämään.

Tekoälyn käyttöä tarkastellaan jo nyt kouluissa sekä opetusvälineen roolissa että muutoinkin. Koulut ovat hyvin eri vaiheissa generatiivisen tekoälyn hyödyntämisessä ja opettamisessa, mutta kuka tahansa voi pohtia tekoälyn merkitystä vaikkapa yhteiskuntaopin, psykologian tai uskonnon tunneilla. Vaikka otamme vasta ensi askeleita tekoälyopetuksessa, on hyvä pohtia myös, kuinka sen mukaantulo voi muuttaa koulua ja kaikkea opetusta.

The Child Friendly Governance Project on kirjoittanut, että nykyinen yhteiskuntamme on hyvä kasvattamaan kuluttajia, mutta ei niin hyvä kasvattamaan kansalaisia. Jos pääsemme kouluissa paneutumaan tekoälyjen etiikkaan, demokratiaan ja ihmisoikeuksiin sekä sen moninaisiin yhteiskunnallisiin vaikutuksiin, varustamme lapsia ja nuoria paremmin tulevaisuuteen. Demokratia- ja ihmisoikeuskasvatuksen tulisi tukea tekoälyopetusta ja päinvastoin.

Sosiaalibiologi E. O. Wilson on puolestaan (vapaasti suomentaen) todennut, että ihmiskunnan todellinen ongelma on se, että tunne-elämämme on vielä kivikautista, instituutiomme pohjaavat keskiaikaan ja teknologia on jumalankaltaisella tasolla.[vi] Sekä tekoälyn että muun teknologian kehittämisen kannalta on tärkeää, että kaikki kolme aluetta ovat tasapainossa.

Ongelman ratkaisu edellyttää, että rakennamme yhdessä koko yhteiskuntana yhteisymmärrystä siitä, millainen on tulevien tekoälyjen ”perustuslaki”, johon voivat sitoutua niin yksilöt, yritykset kuin julkinen valtakin. Kokeiluja maailmalta jo löytyy. Esimerkiksi Yhdysvalloissa tuhannelta tavalliselta ihmiseltä kysyttiin, millainen heidän mielestään olisi ihmisten kannalta hyvä ja toimiva tekoäly. Kansainvälisen Forus-verkoston kokeilusta syntyi kansalaisyhteiskunnan manifesti tekoälyperustuslaiksi, joka julkaistiin 6. joulukuuta 2023.[vii]

Mielenkiintoisista uusista teknologioista ja sovelluksista huolimatta vauhtisokeus ei saa hämärtää tekoälyn roolia ihmisten ja organisaatioiden työkaluna, tukena sellaisissa vaativissa asioissa, joissa teknologialla on paikkansa. Muiden hyvien työkalujen tapaan erilaisten tekoälyjen tulee tuottaa arvoa meille kaikille, ei ainoastaan tekoälyjä kehittäville suuryityksille – arvoa, joka on yhteiskunnallisesti kestävää ja ihmisoikeuksia kunnioittavaa nyt ja tulevaisuudessa. 

- - -


[i] European Commission (2023) Questions and answers: Digital Services Act. https://ec.europa.eu/commission/presscorner/detail/en/qanda_20_2348

[ii] Valtionvarainministeriö (ladattu 19.12.2023) Tekoälyn eettinen ohjeistus. https://vm.fi/tekoalyn-eettinen-ohjeistus 

[iii] Sitra (ladattu 19.12.2023) Mikä ihmeen ”Mitä mieltä, Suomi?” https://www.sitra.fi/hankkeet/mitamieltasuomi/#mista-on-kyse

[iv] Valtionneuvosto (ladattu 19.12.2023) Sosiaali- ja terveydenhuollon digitalisaation ja tiedonhallinnan strategia painottaa joustavuutta. https://valtioneuvosto.fi/-/1271139/sosiaali-ja-terveydenhuollon-digitalisaation-ja-tiedonhallinnan-strategia-painottaa-joustavuutta

[v] Scottish AI Alliance (2021). Scotland’s AI strategy. https://www.scotlandaistrategy.com/the-strategy

[vi] Oxford reference. https://www.oxfordreference.com/display/10.1093/acref/9780191826719.001.0001/q-oro-ed4-00016553 

[vii] Forus (2023) Civil society manifesto for ethical AI. https://www.forus-international.org/en/event-detail/9094-civil-society-manifesto-for-ethical-ai-launch-event

info@faktabaari.fi

Evästeet

Käytämme sivustollamme yksityisyyden suojaavaa analytiikkaa palveluidemme parantamiseksi.

Lue lisää tietosuoja käytännöistämme täältä.