Tekoäly – uhka vai mahdollisuus demokratialle?

UHKA VAI MAHDOLLISUUS? Generatiivisen tekoälyn, kuten muidenkin tekoälyn tyyppien ja sovellusten osalta vastaus on: sekä että. Tätä mieltä on kaikesta teknologiasta ollut jo 1980-luvulla teknologiahistorian professori Melvin Kranzberg, jonka mukaan on jopa nimetty Kranzbergin laki: mikään teknologia ei ole hyvää tai pahaa, muttei myöskään neutraalia. Kaikki riippuu siitä miten, missä kontekstissa ja missä tarkoituksessa teknologiaa käytetään. (1)

Tämä on hyvä pitää mielessä, kun eteen tulee tekoälystä joko hurjia uhkakuvia tai ylistäviä arviota. Samaa mieltä on myös GenAI itse.

Kun generatiivisen tekoälyn sovellukselle ChatGPT:lle asettaa otsikon kysymyksen, se vastaa seuraavasti:

  • ChatGPT muistuttaa siitä, ettei kaikilla ole pääsyä käyttämään tekoälyä, saatikka kykyjä siihen. Tekoäly voi myös helposti tuottaa propagandaa ja disinformaatiota ja monin tavoin manipuloida mielipiteitämme. Emme myöskään tiedä, millä periaatteilla erilaiset tekoälysovellukset toimivat.
  • Toisaalta ChatGPT osaa listata itsestään paljon hyvää. Tekoälyn avulla kansalaiset saavat helpommin tietoa ja voivat aktivoitua. Tekoäly tarjoaa tukea päätöksenteolle esimerkiksi kehittämällä skenaarioita tai yksinkertaistamalla monimutkaisia tekstejä. Generatiivista tekoälyä voi käyttää osana työkaluja, joilla havaitaan ja torjutaan disinformaatiota verkossa. Generatiivinen tekoäly voi lisäksi kirjata ja tarjota puolueettomia ja tasapainoisia näkökulmia kiistanalaisiin kysymyksiin ja siten edistää julkista keskustelua.

Ylläkuvatut vastaukset kaikille avoin ChatGPT:n versio tuotti hetkessä niin englanniksi kuin suomeksi. On hieno juttu demokraattisen viestinnän näkökulmasta, kun informaatiota voidaan kääntää ­ennätysnopeasti eri kielille.

Toisaalta tiivistys uhkista ja mahdollisuuksista ei perkaa vaikutuksia tarkemmin niin kutsutun arvoketjun osalta. Ensinnäkin sovelluksen suunnittelussa voidaan pohtia, miten se vaikuttaa demokratiaan, esimerkiksi kansalaisten perusoikeuksiin. Toisekseen datan keruun tavat, datan laatu ja datan kouluttaminen voivat tapahtua eettisesti ja demokratiaa kunnioit­taen – tai ei. Ja lopulta se, miten sovellusta käytetään, voi joko tukea tai murentaa demokratiaa.

On haasteita, on mahdollisuuksia

ChatGPT:n vastaukset, vaikka totta sinällään, havainnollistavat generatiivisen tekoälyn suurimmat haasteet ja mahdollisuudet demokratialle. Käytännössä jokainen ChatGPT:n listaama positiivinen ominaisuus on paikkansapitävä, mutta sama ominaisuus voi olla myös ongelma.

Esimerkiksi: jos tekoäly on meille kelpo apu, on se sitä myös valheiden, propagandan ja ­vihapuheen tuottajille. Yhtä lailla: jos emme saa tietää, miten teko­äly toimii ja millaista dataa sovellus käyttää, emme voi täysin luottaa siihen, miten se neuvoo meitä tai vaikka lääketieteen diagnooseja saatikka poliittisia päätöksentekijöitä. Kranzbergin lakia voi siis soveltaa tekoälyyn: on haasteita, on mahdollisuuksia.

Vastaukset osoittavat myös sen, miten kapeasti ChatGPT mieltää sen ison, monimutkaisen käsitteen ja ne käytännöt, joita demokratiaksi kutsutaan. Se ohittaa näppärästi esimerkiksi yksityisyydensuojan ja profiloinnin vaikkapa kasvojentunnistusteknologialla. Samoin tekoälyn taloudelliset tekijät (eli iso bisnes) ja niihin liittyvä epätasa-arvo jäävät maininnatta. Voimme esimerkiksi käyttää ChatGPT:n ilmaista sovellusta, mutta maksamalla saisimme parempaa palvelua. (2)

Demokratiaan kuuluu mahdollisuuksien mukaan työn kautta osallistuminen yhteiskuntaan, näin muistutetaan muun muassa YK:n ihmisoikeuksien yleismaailmallisessa julistuksessa. (3) Siltikään ChatGPT ei listaa yllä kuvatuissa vastauksissaan demokratian haasteiksi katoavia työpaikkoja tai vaikkapa huolta tekijänoikeuksista. (4) Tekoäly ei myöskään muista mainita kestävään kehitykseen ja erityisesti energiankulutukseen liittyviä ongelmia, vaikka se on ennennäkemätön energiasyöppö. (5) Ympäristökysymykset lienevät keskeisiä nyky-­yhteiskunnille – ja demokratialle.

Koska tekoäly on jo kaikkialla ja yhä laajemmin kaikkien käytössä, on eettisyydestä ja demokratiaa kunnioittavista periaatteista laadittu kymmeniä julistuksia sekä säädöksiä. Useimmissa pelätään ­riskejä – työntekijöille, yksityisyydelle, kansalliselle turvallisuudelle, talouskasvulle – mutta harvemmin niissä mainitaan tavallisten ihmisten oikeuksia ja mahdollisuuksia. (6)

On aika vaatia oppeja

Kuitenkin, jos toista teknologia-ajattelijaa on uskominen, jokainen uusi teknologia muuttaa suhdettamme itseemme ja toisiimme.

Jo yli puoli vuosisataa sitten Marshall McLuhan huomioi, kuinka nuotiolla kerrottujen tarinoiden yhteisöllisyys muuttui kirjojen myötä yksilökeskeisemmäksi, niitä kun luettiin, jos osattiin, usein itsekseen. Sähköisen viestinnän aika synnytti McLuhanin mukaan uusheimolaisuuden, jossa samat tarinat yhdistävät yli maantieteellisten rajojen. (7) Some lienee osaltaan tästä malliesimerkki.

Rajattomia somessa saamamme tieto, kokemukset ja kontaktit eivät kuitenkaan ole, vaan algoritmit kaventavat maailmaamme verkossa (ks. Harto Pönkä, tämän oppaan luku 15). Tuottaako generatiivinen tekoäly jatkossa meille aivan uudenlaisia yhteisöjä ja yhteiskuntia? Demokratian kannalta hurjin uhkakuva on se, että elämme räätälöityjen ja aina myötäsukaisten AI-virtuaalikavereitten kanssa luottamatta elävässä elämässä mihinkään vastaanottamaamme informaatioon, saatikka toisiimme.

Siksi on aika vaatia, että kaikki saamme ­oppeja paitsi tekoälytaidoista myös sen yhteiskunnallisista vaikutuksista, ja että saamme kaikki vaikuttaa siihen, miten, missä, miksi ja ketkä generatiivista tekoälyä käyttävät. (8)

Lähteet

(1) Melvin Kranzberg (1986) Technology and History: ”Kranzberg’s Laws”. Technology and Culture, Vol. 27, No. 3 (Jul., 1986). https://doi.org/10.2307/3105385

(2) Ks. esim. https://openai.com/chatgpt/pricing/

(3) Ks. UN Universal Declaration of Human Rights https://www.un.org/en/about-us/universal-declaration-of-human-rights; https://um.fi/yk-n-ihmisoikeusjulistus

(4) Ks. esim. Generative AI Has an Intellectual Property Problem, https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem; Tekoäly ja EU – myös tekoälyn on kunnioitettava tekijöiden oikeuksia. https://www.teosto.fi/teostory/tekoaly-ja-eu-myos-tekoalyn-on-kunnioitettava-tekijoiden-oikeuksia/

(5) Ks. esim. AI has an environmental problem, https://www.unep.org/news-and-stories/story/ai-has-environmental-problem-heres-what-world-can-do-about; Googlen päästöt karkasivat käsistä tekoälyn vuoksi, https://yle.fi/a/74-20098239

(6) Ks. esim. EU:n tekoälysäädös (Regulation 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence) https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689; World Economic Forumin The Presidio Recommendations https://www.weforum.org/publications/the-presidio-recommendations-on-responsible-generative-ai/ ja YK:n korkean tason asiantuntijaryhmän raportti Governing AI for Humanity: Final Report. https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf.

(7) Marshall McLuhan (1964/1994 3rd ed.) Understanding Media. The Extensions of Man. https://mitpress.mit.edu/9780262631594/understanding-media/

(8) Kirsi Hantula (tulossa 2025) Kuinka turvata tiedollisia oikeuksia tekoälyn aikakaudella? SITRA; myös e.g., Minna Horowitz, Hannu Nieminen, Katja Lehtisaari & Alessandro D’Arma (2024) Introduction. Epistemic Rights in the Era of Digital Disruption. Palgrave MacMillan. https://link.springer.com/book/10.1007/978-3-031-45976-4

edu@faktabaari.fi

Evästeet

Käytämme sivustollamme yksityisyyden suojaavaa analytiikkaa palveluidemme parantamiseksi.

Lue lisää tietosuoja käytännöistämme täältä.