Pysäyttääkö tekoäly osaamisemme kehityksen?

Kuvittele, että sinulla on taikalaatikko. Jos kosket tätä laatikkoa, se luo sinulle välittömästi tuotoksen, joka on laadultaan parempi kuin kaikkien muiden tuotokset. Koskisitko sitä? Kuinka usein? Kuvittele nyt, että kaikilla on tämä taikalaatikko. Mitä kannustimia se loisi? Miten nämä kannustimet muokkaisivat ihmiskunnan tulevaisuutta?

Nämä ovat kriittisiä kysymyksiä, joihin ChatGPT ja muut generatiiviset tekoälysovellukset (AI)  -vaativat meitä vastaamaan lähiaikoina. (i) Tekoälysovellukset ovat neuroverkkoja, jotka kykenevät tuottamaan räätälöityjä tuotteita syötteiden perusteella. Tällä hetkellä generatiivinen tekoäly luo vakuuttavia yliopistollisia esseitä, tietokonekoodia ja taidetta. Se on jo voittanut kansainvälisen valokuvakilpailun, tehnyt hittisinglen ja saanut huippupisteitä korkeakoulujen pääsykokeissa.(ii)

Ja se kehittyy nopeasti.(iii) Generatiivisen tekoälyn käyttöä on myös yhä vaikeampi havaita(iv), sillä sen dramaattinen kehitys ja älykkäät käyttäjäkehotukset poistavat vivahteita, joiden avulla ihmiset ja ohjelmat voivat tunnistaa sen käytön.(v)

Vaikka generatiivisen tekoälyn laajamittainen käyttöönotto tuo lupaavia etuja, niin monet ovat oikeutetusti huolissaan sen riskeistä. Asiantuntijat ovat arvioineet, että tekoäly korvaa noin 25 prosenttia työpaikoista Yhdysvalloissa ja EU:ssa – tosin samalla syntyy jonkin verran myös uusia työpaikkoja.(vi)

Vaikka tekoäly on kehitetty ajamaan etuamme, niin lajimme kannalta on kuitenkin olemassa todellinen riski: mitä ihmiskunnalle tapahtuu, kun toisiaan seuraavat sukupolvet oppivat vain koskemaan tekoälyn ”taikalaatikkoa” ja ovat täysin taitamattomia ilman sen apua?

Minkä tahansa taidon oppiminen tai aiheen syvällinen ymmärtäminen vaatii paljon aikaa (vii) ja vaivaa (viii) lahjakkaaltakin oppijalta. Vaikka oppimisen prosessi on välillä stressaava, niin se on loppujen lopuksi palkitseva, vaikka se sisältää epäonnistumisen riskin ja vie usein tuhansia tunteja (ix). Ensimmäistä kertaa ihmiskunnan historiassa kokonainen sukupolvi voi ohittaa tämän prosessin ja silti edetä (ainakin jonkin aikaa) koulussa ja työssä. He voivat koskettaa taikalaatikkoa ja saada aikaan loistavia tuloksia ilman vaivannäköä. Tämä on tavattoman houkutteleva mahdollisuus.

Kuten useimmilla faustisilla sopimuksilla, myös generatiivisen tekoälyn hyödyntämisellä on kuitenkin piilevä hinta. Aina kun kosketat laatikkoa, et todellakaan opi – ainakaan tavalla, josta olisi sinulle merkittävää hyötyä. Kehität tekoälyn neuroverkkoa, et omaasi.

On olemassa pelko siitä, että ajan myötä epäpätevyytemme lisääntyy tekoälyyn turvauduttaessa. Tämä kehityskulku johtaa tilanteeseen, jossa emme pysty elämään ilman tekoälyn tuomaa tukea. Riippuvuus tekoälystä – erityisesti henkilökohtaisen ja ammatillisen kehityksen kriittisinä aikoina – riistää yksilöiltä henkisen elinvoiman ja mahdollisuuden todelliseen oppimiseen. Meistä tulee oman luomuksemme orjia, emmekä kykene ajattelemaan tai toimimaan järkevästi ilman sen apua.

Digitaalinen vesileima käyttöön

Tekoälyn kannattajat ovat sitä mieltä, että tekoälyn käyttö vain muuntaa oppimisen luonnetta, eikä suinkaan vähennä ihmisen oppimista ja osaamista. Tämä näkemys on ensikuulemalta houkutteleva. Me olemme kehittäneet kognitiivisia apuvälineitä, kuten lukutaidon, kirjapainon, internetin, jotka ovat mullistaneet yhteiskuntaa mutta hyödyttäneet lopulta käyttäjää. Tekoäly on erilainen. Toisin kuin kirjat ja verkkosivustot, tekoäly ei pelkästään auta löytämään ja oppimaan tietoa. Se tekee työn puolestasi.

Kirjan lukeminen ei johda siihen, että pöydällesi ilmestyy essee. Kameran käyttäminen ei luo välittömästi mitä tahansa kuvaa. Generatiivinen tekoäly tekee juuri niin. Se on verrattavissa siihen, että menet kuntosalille ja annat jonkun toisen nostella painoja puolestasi ja odotat, että omat lihaksesi vahvistuvat. Tämä on absurdia ja samalla hyvä argumentti tekoälyn käytön rajoittamiselle tietyissä oppimistilanteissa.

Yksinomaan tekoälyyn luottaminen opiskelussa, työssä tai kriittisessä ajattelussa tekee meistä haavoittuvia. Se, joka hallitsee tekoälyalustoja ja (myös itse tekoälyä), hallitsee tehokkaasti ihmiskuntaa.

Luottamus tekoälyyn lisää myös kyberriskejä. Mitä tapahtuu, kun tekoälyn avustuksella leikkauksia suorittavalla lääkärillä ei ole internet-yhteyttä tai tekoälyn käytössä ilmenee teknisiä häiriöitä?

Meidän on myös pohdittava mielenterveysriskejä ennen kuin sitoudumme tekoälyyn. Nuoremmat sukupolvet ovat jo alttiita huijarisyndroomalle(x), jonka seurauksena masennus ja itsemurhat ovat lisääntyneet.

Tekoälyn käytöllä on myös yhteys luovuuteen ja innovaatioon. Generatiivinen tekoäly tuottaa sisältöä vain ihmisen tekemän työn pohjalta.(xi) Voiko tekoäly päätellä fysiikan seuraavan perustavanlaatuisen muutoksen tämän tietämyksen perusteella vai tarvitaanko siihen nerokkaan ihmismielen intuitiivinen hyppy? Vaikka emme tiedä vastausta tähän kysymykseen, meidän pitäisi varmistaa, että tämän vuosisadan Einsteinilla on kyky istua ja pohtia syvällisesti perustavanlaatuisia totuuksia.

On selvää, että nämä riskit eivät tarkoita sitä, että tekoälystä pitäisi luopua. Se on sekä väärin että – Molokin ongelman(xii) vuoksi – käytännössä mahdotonta. Sen sijaan meidän on varmistettava, että tekoälyn kehittäminen ei estä ihmisen älykkyyden kehitystä pitkällä aikavälillä.

Tekoälyasiantuntijat ovat oikeutetusti huolissaan tekoälyn asianmukaisesta käytöstä, sillä huonosti ymmärretyt toimet voivat johtaa siihen, että tekoäly vahingoittaa ihmiskuntaa. Vaikka tekoälyn käytön sopeuttaminen onnistuisikin, niin ihmisten kannustinjärjestelmien kohdentamisen laiminlyönti voi johtaa synkkään ja tietämättömään tulevaisuuteen.

Me emme ottaneet tätä ratkaisevaa askelta sosiaalisen median algoritmien kanssa, ja seuraukset ovat nyt nähtävissä.(xiii) Se on vain pieni osoitus niistä riskeistä, joita tällä hetkellä kohtaamme. Siksi meidän on varmistettava, että kannustamme ihmisiä mukautumaan tekoälyyn asianmukaisesti, jotta sitä käytettäisiin lajia hyödyntävällä tavalla.

Ihmisen kriittisen ajattelun turvaaminen edellyttää useita toimia. Tässä on ensimmäinen ehdotus: Vaaditaan, että kaikki tekoälyalustat ottavat käyttöön digitaaliset vesileimat(xiv)(#_edn14), jotka takaavat tekoälyn tuotosten tunnistettavuuden.(xv)

Vaikka OpenAI on julkistanut nokkelan vesileimajärjestelmän(xvi)(#_edn16), niin sen vapaaehtoinen käyttöönotto ei riitä. Ilman valtiollisia vaatimuksia markkinat kannustavat tarjoamaan vesileimattomia palveluja. Digitaalisten vesileimojen yleinen käyttöönotto antaisi kouluille ja työnantajille mahdollisuuden tunnistaa tekoälyn avulla tehdyt tuotokset. Tämä puolestaan kannustaisi käyttämään tekoälyä lähtökohtana tai ”avustajana” sen sijaan, että se korvaisi kriittisen ajattelun.

Digitaaliset vesileimat auttaisivat myös ihmiskuntaa sen kilpajuoksussa tekoälyn levittämää disinformaatiota vastaan, ja ne voisivat tehdä tunnistettavaksi tekoälyn läpinäkymättömän toiminnan. Kyseessä on yksinkertainen ja järkevä toimenpide, jonka jopa kaikkein kiihkeimpien tekoälyn puolestapuhujien tulisi hyväksyä.

Olemme nimenneet itsemme lajina Homo sapiensiksi, ”viisaaksi ihmiseksi”. Nyt on tullut hetki, jolloin meidän on todistettava, että olemme tämän nimen arvoisia. Jos emme varmista tekoälyn taikalaatikon vastuullista käyttöä, emme ainoastaan osoita omaa tietämättömyyttämme, vaan tuomitsemme lapsemme kasvamaan tekoälyn hallitsemaan epäpätevien ja tietämättömien ihmisten yhteiskuntaan. Meidän on pohdittava kriittisesti tätä asiaa ja toimittava päättäväisesti nyt, ennen kuin riippuvuus omasta keksinnöstämme vie meiltä tämän kyvyn lopullisesti.

Matt Cronin on toiminut Valkoisen talon kansallisen kyberturvallisuusosaston (ONCD) johtajana. Cronin nimitettiin tehtävään Yhdysvaltain oikeusministeriöstä, jossa hän toimii kansallisen turvallisuuden ja kyberrikollisuuden koordinaattorina. Cronin on myös Fulbright-tutkija, joka tutkii tekoälyn ja muiden uusien teknologioiden poliittisia vaikutuksia.

Käännös ja muokkaus alkuperäisestä artikkelista kirjoittajan luvalla:

https://thehill-com.cdn.ampproject.org/c/s/thehill.com/opinion/technology/4007320-do-advances-in-ai-risk-a-future-of-human-incompetence/amp/


(i) OpenAI (ladattu 19.12.2023) Introducing ChatGTP https://openai.com/blog/chatgpt; https://en.wikipedia.org/wiki/Generative_artificial_intelligence.

(ii) Wikipedia (ladattu 19.12.2023) https://en.wikipedia.org/wiki/Generative_artificial_intelligence. Essee: https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-writing-college-student-essays/672371/; tietokonekoodi: https://blog.tryamigo.com/gpt-4-coding/; taide: https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html; hittisingle: https://time.com/6273529/drake-the-weeknd-ai-song/; valokuvakilpailu: https://www.bbc.com/news/entertainment-arts-65296763; pääsykokeet: https://arstechnica.com/information-technology/2023/03/openai-announces-gpt-4-its-next-generation-ai-language-model/

(iii) OpenAi (2023) GPT-4 Technical report https://cdn.openai.com/papers/gpt-4.pdf 

(iv) Zhou, C. et al. (2022) Paraphrase identification with deep learning: A review of datasets and methods. Arxiv. Cornell University. https://arxiv.org/abs/2212.06933 

(v) Nolasco, N. (2023) Simple method to beat zeroGPT with no edits to ChatGPT generated output. Medium https://blog.gopenai.com/simple-method-to-beat-zerogpt-with-no-edits-to-chatgpt-generated-output-485bbaba8707

(vi) Hatzius, J. (2023) The potentially large effects of artificial intelligence on economic growth.  Goldman Sachs economic research.  (https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analyst-The-Potentially-Large-Effects-of-Artificial-Intelligence-on-Economic-Growth-BriggsKodnani.pdf)(https://www.key4biz.it/wp-content/uploads/2023/03/Global-Economics-Analyst-The-Potentially-Large-Effects-of-Artificial-Intelligence-on-Economic-Growth-Briggs_Kodnani.pdf) 

(vii) Wong NC. (2015) The 10 000-hour rule. Can Urol Assoc J. 9(9-10):299. doi: 10.5489/cuaj.3267

(viii) Cherry, K. (2022) How hard is it to become an expert? Verywell mindhttps://www.verywellmind.com/expertise-how-hard-is-it-to-become-an-expert-at-something-4173614

(ix) Ericsson, A. & Pool, R. (2017) Peak – how all of us can achieve extraordinary things. https://parentotheca.com/2021/06/14/peak-anders-ericsson-book-summary/

(x) Eruteya, K. (2022) You’re not an imposter. You’re actually pretty amazing. HBR. https://hbr.org/2022/01/youre-not-an-imposter-youre-actually-pretty-amazing ; Wikipedia (loaded 19.12.2023) https://en.wikipedia.org/wiki/Impostor_syndrome

(xi) Chiang, T. (2023) ChatGTP is a blurry JPEG of the web. The New Yorker. https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

(xii) Miessler, D. (ladattu 19.12.2023) Moloch: the most dangerous Idea https://danielmiessler.com/p/moloch-the-most-dangerous-idea/

(xiii) United Nations (2023) “Urgent need” for more accountability from social media giants to curb the hate speech. https://news.un.org/en/story/2023/01/1132232

(xiv) Wikipedia (ladattu 19.12.2023) https://en.wikipedia.org/wiki/Digital_watermarking

(xv) Heikkilä, M. (2023) A watermark for chatbots can expose text written by an AI. MIT technology review. https://www.technologyreview.com/2023/01/27/1067338/a-watermark-for-chatbots-can-spot-text-written-by-an-ai/

(xvi) Collins, K. (2023) How can ChatGPT embed watermark in the text it generates. The New York Times. https://www.nytimes.com/interactive/2023/02/17/business/ai-text-detection.html

info@faktabaari.fi

Evästeet

Käytämme sivustollamme yksityisyyden suojaavaa analytiikkaa palveluidemme parantamiseksi.

Lue lisää tietosuoja käytännöistämme täältä.