Trolli- ja bottitunnukset ovat monen sosiaalisen median palvelun vitsaus. Yhteistä niille on epäaito toiminta: ne saattavat esimerkiksi manipuloida tiettyjä aiheita julkaisemalla runsaasti niihin liittyvää sisältöä tai kommentteja. Usein botti- ja trollitunnukset on luotu siten, että ne näyttävät tavallisilta käyttäjiltä. Esimerkiksi profiilikuvat on voitu generoida tekoälyn avulla ja nimetä tunnukset yleisillä etu- ja sukunimillä.
Trolli- ja bottitunnuksia voidaan käyttää monenlaiseen vaikuttamiseen: markkinointiin, yhteiskunnalliseen lobbaamiseen, poliittiseen vaikuttamiseen tai informaatiovaikuttamiseen ja disinformaation levittämiseen. Trollien ja bottien takana toimivia tahoja ei tavallisesti pystytä nimeämään, mutta niiden toiminnasta voidaan usein päätellä, mihin tavoitteisiin ne pyrkivät.
Mitä eroa on trollilla ja botilla?
Sanalla “trolli” on useita merkityksiä. Jo ennen nykyisin sosiaalisen median palveluita trolleilla viitattiin netin keskustelufoorumeilla käyttäjiin, jotka pyrkivät ärsyttämään muita. Tuolloin syntyi edelleen hyvä neuvo olla “ruokkimatta trollia”, millä tarkoitetaan sitä, että jotkut keskustelijat saavat itselleen hupia provosoimalla muita loputtomilta tuntuviin väittelyihin kanssaan. Tätä voi edelleen pitää trollaamisen yleisimpänä merkityksenä.
Erityisesti 2010-luvulta lähtien trolli-sana on saanut huomattavasti aiempaa vakavampia merkityksiä. Tänä päivänä trolleilla viitataan yleisesti tunnuksiin, jotka levittävät tietyn aatteen tai poliittisen agendan mukaista sisältöä tai jopa valtiollista propagandaa. Vaikka esimerkiksi viittaus “Putinin trolleihin” on yleinen, valtiollisten toimijoiden osallisuus pystytään vain harvoin todistamaan. Valtioiden ylläpitämien tunnusten ohella sosiaalisen median alustoilla on monenlaisia aktivisteja, yksinäisiä sotureita ja niitä, jotka osallistuvat trollitilien sisältöjen levittämiseen joko ajattelemattomuuttaan tai huvikseen.
Botit viittaavat käyttäjätunnuksiin, jotka toimivat ainakin osittain tietokoneohjelman ohjaamina eli automatisoidusti. Botti on määritelmällisesti jonkin ohjelman eikä ihmisen manuaalisesti käyttämä käyttäjätunnus. Yksittäisen käyttäjätunnuksen osoittaminen botiksi vaatii tämän vuoksi tarkempaa analyysiä kuin trollitunnuksesta puhuttaessa.
Yksinkertaisimmillaan botit voivat vaikuttaa somepalvelujen algoritmeihin tuottamalla suuria määriä katselukertoja ja reaktioita julkaisuille niin, että algoritmi erehtyy pitämään kohteena olevia julkaisuja suosittuina. Mainos- eli spämmibotit puolestaan saattavat tehtailla loputtomasti julkaisuja, joissa linkitetään niiden markkinoimalle verkkosivustolle. Spämmibotteja voidaan käyttää yhtälailla kaupallisessa merkityksessä kuin johtamaan sosiaalisen median käyttäjiä valeuutis- tai huijaussivustoille. Botit tuottavat nimenomaisesti feikkisisältöä ja epäaitoa osallistumista.
Bottien tunnistaminen vaatii perusteellista analyysiä
Allekirjoittanut on analysoinut varsinkin Twitterin eli nykyisen X-palvelun trolli- ja bottitunnuksia. Helpoimpia tapoja bottitunnusten huomaamiseen on tarkkailla niiden julkaisutiheyttä ja -aikoja. Esimerkiksi jos tunnus julkaisee useimpina päivinä sisältöä ympäri vuorokauden tai julkaisu tapahtuu joka kerta tietyllä samalla kellonajalla, on selvää, että julkaisut tehdään tietokoneohjelman avulla. Huomattavasti vaikeammin havaittavia ovat sen sijaan kymmenistä tai jopa sadoista boteista koostuvat bottiverkostot, jotka saattavat julkaista samaa tai hieman muunneltua sisältöä satunnaisesti eri kellonaikoihin.
On monia keinoja analysoida tilastollisesti somepalvelujen tunnusten julkaisuja. Julkaisujen määrien ja aikojen lisäksi voidaan analysoida muun muassa julkaisujen tyyppejä, vastausten ja kommenttien kohteita, hashtageja, linkkejä, julkaisujen metatietoja, seuraajien ja seurattavien määriä sekä käyttäjätunnusten muodostamia sosiaalisia verkostoja.
Oleellista on, että bottien tunnistaminen perustuu aina käyttäjätunnusten konkreettiseen toimintaan kuten julkaisuihin, reaktioihin ja seuraamissuhteisiin - ei siihen, miltä esimerkiksi niiden profiilitiedot näyttävät. Bottien tunnistaminen vaatii sen osoittamista, että tunnuksella on ollut todistettavasti toimintaa, joka näyttää tietokoneohjelman ohjaamalta.
Ohessa on X-somepalvelun bottianalyysiin keskittyvän Tweeps.net-palvelun käyttämät bottipisteiden tyypit sekä niiden perusteella tehdyt mahdolliset johtopäätökset yksittäisistä käyttäjätunnuksista. Taulukon ensimmäisen rivin tunnusluvut viittaavat ohjelmalliseen toimintaa, ja alempien rivien tunnusluvut kertovat, minkä luontoisesta ja sisällöllisestä toiminnasta on kyse.
Tweeps.netin tilastollinen analyysi laskee noin 20:n tyyppisiä bottipisteitä ja päättelee niiden perusteella, onko kyse todennäköisemmin ihmiskäyttäjästä kuten spämmääjästä tai trollista vai sosiaalisesta botista. Aineistona se käyttää 100-200 twiittiä jokaiselta analysoitavalta käyttäjätunnukselta.
Bottitunnukset jaetaan Tweeps.netin analyysin johtopäätöksessä neljään tyyppiin: trollibotti, spämmibotti, automaattoinen sovellus/bottisovellus tai muu botti.
Bottianalyysin ytimenä on tunnistaa ne tunnukset, jotka eivät käyttäydy siten kuin ihmiset. Tavallinen ihmiskäyttäjä ei yleensä saa lainkaan bottipisteitä - ellei hän sattumoisin ole toiminut trollia tai bottia muistuttavalla tavalla. Voitaisiin esimerkiksi olettaa, että ihmiset eivät pystyisi kirjoittaa julkaisuja 24 tuntina vuorokaudessa, mutta jotkut ihmiset pystyvät. Koska kyse on päättelystä, ei tulos ole aina täysin varma, mutta mitä enemmän bottipisteitä kertyy, sen varmempi johtopäätös on.
Miten generatiivinen tekoäly muuttaa sosiaalisen median botteja?
Tweeps.netin bottianalyysin esimerkistä nähdään, että jo ennen generatiivisten tekoälysovellusten kehittymistä nykyiselle tasolleen, on bottien tunnistaminen vaatinut kehittynyttä tilastollista analyysiä. Jo aiemmin hyvin taitavasti ohjelmoitu botti on voinut toimia erittäin ihmismäisesti. Laajaan kielimalliin perustuva tekoälysovellus tekee juuri niin: se tuottaa tekstiä, jonka erottaminen ihmiskäyttäjästä voi olla käytännössä mahdotonta.
Monissa somepalveluissa on chatbotteja, jotka toimivat avoimesti ilman, että ne pyrkivät erehdyttämään käyttäjiä. Esimerkiksi Discordissa on lukuisia kielimalleihin perustuvia keskustelubotteja, Snapchatiin lanseerattiin My AI -tekoälykaveri helmikuussa 2023, ja Meta julkaisi syyskuussa kerralla 28 tekoälyprofiilia Facebookiin ja Instagramiin.
Vaikka somepalvelujen ylläpitämät chatbotit ovat enimmäkseen harmittomia virtuaalisia leikkikaluja ja apureita, niihinkin liittyy omat haasteensa. Laajaan kielimalliin perustuvat chatbot saattaa antaa joskus käyttäjille vahingollisia vastauksia, ja varomaton käyttäjä voi kertoi vahingossa tekoälylle arkaluontoisia salaisuuksiaan. Silti tekoälykavereiden kanssa käyttäjät sentään tietävät keskustelevansa koneen eivätkä ihmisen kanssa. Toisin on silloin, kun generatiivinen tekoäly liitetään erehdyttämistarkoituksessa tehtyyn sosiaalisen median tunnukseen.
Filosofian yliopistonlehtori Inkeri Koskinen antoi blogissaan maaliskuussa 2022 havainnollisen esimerkin, miten jo silloisen GPT3-kielimallin avulla oli mahdollista tehdä rokotevastainen chatbotti, joka vastaili sujuvalla suomenkielellä.
Esimerkkimielessä luotu WorriedMom82-botti luotiin GPT3:n avulla kertomalla tekoälymallille, että sen haluttiin vakuuttavan toiset rokotteiden mahdollisista haitoista ja turhautuvan, jos ihmiset eivät uskoisi sitä. Lisäksi botille annettiin muutamia esimerkkilauseita kuten se, ettei botti antaisi kenenkään rokottaa itseään tai lastaan.
Alun perin WorriedMom82-botti luotiin englanninkielisenä, mutta siihen liitettiin niin ikään neuroverkkoja hyödyntävä DeepL-konekäännösohjelma, joka tuottaa uskottavaa suomea.
Generatiivisen tekoälyn vahvuus on kyvyssä luoda uskottavia ihmisen tuottamaa tekstiä muistuttavia vastauksia. Vaikka WorriedMom82-chatbotti tehtiin keskustelemaan suhteellisen kapea-alaisesta aiheesta, sen vastaukset olivat yllättävän laajoja ja toivat keskusteluun mukaan jopa uusia näkökulmia. Botti ei myöskään tyytynyt vain vastailemaan, vaan se esitti jopa vastakysymyksiä ihmisosapuolelle.
Mikäli WorriedMom82-tyyppinen chatbotti yhdistetään johonkin sosiaalisen median palvelun käyttäjätunnukseen, se kykenisi keskustelemaan muiden käyttäjien kanssa yllä olevan esimerkin tapaan. Esimerkiksi X:n (entisen Twitterin) rajapintojen kautta toteutus on teknisesti hyvin helppo tehdä.
Inkeri Koskisen tekemän esimerkin jälkeen GPT-kielimalli on kehittynyt merkittävästi. On sanomattakin selvää, että se tulee kehittymään edelleen mahdollistaen yhä uskottavampien chatbottien teon.
Vahingollisten sosiaalisen median bottien tunnistamisen näkökulmasta on kiinnostava kysymys, pystytäänkö pian tai edes enää nykyisin luotettavasti erottamaan bottitunnukset ihmiskäyttäjistä. Voisi ajatella, että tekoälyn tunnistamiseen tarvittaisiin vain sitä varten kehitetty toinen tekoälymalli, mutta kielimallien jatkuvasti kehittyessä bottianalyysien johtopäätösten luotettavuus tulee auttamatta laskemaan.
Trollien ja bottien tutkijat ovat ahtaalla
Trolli- ja bottitunnukset ovat olleet eniten esillä tutkijoiden artikkeleissa ja sitä kautta uutisissa Twitterin eli nykyisen X:n yhteydessä. Tämän voi päätellä johtuvan Twitterin asemasta yhteiskunnallisen keskustelun alustana että toiseksi siitä, että aiemmin Twitterin rajapinnat olivat avoimesti ilmaiseksi tutkijoiden käytettävissä. Twitterin trolli- ja bottitunnuksista oli siten helposti aineistoa saatavissa ja tutkittavissa.
Vuoden 2023 aikana Twitterin rajapinnat ovat suurelta osin sulkeutuneet tutkijoilta Elon Muskin tekemien uusien linjausten myötä. Esimerkiksi Indianan yliopiston kehittämä Botometer-analyysisivusto lopetti toimintansa kesäkuussa.
Useista muista suosituista sosiaalisen median palveluista aineistojen kerääminen bottien analysointia ja löytämistä varten on ollut huomattavan työlästä jo pitkään. Esimerkiksi Meta on tiukentanut rajapintojensa käyttöehtoja sekä vähentänyt niistä saatavaa tietoa Facebookin yksityisyyskohujen myötä vuodesta 2018 lähtien.
Käytännössä sosiaalisen median bottien tutkiminen on tullut vuosi vuodelta yhä vaikeammaksi. Samalla, kun tutkijoiden ja informaatiovaikuttamista vastaan toimivien muiden tahojen toiminta hankaloituu rajapintojen vähenemisen myötä, pystyvät bottien tekijät yhä operoimaan tunnuksia ohjelmallisesti somepalvelujen käyttöliittymien kautta. Samat tekniset kiertotiet olisivat bottien tutkijoidenkin käytettävissä, mutta siinä, missä tutkijat pyrkivät noudattamaan somepalvelujen käyttöehtojen rajoituksia sekä eettisiä sääntöjä, ei samoja estoja ole vahingollisten bottien ohjastajilla.
Eräs keino tutkia sosiaalisen median palvelujen kykyä torjua epäaitoja käyttäjätunnuksia on ostaa feikkitunnuksia niitä myyvistä verkkokaupoista ja seurata, kauanko palveluntarjoajilta vie aikaa tunnusten poistamiseen. Näin tekee esimerkiksi Naton strategien viestinnän keskus StratCom, kun se tutkii sosiaalisen median manipuloinnin yleisyyttä.
Vuodelle 2022 ajoittuvassa neljän viikon seurantajaksossa StratCom havaitsi, että ostetuista bottitunnuksista Facebook onnistui poistamaan vain 1 %, Instagram 6 %, TikTok 12 %,Twitter 26 % ja VK peräti 50 %. YouTuben osalta tulos oli pyöreä 0 %. Vain Twitterin kohdalla tulos oli parempi kuin vuonna 2021 tehdyssä vastaavassa kokeilussa.
Kuinka yleisesti tekoälybotteja on somepalveluissa tällä hetkellä?
Sosiaalisen median botit eivät luonnollisesti olisi ongelma, jos voisimme luottaa sosiaalisen median palvelujen haluun ja kykyyn pyrkiä estämään vahingollisten bottien toimintaa. Valitettavasti sosiaalisen median tutkimuksen perusteella näin ei ole.
Australialaisen Adelaiden yliopiston tutkimuksessa selvitettiin pro-Venäjä- ja pro-Ukraina-trollien toimintaa Twitterissä Venäjän hyökkäyssodan alkuviikkoina helmi-maaliskuussa 2022. Tutkimuksen perusteella informaatiovaikuttamisen kohde oli selvä: pro-Venäjä-tunnukset kohdistivat viestinsä pääasiassa ukrainalaismielisille ja puolueettomille käyttäjätunnuksille Twitterissä.
Eräs tutkimuksen yllättävistä tuloksista oli se, että vaikka julkisuudessa puhutaan paljon boteista disinformaation levittäjinä, tutkimuksessa tunnistettiin boteiksi vain pieni osuus tutkituista tunnuksista. Somepalvelujen moderoinnin kannalta tämä on haaste, sillä jos botteja ei kyetä tunnistamaan, niiden estäminen on vaikeaa.
Naton strategisen viestinnän keskuksen StratComin tutkimuksen (Fredheim, 2023) mukaan venäläisten propagandatunnusten julkaisujen näyttökerrat kasvoivat Twitterissä keskimäärin 60 % maaliskuussa 2023 sen jälkeen, kun palvelu lopetti aiemmin voimassa olleet rajoitukset valtiollisten tunnusten näkyvyydelle. Kyse oli Venäjän valtioon kytköksissä olevien tiedotusvälineiden sekä Venäjän ulkoministeriön tunnuksista.
Edelleen tutkimusraportissa pantiin merkille, että eniten kasvoi anonyymien trollitunnusten viestien osuus kaikissa seuratuissa Twitter-keskusteluissa. Kun vuoden 2022 alkupuolella trollitunnusten julkaisujen osuus oli 1 % niistä viesteistä, joissa mainittiin Nato, oli niiden osuus noussut peräti 10 %:iin marraskuussa 2022 sekä maalis-huhtikuussa 2023.
Syytä trollitunnusten kirjoittamien vastausten osuudelle voi arvioida. StratComin raportti antaa siihen kaksi vaihtoehtoista selitystä. Joko Twitterin/X:n moderointi oli aiempaa heikompaa tai kyse oli ainakin osittain tekoälyohjatuista bottitunnuksista, jotka on luotu juuri Ukrainan sotaan ja Natoon liittyviä keskusteluja varten. Jälkimmäistä mahdollisuutta tukisi havainto siitä, että trollitunnukset keskittyivät tutkimuksen mukaan lähes yksinomaan vastaamaan muiden käyttäjien aloittamiin keskusteluihin.
StratComin tulosten valossa on syytä kysyä, onko myös aiemmissa tutkimuksissa havaituissa trollitunnuksissa kyse osittain tekoälybottien jalkautumisesta informaatiovaikuttamisen kentälle. Tarvittava teknologia on ollut kypsää ja työkalut siihen helppoja jo viimeistään vuodesta 2022 lähtien, joten olisi naiivia ajatella, etteikö tekoälybotteja käytettäisi jo aktiivisesti. Emme yksinkertaisesti enää pysty erottamaan tekoälyn ohjaamia botteja ihmisten ohjaamista trollitunnuksista.
Tekoälymallien kehittymisen myötä tekoälybottien tunnistaminen käy jatkossa yhä vaikeammaksi. Informaatiovaikuttamisen torjumisen näkökulmasta johtopäätös on silti selvä: ei ole niinkään merkitystä, onko tunnuksen takana tekoäly vai ihminen. Oleellisempaa on digitaalisen informaatiolukutaidon perustaidot: sen kriittinen arviointi, mihin kukin käyttäjätunnus pyrkii, ja onko niiden tarjoama sisältö luotettavaa.
Lähteet
Fredheim Rolf, 2023 a, Social Media Manipulation 2022/2023: Assessing the Ability of Social Media Companies to Combat Platform Manipulation, NATO StratCom COE, https://stratcomcoe.org/publications/social-media-manipulation-20222023-assessing-the-ability-of-social-media-companies-to-combat-platform-manipulation/272
Fredheim Rolf, 2023 b, Virtual Manipulation Brief 2023/1: Generative AI and its implications for social media analysis, NATO StratCom COE, https://stratcomcoe.org/publications/virtual-manipulation-brief-20231-generative-ai-and-its-implications-for-social-media-analysis/287
Botometer, viitattu 4.12.2023, Indianan yliopisto, https://botometer.osome.iu.edu/
Koskinen Inkeri, 6.3.2022, Juttelin rokotevastaisen botin kanssa suomeksi, https://blogs.tuni.fi/eufemia/teema1/juttelin-rokotevastaisen-botin-kanssa-suomeksi/
Meta, 27.9.2023, Introducing New AI Experiences Across Our Family of Apps and Devices, https://about.fb.com/news/2023/09/introducing-ai-powered-assistants-characters-and-creative-tools/
Smart B., Watt J., Benedetti S., Mitchell L. ja Roughan M., 2022, #IStandWithPutin versus #IStandWithUkraine: The interaction of bots and humans in discussion of the Russia/Ukraine waw, https://arxiv.org/abs/2208.07038, PDF: https://arxiv.org/pdf/2208.07038.pdf
Snapchat, 27.2.2023, Käy moikkaamassa My AI -chatbottia, https://newsroom.snap.com/fi-FI/say-hi-to-my-ai
Tweeps.net, Usein kysytyt kysymykset, viitattu 4.12.2023, https://www.tweeps.net/fi/ukk/
Yle, 5.5.2023, Joko sinäkin sait Snäpissä viestin My AI:lta? Se aikoo käräyttää alle 13-vuotiaat, https://yle.fi/a/74-20030399