
Generatiivinen tekoäly ja demokratia: valtaa ja vastuuta
Tämä kirjoitus on osa AIdemoc-hankkeen ”Kokemuksia”-sarjaa, jossa hankkeen tutkijat, asiantuntijat ja sidosryhmien edustajat jakavat näkökulmia ja havaintoja hankkeesta. Kyseessä on kenttämuistiinpanojen ja henkilökohtaisen pohdinnan yhdistelmä, jossa kirjoittaja reflektoi kokemuksiaan. Tekstissä esitetyt ajatukset ja huomiot ovat aina jokaisen kirjoittajan omia eivätkä välttämättä edusta AIdemoc-hankkeen virallista kantaa. Julkaisemme näitä subjektiivisia näkökulmia, sillä ne tarjoavat arvokkaita oivalluksia tekoälyn yhteiskunnallisista vaikutuksista tavalla, jota perinteinen tiedeviestintä ei aina tavoita.
Demokratian tulevaisuus (DEMOC) -ohjelman kesätapahtuma järjestettiin maanantaina 25. elokuuta 2025 Helsingissä. Kesätapaamisessa kuulimme muun muassa muiden DEMOC-ohjelman hankkeiden, MaterialDemocracyn, OBaMan, STRONGin ja RESLIDEn esittelyt ja osallistuimme teemakohtaisiin työpajoihin. Osallistuin tapahtumaan AIdemocin viestintä- ja vuorovaikutuskoordinaattorina. Mielestäni päivän parasta antia olivat ehdottomasti verkostoituminen ja ajatusten vaihtaminen esimerkiksi eri yhteistyömuodoista hankkeissa työskentelevien kanssa.
Vahvistaako generatiivinen tekoäly demokratiaa vai vallankäyttöä?
AIdemocin työpajassa keskusteltiin generatiivisen tekoälyn vaikutuksesta demokratiaan ja tulevaisuuden digitaalisesta demokratiasta. Työpajakeskustelussa nousi esiin se, että generatiivisella tekoälyllä voi olla parhaassa tapauksessa suuri merkitys demokratialle. Tekoäly voi tehdä tiedosta saavutettavampaa, helpottaa vähemmistöryhmien pääsyä käsiksi vaalimateriaaleihin tai tiivistää eduskunnan pitkiä asiakirjoja ymmärrettävämpään muotoon. Generatiivinen tekoäly auttaa jäsentämään suuria tietomääriä ja saattaa jopa nostaa keskustelun tasoa, jos sitä käytetään viisaasti.
Huolta työpajassamme herätti puolestaan se, kuinka helposti tekoälyllä voi luoda harhaanjohtavaa sisältöä. Menetämmekö kriittisiä taitoja, jos luotamme liikaa tekoälyyn ja unohdamme tarkistaa faktat? Aidonnäköiset feikkivideot tai vääristelty tieto voivat lisäksi horjuttaa luottamusta ja toimia vallankäytön välineinä. Osallistujat olivat yhtä mieltä siitä, että tekoäly ei ole neutraali teknologia, koska se peilaa koulutusdataansa. Jos koulutusdatan pohjalla on vinoutuneita arvoja, ne toistuvat ja vahvistuvat. Tämä voi tarkoittaa sitä, että vähemmistöjen näkökulmat jäävät sivuun ja keskustelu kapenee valtavirran ajatteluksi.
Koen, ettei tekoälykeskustelussa voi myöskään sivuuttaa ympäristökysymyksiä, sillä tekoälykehitys kuluttaa esimerkiksi raaka-aineita, vettä ja energiaa. Kestävämpiä ratkaisuja, kuten energiatehokkaampia malleja, uusiutuvalla energialla toimivia datakeskuksia ja kiertotaloutta tukevia teknologioita kehitetään kuitenkin koko ajan.
Yhteisellä asialla, jaetulla vastuulla
Kun katse suunnattiin tulevaan, keskustelu kietoutui vallan ja vastuun ympärille. Kuka on vastuussa, jos tekoäly antaa väärää tietoa, ja kenellä on valta ohjata sen kehitystä? Malleja voidaan jatkokouluttaa myös tasa-arvoa ja demokratiaa tukeviksi, mutta kuka päättää, miten se tehdään?
Tekoäly tuo mahdollisuuksia tiedon tiivistämiseen, oppimisen tukemiseen ja poliittisen keskustelun avaamiseen, mutta samalla se myös tuo uudenlaisia haasteita tutkimustyöhön. Tekoäly nostaa esiin esimerkiksi eettisiä ja yhteiskunnallisia kysymyksiä, joihin tutkijoilla ei ole helppoja vastauksia.
Tekoälyn kehitystyössä tarvitaan avoimuutta, läpinäkyvyyttä ja moninaisuutta. DEMOC-ohjelman alaiset hankkeet voivat lisätä tietoisuutta tutkimuksella, ja esimerkiksi tuomalla hallituksen, päättäjät ja muut toimijat saman pöydän ääreen. Lisäksi tarvitaan rohkeutta miettiä tekoälyn roolia uudelleen myös tulevaisuudessa.
Työpajoissa toistui viesti, että vastuu tekoälystä on meillä kaikilla: kehittäjillä, yhteiskunnalla ja meillä käyttäjillä. Meidän vastuullamme on päättää, millaista demokratiaa tekoäly tulevaisuudessa palvelee.
Terhi Walamies
Vuorovaikutuskoordinaattori, AIdemoc