Tiede

Pitääkö tekoälyä säännellä, Nea Lepinkäinen?

Lepinkäinen väitteli Turun yliopiston oikeustieteellisestä tiedekunnasta tohtoriksi väitöskirjallaan Algoritmiset haitat: Tekoälyn riskit ja sääntelyn haasteet kiihtyvässä yhteiskunnassa.

Mitja Jakonen

Nea Lepinkäisen väitöskirja on jaettu kolmeen osaan, joista ensimmäinen esittelee haittojen teoriaa, joka on kriminologiasta irtautunut teoreettinen suuntaus. Siinä tutkitaan erityisesti sellaisia haittoja, joita laki ei vielä tunnista tai rajoita.

Haitoilla teoriassa tarkoitetaan lähtökohtaisesti sellaisia ilmiöitä, jotka estävät ihmisiä elämästä hyvää elämää. Toisessa osassa käsitellään tekoälyä ja sen teknisiä ominaisuuksia ja arvioidaan niiden vaikutuksia haittojen syntymiseen ja leviämiseen. Kolmannessa osassa tehdään katsaus nykyiseen lainsäädäntöön ja sen mahdollisuuksiin hallita algoritmisia haittoja.

Katsaus lainsäädäntöön paljastaa, että tutkimus on kiistämättä ajan hermolla. Kun Lepinkäinen aloitteli väitöskirjaprosessiaan, tekoälyä suoraan sääntelevää lainsäädäntöä vielä Suomessa ollut.

Yleinen eetos oli se, että yritykset määrittelivät itse eettiset ohjenuoransa ja toimivat niiden mukaan. Ensimmäinen kansallinen lainsäädäntönke tekoälystä käynnistyi vasta 2021.

Laki automaattisesta päätöksenteosta julkisessa hallinnossa tuli voimaan toukokuussa 2023, jolloin väitöskirja oli jo pitkällä. Kun EU:ssa säädetty tekoälysäädös astui voimaan elokuussa 2024, väitöskirja oli jo lähes valmis.

Lepinkäisellä on antaa niin risuja, kuin ruusujakin EU-lainsäädännölle. Yhtäältä Lepinkäinen muistuttaa siitä miten tärkeää on, että alaa säännellään toisaalta huomauttaen siitä, että laki säädettiin koskettamaan jo olemassa olevia prosesseja.

Se siis astui voimaan myöhässä suhteessa aiheen merkittävyyteen. Lepinkäinen toteaa myös, että asian kiireellisyyden vuoksi demokraattinen päätäntä jäi osittain virkamiesprosessien jalkoihin.

Tohtori kuitenkin huomauttaa, että on olemassa myös sellaista lainsäädäntöä, joka koskettaa tekoälyjärjestelmien tuotantoa ja käyttöä, vaikka sitä ei ole erityisesti säädetty siihen tarkoitukseen. Tällä hetkellä asiaa koskettava lainsäädäntö onkin vielä melko sirpaleista.

Hän on kiinnittänyt tutkimuksessaan huomiota muun muassa siihen, miten tekoälyn ihmisoikeusvaikutusten arviointivelvoite jää kapea-alaiseksi. Se koskettaa vain julkishallinnossa toimivia korkean riskin tekoälyjärjestelmien käyttöönottajia.

Riskien arviointi perustuu sellaiseen olettamaan, että erilaisten järjestelmien riskit pystytään ennakoimaan tapauskohtaisesti. Lepinkäisen mukaan tällaisessa järjestelmässä haittojen hallinta jää osin arvausten varaan.

Lopuksi Lepinkäinen kertoo asenneilmapiirin muutoksesta. Hän iloitsee siitä, että tekoälyyn liittyviä haitat on vihdoin otettu vakavasti ja on ymmärretty, että tekoälyä pitää säännellä, sillä yritysten omat eettiset ohjeet eivät riitä varmistamaan tekoälyjärjestelmien asianmukaisuutta.