Tommi Gynther

Tommi Gynther

johtava digitalisaatiokonsultti, valtionhallinto

Huoli tekoälyratkaisujen epäeettisestä tai jopa lakia rikkovasta toiminnasta on kasvanut ratkaisujen monimutkaistuessa ja niiden levittäytyessä yhteiskunnallisesti useammalle eri tasolle. EU haluaakin tulevalla regulaatiolla välttää pahimmat painajaiset, mitä tekoäly voisi tuoda tullessaan ihmiskunnalle. Kuvitelkaa erilaisia tekoälyyn liittyviä dystopioita vaikkapa Netflixissä pyörivän Black Mirrorin jaksoista. 

 

Regulaatio kieltänee painajaiset

Ennakkotietojen mukaan EU-tason tekoälyregulaatiossa haluttaisiin osittain kieltää korkean riskin tekoälyratkaisujen käyttöönotto sekä rajoittaa niiden tuloa markkinoille, jos ne eivät täytä asetettuja vaatimuksia. Korkean riskin tekoälyratkaisuja ovat esimerkiksi sellaiset, jotka vahingoittavat ihmistä manipuloimalla yksilön käyttäytymistä, mielipiteitä ja päätöksentekoa. 

Ratkaisut, jotka tarkkailevat ihmisten heikkouksia tai ihmisryhmiä ylipäätänsä tultaisiin lähtökohtaisesti kieltämään. Näitä ovat esimerkiksi biometriset valvontajärjestelmät tai niin sanotut social scoring -ratkaisut, joiden avulla pisteytetään ihmisten ja yritysten luotettavuutta. Regulaatio ottaisi myös nykyisin jo useammassa paikassa käytössä olevia korkean riskin tekoälyratkaisuja tarkastelun alle vaatimusten osalta. Tällaisia ovat esimerkiksi luottoluokitukseen sekä työ- tai viisumihakemusten tarkastamiseen ja päätöksentekoon liittyvät ratkaisut.

 

Vaatimuksissa ihmisen suorittamaa valvontaa

Regulaation mukanaan tuomat vaatimukset jaettaisiin muun muassa datan käyttöön, dokumentointiin ja kirjanpitoon sekä läpinäkyvyyteen, valvontaan ja turvallisuuteen. Aineiston osalta vaaditaan korkeaa laatua ja vinoutumattomuutta, eikä datan hyödyntäminen saa mahdollistaa ennalta tunnistettua väärinkäyttöä. Korkean riskin ratkaisut pitäisi myös suunnitella ja toteuttaa siten, että niiden tuotokset voidaan varmistaa ja jäljittää takaisinpäin alkulähteelle. Lisäksi pitää kiinnittää huomiota tekniseen dokumentointiin, jotta se pitää sisällään kaiken tarvittavan tiedon vaatimusten täyttymisen osalta. 

Erityistä huomiota on kiinnitettävä läpinäkyvyyteen ja valvontaan. Tekoälyratkaisun toiminta on oltava selkeää sen käyttäjille ja ratkaisun toimintaa on valvottava ihmisen toimesta. Toisin sanoen, ymmärrys käytettävästä datasta ja sen koko elinkaaresta kasvattaa merkitystään entisestään. Pitää tuntea tuotoksen lisäksi koko tarina ratkaisun taustalla ja osata kertoa se myös muille.

 

Uudenlaisia vastuita suoraan organisaatiolle 

Tuleva regulaatio kannattaa ottaa vakavasti, sillä vaatimuksia rikkovat tai epäselvästi tekoälyratkaisun toiminnasta kertovat organisaatiot voivat saada sakon, jonka suuruus olisi jopa 4% liikevaihdosta. On tärkeä huomata, että korkean riskin tekoälyratkaisujen tarjoajat ovat itse vastuussa toiminnasta. Joissain tapauksissa toimintaa voidaan tarkistaa myös kolmannen osapuolen toimesta. 

Tekoälyratkaisujen eettiset näkökulmat kannattaakin nähdä investointina tulevaisuuteen, sillä oikeudenmukaiset ja tasapuolisuuteen perustuvat ratkaisut otetaan lopulta myös ihmisten toimesta paremmin vastaan. Tekoälyn, kuten EU sen näkee, pitäisikin olla ihmisiä palveleva työkalu, jonka lopullisen tavoitteen tulisi olla ihmiskunnan hyvinvoinnin lisääntyminen. 

 

Mistä lähteä liikkeelle?

EU-tasolla regulaation myötä syntyisi ”European Artificial Intelligence Board”, johon jokainen jäsenvaltio saa yhden edustuspaikan. ”Lautakunta” päättäisi muun muassa siitä minkälaiset ratkaisut saavat korkean riskin luokituksen. Organisaatioiden olisi myös tärkeää luoda itselleen vastaavanlainen toiminto, joka käsittelee tekoälyratkaisujen eettisyyttä sekä valvontaa. 

Aluksi kannattaa miettiä millaisia kompetensseja ja määrittelijöitä vaaditaan, jotta rakennettu viitekehys todella olisi mahdollisimman puolueeton: jos ollaan luomassa tasapuolisuutta, sen pohjana on oltava moniäänisyyttä. Tämän jälkeen on helpompi luoda prosessit ja valita työkalut, jollaisia esimerkiksi Tekoälyajan etiikkahaasteessa on luotu, joilla tunnistetaan konkreettisemmin ratkaisujen vinoumia sekä implementoidaan keinoja niiden poistamiseen. 

Kirjoittajasta

Tommi Gynther

Tommi Gynther

johtava digitalisaatiokonsultti, valtionhallinto

Olen Tommi Gynther ja työskentelen CGI:llä valtionhallinnon yksikössä johtavana digitalisaatiokonsulttina. Taustani ovat sovelluskehityksen ja arkkitehtuurin puolelta mutta tänä päivänä katson asioita enemmänkin pehmeämpien arvojen näkökulmasta vahvalla tulevaisuusorientoitumisella.