Yhä useampi organisaatio hyödyntää tekoälyä, jonka käyttö onkin herättänyt vilkasta keskustelua sen eettisyydestä. Missä menee rajanveto esimerkiksi kasvojen tunnistamisessa? Aiheesta keskusteltiin virtuaalisessa Ratkaisu21-tapahtumassa CGI:n Jari Niemen johdolla.

Datan hallinta ja hyödyntäminen ovat kehittyneet vauhdikkaasti. Miapetra Kumpula-Natri näkee datan ja analysoinnin välineenä tehdä asioita yhteiskunnassa yhä paremmin ja älykkäämmin. Lainsäätäjänä ja europarlamentaarikkona hän on mukana luomassa pelisääntöjä datan hallintaan.

”Säätelyllä ei haluta rajoittaa innovaatioita ja estää kehitystä, mutta sitä tarvitaan varmistamaan, että asiat tehdään oikein”, Kumpula-Natri sanoo. 

Tekoälyn hallintaa ja läpinäkyvyyttä kehittävän Saidotin toimitusjohtaja ja perustaja Meeri Haataja tunnustaa ennen ajatelleensa, että yritysten itsesäätely riittää ensisijaiseksi säätelykeinoksi. Nyt hänen mielestään regulaatiota tarvitaan selkiyttämään sekavaa pelikenttää, ja tämän ymmärtävät myös vastuullisesti toimivat yritykset. Tekoälystä puhuminen tuo vääjäämättä esiin myös uhat.

”Kaikki keskustelu tekoälyn haitoista on lopulta osoitus siitä, että olemme tekoälyn hyödyntämisessä jo pitkällä ja sillä on vaikuttavuutta”, Haataja sanoo.

Eurooppalaisen demokratian ehdoilla

Tekoälyn hyödyntäminen on nostanut vahvasti esiin arvot, kuten vastuullisuuden ja eettisyyden. GDPR:n myötä yksityisyydensuoja on tullut jo tutuksi, mutta tekoälyn eettisyys on huomattavasti laajempi asia.

”Tekoälyn etiikassa puhutaan yksityisyyden suojasta ja monesta muustakin perusoikeudesta, kuten yhdenvertaisuudesta, lasten oikeuksista, hyvästä hallinnosta ja siitä, mitä ne tarkoittavat digitaalisessa yhteiskunnassa”, Haataja sanoo. 

Kyse on Kumpula-Natrin mielestä myös merkittävästä demokratian kulmakivestä ja rajojen hakemisesta siihen, miten demokratiaa ylläpidetään digitaalisessa maailmassa. 

Ei isoa veljeä valvomaan

Eurooppalainen kulttuuri eroaa selkeästi monista muista kulttuureista. Jossain päin maailmaa kameroista voi seurata tarkkaan kansalaisten liikkeitä, mutta Iso veli valvoo -ideologia ei Kumpula-Natrin mielestä sovi lainkaan eurooppalaisten perusarvoihin. Rajojen vetäminen ei silti ole yksinkertaista.

”Kasvojen tunnistus on herättänyt paljon keskustelua parlamentissa, mutta samalla avaan oman kännykkäni kasvojen tunnistamisella”, Kumpula-Natri vertaa. 

Datan hyödyntämisessä on kyse paljon suuremmasta asiasta kuin siitä mitä tietoa meistä tällä hetkellä saa. Euroopassa pelätään laajan datan hyödyntämisen valuvan esimerkiksi Facebookin kaltaisille jäteille. Tosiasiassa käytämme vasta kolme prosenttia siitä datasta, mitä tällä vuosikymmenellä tullaan ehkä käyttämään. 

Vinoutunut data vaarana

Uudet mahdollisuudet datan hyödyntämisessä tuovat myös uudet riskinsä, kuten kyberuhkia. Tekoälyyn käytetään usein myös biasoitunutta, vinoutunutta dataa. Siksi datan pitäisi olla laadukasta ja sitä pitäisi olla riittävä määrä. 

Esimerkkinä vinoutuneesta datasta voidaan mainita sukupuolten tasa-arvo. Jos tekniikasta on seminaarissa puhumassa joukko miehiä, ja sen perusteella tekoäly ehdottaa seuraavaksi kerraksi puhujia, data voi olla vinoutunutta. Myös rekrytoinnissa käytetty tekoäly on johtanut vinoutumaan siinä määrin, että sen käyttämistä rekrytoinnissa on jopa kyseenalaistettu.

Mutta kuka vastaa siitä, ettei vinoutunutta dataa käytetä? 

”Onko meillä jatkuvaa innostusta oppia ja opettaa teknologisia ratkaisuja tekeville ihmisille arvoja ja pistää heidät pohtimaan esimerkiksi kyberturvallisuutta tai tasa-arvoa? Aika paljon tulee koodaajan pöydälle asioita arvioitavaksi!” Kumpula-Natri sanoo.
 

Vastuullinen datanhallinta Ratkaisu21 tallenne