Tekoälyn kyberturvallisuus ei ole yksittäinen tekninen haaste, vaan kokonaisuus, joka ulottuu dataan, järjestelmiin, sidosryhmiin ja strategisiin teknologiapäätöksiin. Organisaatioiden toimintaympäristössä tekoälyä voidaan käyttää hyökkäyksiin, tekoälyyn voidaan kohdistaa hyökkäyksiä ja tekoälyä hyödynnetään puolustuksessa.
CGI:n Kybertutka-lähetyksessä tammikuussa pureuduttiin tekoälyn kyberturvallisuuteen. Studiossa keskustelivat Matti Vesterinen, CGI:n kyberturvallisuusyksikön johtaja ja Kybertutkan juontaja, sekä Juho Reivo, CGI:n erityisasiantuntija tietoturva- ja kyberturvallisuusyksikössä.
Keskustelun ytimessä oli kysymys, joka monessa organisaatiossa tuntuu ajankohtaisemmalta kuin koskaan: miksi tekoälystä puhuminen on niin vaikeaa ja miten sitä pitäisi lähestyä, jotta riskit pysyvät hallinnassa ilman että kehitys pysähtyy?
Tekoäly ei ole yksi asia ja juuri siksi sen hallinta tuntuu hankalalta
Reivon mukaan tekoälystä puhutaan usein liian yleisellä tasolla. Se näyttäytyy samanaikaisesti teknisenä työkaluna, strategisena murroksena ja jopa pelottavana tulevaisuuskuvana.
“Jos tekoälyä käsitellään yhtenä möykkynä, se on väistämättä hallitsematon”, Reivo toteaa. “On pakko määritellä, mistä kulmasta ja millä tasolla puhutaan: yksittäisestä järjestelmästä, liiketoimintavaikutuksista, käyttäjien arjesta vai yhteiskunnallisista vaikutuksista.”
Vesterinen täydentää, että kyberturvallisuuden näkökulmasta tekoäly ei ole vain yksi uusi IT-järjestelmä muiden joukossa. Se tuo mukanaan uusia kerroksia: dataa, malleja, toimittajia, rajapintoja ja päätöksentekoa, joita kaikkia on tarkasteltava systemaattisesti.
Riskienhallinta alkaa ennen kuin riviäkään koodia on kirjoitettu
Tekoälyn riskienhallinta ei koske vain tilanteita, joissa organisaatio itse kehittää tai ottaa käyttöön tekoälyä. Vaikka tekoälyä ei olisi omissa järjestelmissä lainkaan, organisaation on silti ymmärrettävä, miten sen sidosryhmät – asiakkaat, kumppanit ja toimittajat – hyödyntävät tekoälyä ja millaisia vaikutuksia sillä on organisaation toimintaan ja turvallisuuteen.
“Tekoälyyn törmätään joka tapauksessa”, Reivo toteaa. “Jos ei omissa järjestelmissä, niin asiakkaiden, kumppaneiden tai toimintaympäristön kautta. Siksi organisaatiolla pitää olla näkemys siitä, miten se suhtautuu tekoälyyn, käyttää se sitä itse tai ei.”
Tekoälyn merkitys organisaatiolle ja sen laajemmalle turvallisuudelle onkin suurempi kuin mitä EU:n AI Act yksin määrittelee. AI Act keskittyy yksittäisiin tekoälyjärjestelmiin ja niiden vaatimustenmukaisuuteen, mutta organisaation riskit syntyvät usein laajemmasta kokonaisuudesta: ekosysteemeistä, riippuvuuksista ja sidosryhmien toiminnasta.
Varsinainen riskienhallinta alkaa jo ennen kuin ensimmäinen rivi koodia on kirjoitettu, jo ideointivaiheessa. Tekoälyn riskienhallinta ei ole vaihe, joka lisätään projektiin lopuksi, vaan sen on oltava mukana alusta alkaen.
“Jos hallinnolliset ja sääntelyyn liittyvät asiat huomioidaan vasta tuotantovaiheessa, ollaan usein jo myöhässä”, Reivo sanoo. “Silloin teknisesti hyvä idea voi muuttua ongelmalliseksi tai jopa mahdottomaksi ottaa käyttöön.”
EU:n AI Act tuo tähän kaivattua rakennetta, mutta Reivo muistuttaa, että kyse ei ole täysin uusista vaatimuksista. Riskilähtöinen ajattelu, dokumentointi, auditointi ja kontrollit ovat olleet hyviä käytäntöjä jo pitkään. Nyt ne on vain kirjoitettu velvoittavaksi ja nostettu johdon agendalle entistä selkeämmin.
Ääripäät jarruttavat kehitystä
Organisaatioiden suhtautumisessa tekoälyyn Reivo näkee selkeää hajontaa. Toisessa ääripäässä tekoälyä vältellään, koska riskit koetaan ylivoimaisiksi tai organisaatiosta puuttuu kulttuuri ja mallit uuden teknologian hallittuun käyttöönottoon. Toisessa ääripäässä tekoälyä otetaan käyttöön nopeasti ja laajasti ilman riittävää näkyvyyttä, ohjausta tai vastuita – luottaen siihen, että asiat kyllä selviävät matkan varrella.
“Kumpikaan ei johda hyvään lopputulokseen, eikä varsinkaan siihen, että tekoäly saataisiin aidosti hallintaan”, Reivo toteaa. “Tarvitaan realistinen ymmärrys siitä, mitä tekoäly juuri tässä organisaatiossa tarkoittaa, ei enempää eikä vähempää.”
Vesterisen mukaan pelkkä tekninen näkökulma ei riitä, mutta ei myöskään abstrakti strategiapuhe. Tekoälyä ei voida käsitellä irrallisena innovaationa tai yksittäisenä IT-hankkeena, vaan osana laajempaa kokonaisuutta, joka vaikuttaa toimintaan, vastuisiin ja päätöksentekoon.
Reivo jatkaa: “Tekoäly on sosio-tekninen kokonaisuus, jossa teknologia, ihmiset, prosessit ja vaikutukset kietoutuvat yhteen. Tämä korostuu erityisesti niin sanotuissa high-risk-järjestelmissä, joissa vaatimukset perusoikeustarkastelulle, vaikutusten arvioinnille ja keskustelulle eri sidosryhmien kanssa ovat keskeinen osa kokonaisuutta.”
Tällainen näkökulma on harvoin mukana perinteisessä tietojärjestelmäajattelussa. Tekoälyn kohdalla kysymys ei ole vain siitä, toimiiko järjestelmä teknisesti oikein, vaan myös siitä, millaisia vaikutuksia sillä on ihmisiin, päätöksentekoon ja luottamukseen.
Data on tekoälyn suurin riski ja sen suurin mahdollisuus
Tekoälyn kyberturvallisuudessa yksi asia nousee ylitse muiden: data. Tekoälyn laatu, turvallisuus ja luotettavuus rakentuvat sen varaan, millaista dataa käytetään ja miten sitä hallitaan koko elinkaaren ajan.
“On arvioitu, että yhtä tekoälyyn sijoitettua euroa kohden tarvitaan useampi euro datan kuntoon laittamiseen”, Reivo sanoo. “Se kertoo aika paljon siitä, missä todelliset riskit ja pullonkaulat ovat.”
Kun tekoälyä tarkastellaan kyberturvallisuuden näkökulmasta, on tärkeää ymmärtää, ettei kyse ole yhdestä ilmiöstä tai yhdestä riskistä. Organisaation toimintaympäristössä voi samanaikaisesti olla tekoälyä, jota käytetään sitä vastaan, tekoälyä, johon hyökkäykset kohdistuvat, sekä tekoälyä, jota hyödynnetään puolustuksessa ja suojautumisessa. Tämän lisäksi organisaation ympärillä ja sidosryhmissä voi toimia muita tekoälyratkaisuja, jotka vaikuttavat toimintaympäristöön, vaikkeivät ne olisikaan organisaation omassa hallinnassa.
“Kaikki nämä ulottuvuudet pitäisi pystyä hahmottamaan kokonaisuutena”, Reivo toteaa. “Oleellista on tunnistaa, mitkä ovat ne asiat, joihin organisaatio pystyy itse vaikuttamaan ja joita se voi aidosti hallita.”
Tekoälyn kyberturvallisuus ei ole vain tekninen kysymys, vaan strateginen valinta. Organisaation on ymmärrettävä, mitä tekoäly sille merkitsee, miten se vaikuttaa toimintaan ja millaisia teknologisia valintoja sen ympärille tehdään. Näihin valintoihin kohdistuvat uhat ja väärät ratkaisut voivat johtaa riippuvuuksiin, joista on vaikea irtautua.
Datan laatu määrittää pitkälti sen, kuinka luotettava ja turvallinen tekoälyjärjestelmä on. Siksi suuri osa sääntelystä ja turvallisuusajattelusta kohdistuu juuri dataan: miten se kerätään, miten sitä käsitellään, mihin sitä käytetään ja miten järjestelmän tuottamaa lopputulosta hallitaan.
Neljä perusasiaa kuntoon ennen kaikkea muuta
Keskustelun lopuksi Reivo tiivisti tekoälyn kyberturvallisuuden neljään peruspilariin. Yhteistä niille on ajatus ylhäältä alaspäin etenevästä turvallisuusajattelusta: tekoälyn hallinta ei ala yksittäisistä työkaluista, vaan johdon linjauksista, joista muut käytännöt johdetaan.
- Selkeä strategia ja hallintamalli
Tekoälyn käyttöä ohjaavat periaatteet, vastuut ja linjaukset on määriteltävä ylimmästä johdosta lähtien. Organisaatiolla on oltava selkeä turvallisuusstrategia ja hallintamalli, josta johdetaan, mitä tekoäly tarkoittaa liiketoiminnalle, järjestelmille ja arjen tekemiselle, sekä millaisia pelisääntöjä se asettaa tekoälyn käytölle.
- Näkyvyys tekoälyyn
Organisaation on tiedettävä, missä tekoälyä käytetään, mihin tarkoitukseen ja millä datalla. Ilman kokonaiskuvaa tekoälyn käytöstä sitä ei voi hallita, priorisoida eikä suojata. Näkyvyys on edellytys sekä riskienhallinnalle että sääntelyn noudattamiselle.
- Poikkeamien kerääminen ja oppiminen
Kaikkea ei tarvitse osata ratkaista heti. Olennaista on, että poikkeamat tunnistetaan, dokumentoidaan ja niistä opitaan. Tekoälyyn liittyvät häiriöt tai epätoivotut lopputulokset eivät aina näytä perinteisiltä tietoturvapoikkeamilta, mutta ne voivat silti kertoa olennaisista riskeistä.
- Kriittisten kokonaisuuksien erityishuomio
Ne järjestelmät ja käyttötapaukset, joilla on suurin vaikutus liiketoimintaan, päätöksentekoon tai ihmisiin, vaativat tiukimman hallinnan. Näissä tapauksissa riskien arviointi, kontrollit ja vastuut on määriteltävä erityisen huolellisesti.
Kybertutkan viesti oli selvä: tekoälyn kyberturvallisuus ei ole salatiedettä. Kun tekoäly tuodaan osaksi normaalia johtamista, päätöksentekoa ja arjen prosesseja, se lakkaa olemasta pelottava erikoistapaus ja muuttuu hallituksi osaksi organisaation toimintaa.
Kun tekoäly tuodaan osaksi normaalia johtamista, päätöksentekoa ja arjen prosesseja, se lakkaa olemasta pelottava erikoistapaus ja muuttuu hallituksi osaksi organisaation toimintaa. Kyse ei ole siitä, pitäisikö tekoälyä käyttää, vaan siitä, miten sitä käytetään turvallisesti, vastuullisesti ja liiketoimintaa tukien.
→ Lue lisää tekoälyn vastuullisesta käytöstä!
Kiinnostaako moderni kyberturvallisuusjohtaminen?
Liity Kybertutkan sähköpostilistalle – saat uudet jaksot, syventävät artikkelit ja käytännön oppaat ensimmäisten joukossa.