Jari Turkia

Jari Turkia

Data-analyytikko

Tekoälysovellukset ovat tulevaisuudessa mukana ohjaamassa yhteiskunnan turvallisuuden ja ihmisten terveyden kannalta elintärkeitä toimintoja. On tärkeää, että tekoäly toimii luotettavasti kaikissa tilanteissa. Tämä varmistetaan tekoälysovellusten huolellisella validoinnilla, joka ottaa huomioon käyttöympäristön.

Tekoäly on jo nyt iso osa arkielämäämme, ja tulevaisuudessa tekoälysovellukset ovat mukana lähes kaikessa, mitä teemme: niin terveydenhuollossa, liikenteessä kuin energiantuotannossakin. Mitä kriittisempi toiminto on yhteiskunnan turvallisuuden tai ihmisten terveyden ja hyvinvoinnin kannalta, sitä tärkeämpää on, että tekoäly toimii oikein eikä sekoile poikkeuksellisessakaan tilanteessa.

Tekoälyn taustalla on tilastollinen malli, jonka mukaisesti se tekee päätelmiä annetusta syötteestä. Malli on koulutettu aiemmilla havainnoilla vastaavista tilanteista. Tähän sisältyy virheiden mahdollisuus, koska emme useinkaan voi olla täysin varmoja, millaisilla havainnoilla malli on koulutettu ja mitä niistä on opittu. Tekoälymalli, joka toimii hyvin yhdessä ympäristössä, ei välttämättä ole luotettava toisenlaisessa käytössä.

Jos tavoitteena on esimerkiksi tunnistaa teiden varsilla kasvavia vieraslajeja auton ikkunasta otetuista kuvista, ja kuvantunnistusmalli on koulutettu vain oppikirjakuvien avulla, niin sovellus ei tunnista kurtturuusuja luonnossa ja saattaa luulla liikennemerkkejä lupiineiksi. Jos taas suosituksia antava tekoälysovellus antaa syrjiviä tai liian yleistäviä suosituksia, on usein kysymys siitä, että tekoälymalli on kehitysvaiheessa jätetty liian karkealle tasolle eikä se ota huomioon ihmisten yksilöllisiä tarpeita ja elämäntilanteita.

 

Vähintään pitää varmistua, että sovellus tekee mitä halutaan

Ratkaisu on tekoälymallia hyödyntävien sovellusten huolellinen ja sovelluksen huomioiva testaaminen. Tätä varten tulee määrittää sovelluksen kannalta oleellinen testauskriteeri.

Esimerkiksi kuvantunnistuksessa voidaan sallia pieni tunnistusvirhe, jos tunnistus on nopea ja se sietää muuttuvia kuvakulmia sekä häiriöitä. Suosittelusovelluksen testauskriteerinä voi olla esimerkiksi, että useista samaan päämäärään vievistä vaihtoehdoista suositaan sitä, joka aiheuttaa pienimmän ympäristövaikutuksen tai vaatii pienimmän muutoksen aiempaan toimintaan. Tässä kriteeri on jo enemmän arvovalinta kuin tekniikkaa.

Testaus on mahdollista tehdä riittävän hyvin vain, kun sovelluksen käyttöympäristö ja sen vaatimukset tunnetaan.

 

Lisäksi tulee testata sovelluksen luotettavuus poikkeustilanteissa

Ei kuitenkaan riitä, että tekoälysovellus toimii normaalissa tilanteessa. Koska tekoälyä käytetään yhä kriittisemmissä sovelluksissa, on tärkeää testata järjestelmän käytöstä ja luotettavuutta myös poikkeuksellisissa olosuhteissa. Tätä systemaattista testausta kutsutaan sensitiivisyysanalyysiksi.

Sensitiivisyysanalyysiä tehtäessä seurataan, miten tekoälyn toiminta muuttuu, kun sen syötettä tai parametrejä muutetaan. Tavoitteena on löytää rajat, joiden sisällä se toimii johdonmukaisesti, ja tunnistaa tilanteet, joissa toiminta muuttuu yllättävästi tai jopa vaarallisesti. Moni on koetellut esimerkiksi keskustelevien tekoälysovellusten rajoja ja huomannut, että kun kysyy tarpeeksi vaikeita, vastaukset muuttuvat epäluotettaviksi.

Meneekö tekeillä oleva sovellus sekaisin jo pienestä häiriöstä vai kestääkö se kovakouraistakin koettelua? Kun mallin rajat tiedetään, sovellus voidaan rakentaa toimimaan luotettavasti niiden sisällä ja estää yli rajojen menevät syötteet. Näin on mahdollista varautua tilanteeseen, jossa vihamielinen toimija etsii tekoälysovelluksista heikkouksia tavoitteenaan häiritä yhteiskunnallisesti tärkeitä toimintoja. Tämä tulisi nähdä osana tietoturvaa.

Myös sensitiivisyyden analysoinnin tulee olla käyttöyhteyteen sidottua eli se tulee tehdä yhteistyössä toimialan toimintalogiikan, prosessit ja ydintietojärjestelmät tuntevan tahon kanssa.

Euroopan Unionissa on parhaillaan tekeillä tekoälysäädös, AI Act, joka on maailman ensimmäinen kattava tekoälylaki. Sen luonnoksessa on mukana pakollinen sensitiivisyysauditointi korkean riskin tekoälysovelluksille. Auditointi on tärkeä osa riskienhallintaa, eikä tekoälyn hyötyjä ei kannata vesittää huonolla testaamisella.

 

Lue lisää tekoälystä:

Kirjoittajasta

Jari Turkia

Jari Turkia

Data-analyytikko

Olen Jari Turkia ja toimin CGI:llä data-analyytikkona. Minulla on kahdenkymmenen vuoden kokemus digitaalisista palveluista ja niiden arkkitehtuureista. Opastan teitä mielelläni kokonaisratkaisuissa, jotka alkavat tarpeiden ymmärtämisestä ja tietojen analysoinnista, päätyen Big Data-ratkaisun ja integraatioiden kautta helppokäyttöisiksi ja visuaalisesti näyttäviksi palveluiksi.