”Nyt on nähty vasta jäävuoren huippu siitä, millaisiin väärennöksiin tekoälyä vielä käytetään”
Generatiivista tekoälyä hyödynnetään yrityksissä kiihtyvällä tahdilla. Lähes samalla tahdilla kiihtyy kielimallien rikollinen käyttö, jonka arvioidaan olevan todennäköisin uhkakuva kyberturvallisuudelle lyhyellä aikavälillä.
”Hyökkääjät optimoivat, kehittävät ja pienentävät kustannuksia generatiivisen tekoälyn avulla – aivan kuin mikä tahansa yritys”, sanoo Kyberturvallisuuskeskuksen johtava asiantuntija Juhani Eronen.
Eronen ja CGI:n uusi tietoturvajohtaja Matti Vesterinen olivat Lotta Backlundin vieraana Älykästä tekoa -podcastin uusimmassa jaksossa, jossa pohditaan, miten tekoäly haastaa kyberturvallisuuden ja miten siihen voidaan yrityksissä varautua.
Tekoäly uhkaa, mutta auttaa myös tunnistamaan poikkeamat
CGI:n Vesterisen mukaan perinteiset kyberturvajärjestelmät perustuvat staattisiin sääntöihin ja malleihin, joten niillä ei välttämättä saada kiinni generatiivisella tekoälyllä tehtyjä haittaohjelmia.
”Myös kyberturvallisuuden puolella täytyy siis hyödyntää tekoälyä, että saadaan kiinni yhä nopeutuvat hyökkäykset”, Vesterinen sanoo.
Erosen mukaan tekoäly tulee haastamaan kyberturvallisuutta kahdessa linjassa:
”Joko huijaus voidaan esittää suoraan ihmisille tai toisena vaihtoehtona järjestelmän heikkoutta tai teknistä ominaisuutta käytetään hyväksi”, hän sanoo.
Näistä molempiin on osattava varautua. Suomessakin on jo tavattu ensimmäiset tapaukset, jossa esimerkiksi yrityksen johtohenkilön äänellä on tehty syväväärennös- eli deepfake-ääniviesti, jolla yritetään vaikuttaa muihin korkean profiilin ihmisiin.
Kustomointi tulee rikollisuuteen
Erosen mukaan tilanne ymmärretään yrityksissä vaihtelevasti
”Osassa liiketoimintasektoreista, kuten energiahuollossa tai finanssi-, tele- ja tietoliikennesektoreilla on pitkät perinteet varautumisen kanssa. Osalla asia ei ole ollut keskeisessä toiminnassa. Kaikilla yrityksillä on digiympäristöt ja tietokoneet, joten tätä tulisi miettiä – olisi pitänyt jo aikaa sitten”, hän kommentoi.
”Huijausviestit ovat menossa huomattavasti henkilökohtaisempaan suuntaan. Nyt pystytään jo louhimaan mukaan tietoa sosiaalisesta mediasta. Lisäksi viesti voidaan muotoilla virheettömälle kielelle tai jopa oikealla äänellä. Vaikka se olisi kuinka henkilökohtaisen oloista, se ei välttämättä ole totta”, Vesterinen jatkaa.
Vaalit houkutteleva kohde tekoälyllä tehdyille väärennöksille
Erityisesti poliittisissa vaaleissa tekoälyllä tehdyt väärennökset ovat jo arkipäivää. Pelkästään viimeisen vuoden aikana on nähty lukuisia tapauksia eri puolella maailmaa, joissa generatiivisen tekoälyn avulla tehdyillä kuva- ja videoväärennöksillä on pyritty vaikuttamaan vaalitulokseen.
Asiaa vaikeuttaa se, että väärennökset ovat yhä vaikeampia tunnistaa. Lainsäädännön puuttuessa teknologiajätit ovatkin ryhtyneet luomaan omia käytäntöjään ja tekoälyn käyttöä koskevia sääntöjä, mutta iso vastuu jää yhä yksittäisten kansalaisten medialukutaidolle.
Mitä asiantuntijat arvelevat siitä, nähdäänkö ilmiö jo Suomen presidentinvaaleissa?
”Tähän mennessä ei ole kantautunut tietoa siitä, että Suomen vaaleihin olisi yritetty vaikuttaa. Mutta medialukutaitoa tarvitaan kaikissa tilanteissa”, arvioi Eronen.
”Jos joku asia somessa saa pöyristymään, kannattaa miettiä monta kertaa, onko se varmasti totta vai tehtyä”, Vesterinen sanoo.