Luovan tekoälyn GenAI-sovellukset kuten ChatGPT ovat nykyisin helposti käytännössä kaikkien saatavilla. Saavutettavuus yhdistettynä valtavaan tietomäärään houkuttelee hyödyntämään tekoälytyökaluja.
Julkisten GenAI-sovellusten käyttö sisältää riskin luottamuksellisten tietojen leviämisestä käyttäjän syötteiden kautta, ja lisää riskiä epäluotettavien tai todentamattomien tietojen käytölle, jos tekoälyn käyttämiä tietolähteitä ei voi varmentaa. Julkisiin GenAI-työkaluihin liittyvät turvallisuusongelmat johtuvat suurelta osin niiden rajoitetusta näkyvyydestä siihen, miten malleja opetetaan sekä miten käytön kautta saatua sisältöä käytetään, tallennetaan ja haetaan.
CGI:n vastuullisen tekoälyn käyttöä koskevissa ohjeissa linjaamme, että organisaatioiden tulisi käyttää samaa ohjeistusta, jota ne käyttävät tietojen julkiseen jakamiseen, yleisohjeena tietojen ja resurssien jakamiseen julkisille GenAI-sovelluksille.
Suojatun tiedon jakamiseen tarvitaan tekoälyn vastuullisen käytön kehykset
Tekoälyn vastuullisen käytön perusperiaatteita ovat läpinäkyvyys, riskien hallinta, hyvä hallinto, osallistavuus sekä valvonnan alaisuus. Johtavat tekoäly- ja pilviteknologiatoimittajat tarjoavat vastuullisen käytön kehykset sekä mahdollisuuden käyttää GenAI-työkaluja turvatussa ympäristössä poistaen riskin tietovuodoista julkisiin versioihin.
Monimuotoisessa AI-ekosysteemissä, jossa tekoälymallien hienosäätämiseen käytetään suojattua tietoa, organisaatioiden on syytä täydentää kumppanijärjestelmien tietoturvaa omillaan. Vaikka useimmat GenAI-työkalut toimivat pilvessä, osa tietojen käsittelystä voi tapahtua omilla palvelimilla.
CGI:n tekoälyn vastuullista käyttöä koskevissa ohjeissa suosittelemme, että arkaluontoista dataa koskevissa käyttötapauksissa GenAI-teknologioiden käyttö tulisi rajoittaa suojattuihin ympäristöihin. Tällöin mallia voidaan soveltaa organisaation dataan ja immateriaalioikeuksiin tietosuojaa vaarantamatta ja näkyvyys tekoälyn käyttämiin tietolähteisiin ja sen muodostamiin vastauksiin on mahdollisimman hyvä.
Kun luovaa tekoälyä hyödynnetään pilvipalveluna, voidaan hyödyntää jo olemassa olevaa pilviteknologiaa ja kehittää siinä jo olevaa pääsynhallintaa. Suojatuissa ympäristöissä GenAI-malleja voidaan räätälöidä eri käyttötapauksille ja määritellä parametreja niin, että mallit toimivat tiettyjen, ennalta määritettyjen rajojen sisällä. Tietoihin pääsyä voidaan rajoittaa käyttäjäroolien ja todennusvaatimusten pohjalta.
Suosittelemme varmistamaan, että tekoälyn vastuullisen käytön kehykset ovat riittävän kattavat. Suosittelemme myös hyödyntämään olemassa olevia tietosuoja- ja tietoturvaprotokollia entistä turvallisemman tekoälyinfrastruktuurin saavuttamiseksi, mikä mahdollistaa sekä suuremman arvon, että sijoitetun pääoman tuoton (ROI) tekoälyratkaisujen käytölle.
Keskeisiä eettisiä datan vastuullisen käytön periaatteita tekoälyä hyödynnettäessä ovat muun muassa:
- Relevanssi: Varmista, että tekoälyn opettamiseen ja lopputuotoksiin käytetyt tiedot sekä tietojen tilastollinen merkitys suhteessa tehtävänantoon on vahvistettu. Tee tekoälyn tuottaman sisällön relevanssin seurannasta jatkuvaa.
- Luotettavuus: Varmista, että tekoälymallit käsittelevät algoritmisia rajoituksia, kuten tietojen vinoumia ja varianssia.
- Tietoturva: Varmista, että tekoälyn keräämä data, etenkin arkaluonteiset tiedot, kuten henkilökohtaisten tunnistetiedot ja IP-osoitteet, liikkuvat vain suojattuna.
- Tunnistamattomuus: Rajoita pääsyä henkilötietoihin poistamalla tai muokkaamalla tunnisteelliset tiedot ja arvioimalla uudelleentunnistamisen riski osana yleisiä tietosuojasäädöksiä ja -käytäntöjä.
- Pilvialustan suojaus: Varmista, että tietojen tallennus ja tiedonsiirto on pilvipalvelussa suojattu, ja sovella käyttäjätason mukaisia pääsyrajoituksia.
- API-salaus: Käytä suojattua ja salattua sovellusohjelmointirajapintaa (API) kaikkiin omilla palvelimilla säilytettäviin tietoihin, joihin tekoälyllä on pääsy, ja poista tai muokkaa tunnisteelliset tiedot mahdollisuuksien mukaan.
- Asiantuntijan validointi: Varmista, että aiheen asiantuntija tulkitsee tekoälyltä saadut vastaukset ja muut tuotokset, jotta varmistetaan, että tieto on liiketoiminnalle merkityksellistä.
- Läpinäkyvyys: Käytä vain sellaista tekoälypalvelua, joka kertoo myös lähteet.
Tekoälyn vastuullinen käyttö varmistetaan valvonnalla
Hyvä esimerkki eettisesti kehitetystä tekoälyratkaisusta tietoturvallisessa ympäristössä on CGI:n, Helsingin yliopistollisen sairaalan (HUS) ja Planmecan yhteistyönä syntynyt innovatiivinen tekoälyratkaisu, joka auttaa pään TT-kuvien tulkinnassa tunnistamaan niistä yleisimmät ei-traumaattiset aivoverenvuodot.
Ratkaisu hyödyntää tekoälyn vastuullisen käytön parhaita käytäntöjä varmistaen, että päätösvalta säilyy ihmisellä, sillä varsinaisen diagnoosin tekee edelleen radiologi ja hoitopäätökset hoitava lääkäri. Ratkaisua kehitettäessä on varmistettu, että tietosuoja- ja turvallisuusriskit huomioidaan datan siirrossa diagnostisesta kuvantamisesta analyysiin. Kehittämisvaiheessa on myös tehty validointiyhteistyötä muun muassa Sveitsin suurimpiin kuuluvan yliopistosairaalan kanssa. Näin malli ja sen tuotokset ovat tarkkoja ja ratkaisu on skaalautuva.
Lähtökohtamme jokaisessa tekoälyä hyödyntävässä ratkaisussa on riskien hallinta suunnittelussa, toteutuksessa ja käyttöönotossa. Varmistamme tieteellisen tarkkuuden ja sovellamme tekoälyn eettistä riskiarviointia toteutuksen jokaisessa vaiheessa. Määrittelemme alussa tekoälymallin tavoitellut hyödyt ja seuraamme toteutusta arvioidaksemme, saavutetaanko hyödyt ja sijoitetun pääoman tuotto. Varmistamme myös, että tekoälyratkaisuissamme lopullinen vastuu ja valta säilyy ihmisellä, jotta tuotokset pikemminkin tukevat kuin korvaavat ihmisen päätöksentekoprosessissa.
Blogi on julkaistu alun perin englanniksi: Guardrails for data protection in the age of GenAI