Hur ska artificiell intelligens (AI) bidra till samhällsutvecklingen på ett positivt sätt? Det är en av huvudfrågorna för det nya nationella AI-centret i Göteborg. Här ska forskare och företag ta fram nya lösningar och etiska ramverk.

I december invigs Sveriges nya center för artificiell intelligens, AI Innovation of Sweden, i Lindholmen Science Park i Göteborg. Här ska ett hundratal personer från näringslivet, myndigheter och universitetsvärlden tillsammans forska på och ta fram nya lösningar för hur AI kan bidra till nya produkter, tjänster och samhällsutveckling. Initiativet kom från det svenska företaget Zenuity, som sedan 2017 tar fram AI-baserad mjukvara till självkörande bilar åt bland annat Volvo Cars.

"Sverige har inte hängt med om vi jämför med förutsättningarna för AI i andra delar av världen. Vi ville bidra till att göra Sverige mer attraktivt för talanger och investeringar inom AI och det visade sig att det fanns ett stort intresse för detta", säger Mats Nordlund, forskningschef på Zenuity.

Satsningen presenterades i maj då regeringen lanserade det nationella AI-centret och en datafabrik i Lindholmen, i Göteborg. Via innovationsmyndigheten Vinnova kommer staten satsa totalt 500 miljoner kronor i tio år i det nya centret. Därutöver har satsningen lockat till sig flera universitet och företag som till exempel Astra Zeneca, Stena, Volvo Cars och CGI.

Conny Svensson
Conny Svensson

"När centret lanserades var vi en av de grundande parterna. Bakom satsningen låg en rapport från Vinnova som visar att AI är en avgörande faktor för att det svenska samhället ska utvecklas i en positiv riktning. Jag gillade att regeringen talade om en treenighet där stat, näringsliv och forskare arbetar tillsammans, säger Conny Svensson, ansvarig för CGI:s arbete med digital transformation och AI."

"Centret ska inte hålla på med grundforskning, utan titta på hur AI kan appliceras på vår vardag. Hur kan vi skapa AI så bra så att det ger effekt i samhället? För detta krävs data som forskare kan komma och forska på."

Redan vid starten kommer flera företag och myndigheter dela med sig av data, som såväl forskare som startup-företag ska kunna ta del av.

"Forskare och entreprenörer har idag normalt bara tillgång till publika dataset från Kina eller USA. Det gör att AI som tränas upp på den datan kanske fungerar bra i kinesiska eller amerikanska miljöer, men inte nödvändigtvis i Sverige. Därför är det bra att få in data från svenska företag och myndigheter", säger Mats Nordlund.

CGI vill gärna även engagera sig i vad som kallas etisk AI och demokratisk AI. Etisk AI handlar om att säkerställa att de lösningar som skapas med AI sker på ett sätt som stämmer med de värderingar och den etik och moral som råder i samhället. Demokratisk AI innebär att göra AI mer lättillgänglig för vanligt folk och skapa positiva effekter i samhället.

Redan idag är AI en del av de flesta människors vardag utan att vi tänker på det. Till exempel är det AI som utifrån våra tidigare val på Netflix föreslår vilka serier och filmer vi borde titta på. AI är också en del av kartfunktionerna, översättningsfunktionerna och Google Assistant i våra telefoner.

"Än så länge väljer vi själva vilken film på Netflix vi vill titta på, men i takt med att systemen blir bättre, desto fler automatiska beslut kommer de fatta åt oss. Vi talar om för AI vilket mål vi vill uppnå och ger den de data den behöver för att nå dit, men hur når AI målet? Hur vet vi att den följer de lagar, värderingar och kulturella beteenden som vi har satt upp och är vana vid", säger Conny Svensson.

För att bemästra dessa etiska utmaningar har branschorganisationen IT- och telekomföretagen (IT&T) tagit initiativ till en uppförandekod för de företag som arbetar med AI.

"Självklart ska vi titta på allt det goda som AI kan föra med sig, men vi måste också vara medvetna om vad som kan inträffa om vi inte har en gemensam syn på hur man tillämpar den nya tekniken. Vi måste vara extra vaksamma inom områden där felaktiga beslut kan få förödande konsekvenser, till exempel för människor i behov av vård eller stöd", säger Lars Lundberg, näringspolitisk expert på IT&T.

Uppförandekoden ska vara klar i början av 2019. Sedan ska den testas av bland annat etikforskare. Även i AI-centret kommer det finnas etikforskare som är delaktiga i utvecklingen för att ta hänsyn till etiska frågeställningar och undvika moraliska eller juridiska övertramp.

 

TEXT: ERIK HALKJAER