Author: Pasi Söderberg
Vice President Security Scandinavia
Kunstig intelligens (KI) har på kort tid gått fra science fiction til hverdagsliv. Vi bruker den til å skrive tekster, analysere data og lage bilder. Men i samme tempo som teknologien gir oss nye muligheter, åpnes også dører for kriminelle – som de allerede har begynt å gå gjennom.
Fra en dyktig assistent til en smart bedrager
I dag kan KI snakke med oss, etterligne stemmene våre og lage videoklipp der vi sier noe som vi aldri har sagt. Det som for noen år siden føltes som spesialeffekter fra Hollywood, er nå tilgjengelig for hvem som helst med en datamaskin koblet til internett.
Resultatet? Bedrifter over hele verden blir lurt for millionbeløp.
Et britisk ingeniørfirma har for eksempel blitt offer for et deepfake-bedrageri hvor svindlere imiterte ledelsens ansikter og stemmer i et digitalt møte. De ansatte trodde de snakket med sjefene sine – og overførte 20 millioner pund. Vi ser også lignende forsøk i Skandinavia.
Slik kan et KI-angrep foregå
Forestill deg en KI-agent uten sperrer, omtrent som en digital assistent som gjør alt du ber den om – også ting som er skadelig. En slik agent kan:
- Lese sosiale medier for å kartlegge bedriftsaktiviteter.
- Skrive personlige e-poster som ser ut til å komme fra kolleger.
- Føre en samtale med offeret til det avslører sensitiv informasjon.
- Sende nye, enda mer overbevisende meldinger hvis den første ikke lykkes.
Og viktigst av alt: den kan gjøre dette mot hundrevis eller tusenvis av mål samtidig, uten å bli sliten.
Når kunstig intelligens blir en hacker
Risikoene stopper ikke ved falske e-poster og videokonferanser – en KI-agent kan også brukes til mer teknisk avanserte innbrudd.
Tenk deg en agent som systematisk:
- Skanner et selskaps nettverk etter åpne porter og tjenester.
- Matcher tjenestene mot kjente sårbarheter i offentlige databaser.
- Skriver utnyttelseskoder for å teste innbrudd.
- Tilpasser seg automatisk hvis det første forsøket mislykkes.
Dette betyr at en KI-agent i praksis kan gjøre det som tidligere krevde et helt team av erfarne hackere – men raskere, mer stillegående og i mye større skala.
På mørke fora finnes allerede verktøy som selges for dette formålet. Etter WormGPT og FraudGPT har nye navn som WolfGPT, GhostGPT og EvilGPT dukket opp, ofte markedsført som abonnementstjenester. De lover alt fra ferdige phishing-maler til automatisert sårbarhetsanalyse. Men ofte er det snakk om jailbreakede verktøy misbrukes på farlige måter.
Europol har i sine siste trusselrapporter advart om at kunstig intelligens nå akselererer organisert kriminalitet i Europa – med mer skalerbare bedragerier, syntetiske etterligninger og tekniske angrep som følge.
Fakta: Hva er “Dark LLM”?
Dark LLM er en samlebetegnelse for språkmodeller som brukes eller markedsføres for kriminelle formål.
- De mest kjente eksemplene er WormGPT og FraudGPT, som selges på underjordiske forum for å skrive phishing-eposter, generere skadelig kode eller lage falske nettsider.
- Nyere navn er WolfGPT, GhostGPT og EvilGPT, ofte pakket som abonnementstjenester.
Mange av disse er i praksis modifiserte versjoner av åpne modeller, eller rene bløffer. Men trusselbildet de representerer er reelt: KI gjør avanserte angrep billigere, enklere og mer skalerbare.
Hvorfor dette er nytt
Tidligere krevde avanserte cyberangrep teknisk ekspertise, mye tid og ofte et helt team. Med KI kan selv en enkelt person plutselig kjøre kampanjer som er vanskelige å skille fra ekte kommunikasjon – eller la en agent utføre innbrudd på egen hånd.
Angrepene blir både mer skalerbare og mer personlig tilpasset, noe som gjør dem vanskeligere å forsvare seg mot.
Den menneskelige faktoren
Den største trusselen er ikke alltid teknologien i seg selv, men hvordan vi mennesker reagerer på den. Når vi møter en godt formulert e-post eller en stemme som høres akkurat ut som sjefen vår, er det lett å gå i fellen. Vi stoler på det vi ser og hører. Og det er nettopp denne tilliten KI utnytter.
Hvordan vi kan forsvare oss
Det trengs tekniske løsninger – også her trenger vi KI som hjelper oss å beskytte oss, for eksempel løsninger som oppdager deepfakes eller unormale mønstre i e-posttrafikken. Men like viktig er sunn fornuft og rutiner:
- Alltid dobbeltsjekke uvanlige forespørsler.
- Innføre to-trinnsbekreftelse ved økonomiske beslutninger.
- Våge å stille spørsmål selv når noe ser troverdig ut.
Kunstig intelligens er et kraftig verktøy, på godt og vondt. Spørsmålet er ikke om teknologien brukes av bedragerne, men hvor godt vi kan stå imot når den gjør det.
Er du forberedt på det som kommer?
Begynn med en gjennomgang av den nåværende situasjonen i din virksomhet. Kontakt Ina Bjørkedal Jenssen, cybersikkerhetsstrateg og Security Consultant, for å ta det første steget.