Nebojsa Milanovic

Nebojsa Milanovic

Manager Consulting Expert

Forestill deg en verden der kunstig intelligens ikke bare genererer innhold uten rot i faktiske data, men også dypdykker i eksisterende kunnskap for å hente nøyaktig den informasjonen den trenger for å svare på spørsmålene dine. Generativ AI, også kjent som generativ kunstig intelligens, har allerede revolusjonert fremtiden, og den blir nå enda mer effektiv med Retrieval-Augmented Generation (RAG) – teknologien som transformerer hvordan vi finner, forstår og bruker informasjon. Her dykker vi ned i hvordan RAG fungerer, utforsker potensialet og ser nærmere på hvordan det utvider kapasiteten til generative AI-modeller.

Vær i forkant av utviklingen sammen med oss

Hva er RAG – Retrieval-Augmented Generation?

Retrieval-Augmented Generation (RAG) er en metode som kombinerer informasjonsinnhenting og tekstgenerering for å forbedre svarene fra språkmodeller som ChatGPT og Gemini. Man bruker RAG til å sortere gjennom store mengder data og finne den relevante informasjonen som besvarer spørsmålet eller emnet språkmodellen er blitt bedt om å utforske. 

Når den relevante informasjonen er funnet, bruker RAG denne innsikten til å generere en sammenhengende og informativ tekst. Akkurat som du kombinerer ulike oppskrifter for å lage din perfekte versjon av lasagne, kombinerer RAG informasjon fra forskjellige kilder for å skape et nyttig og tilpasset svar.

RAG er revolusjonerende for hvordan språkmodeller forstår og skaper innhold. Ved å trekke direkte fra et hav av eksisterende kunnskap, kan språkmodeller som benytter RAG gi presise, relevante svar på komplekse spørsmål.

RAG løfter språkmodellene til et helt nytt nivå

I en tid hvor begreper som «ChatGPT» og «språkmodeller» har blitt allemannseie, er det en glede å utforske og dele et relatert, men likevel distinkt konsept som tar språkmodeller til nye høyder: Retrieval-Augmented Generation (RAG). Dette er en videreutvikling av den generative AI-teknologien mange har blitt kjent med gjennom modeller som GPT (Generative Pre-Trained Transformer) og LLM (Large Language Model), også kjent som store språkmodeller. 

Vinteren 2022 ble verden bergtatt av de revolusjonerende evnene til språkmodellen ChatGPT. Siden den tid har generative AI-modeller blitt en del av hverdagen for mange, og de fortsetter å bli smartere og mer presise. Disse modellene har imponert oss med sin evne til å generere menneskelig tekst basert på det de har lært under trening. 

RAG tar dette et skritt videre ved ikke bare å generere, men også aktivt søke etter og integrere ny og relevant informasjon fra tilgjengelige datakilder.

Forstå betydningen av Retrieval-Augmented Generation (RAG)

Se for deg at du ønsker å lage en tradisjonell italiensk lasagne for første gang, men er usikker på oppskriften. Du søker på internett, leser ulike varianter, velger ut de mest autentiske ingrediensene og kombinerer kildene til en optimal fremgangsmåte. Med denne innsamlede kunnskapen lager du lasagnen og tilpasser den etter egen smak. RAG fungerer på nøyaktig samme måte. 

Man looking at tab

Hva består RAG-teknologien av?

RAG-teknologien kombinerer to hovedkomponenter: 

  • En retriever, som tilsvarer en søkemotor og henter informasjonen du leter etter. 
  • En generator, som er den tekstgenererende AI-en som setter sammen svaret basert på informasjonen som er hentet.

Retrieveren begynner med å finne relevante tekstsnutter (ofte kalt dokumenter) som svarer på en gitt forespørsel. Deretter tar generatoren disse tekstsnuttene som input og skaper et sammenhengende svar. Dette innebærer avanserte algoritmer for tekstforståelse og syntese, som sikrer at svaret er både relevant og naturlig å lese.

 «Men jeg har jo brukt chatGPT til å skrive damenes tale på julebordet, og da var den jo dødsbra. Hvorfor trenger jeg RAG?» - Alf Åge (62)

RAG bøter på feil i språkmodeller

En av de viktigste utfordringene å forebygge når man bygger applikasjoner med generativ AI, er hallusinasjoner. Dette forekommer når språkmodellen prøver å gi et godt svar uten å ha tilgang til informasjon som er nødvendig for å være presis. I slike situasjoner kan modellen «hallusinere» – den dikter rett og slett opp et svar.

Dette er kritisk dersom AI-en er en del av en profesjonell løsning som for eksempel leveres til en kunde. Hvis en chatbot for et flyselskap hallusinerer fram en refusjonspolicy som ikke eksisterer, kan selskapet ende opp med å uforutsette erstatningskrav. Det er derfor viktig å ha innsikt i hvordan man bruker AI og at man skaper et trygt rammeverk for å forhindre hallusinasjoner.

Bruksområder for RAG

RAG utnytter den voksende mengden digital informasjon for å gi generativ AI et faktagrunnlag. For IT-konsulentselskaper gir dette mulighet til å tilby verdiøkende og nøyaktige løsninger. Kjernen i teknologien ligger i navnet: retrieval (innhenting) og generation (skapelse).

To personer samarbeider foran skjermer med programkode.

Hente nøyaktig informasjon og data

RAG endrer fundamentalt hvordan Q&A-systemer fungerer ved å dykke dypt i informasjonsmengden for å finne korrekt kunnskap. Dette gir kundene lynraske og presise svar, noe som forbedrer kundeopplevelsen. 

Eksempel: RAG leverer presise svar

Tenk deg en helpdesk-løsning som ikke bare svarer på vanlige IT-spørsmål med uovertruffen presisjon, men som kontinuerlig lærer og oppdaterer seg selv med den nyeste tekniske dokumentasjonen. Ved å utnytte RAG, kan man sikre at sluttbrukere alltid har tilgang til de mest relevante svarene, som øyeblikkelig øker effektiviteten.

Forvandle data til verdifull innsikt

I takt med at digitale datastrømmer vokser eksponentielt, står virksomheter overfor utfordringen med å gjøre denne informasjonen om til verdifull innsikt. Tradisjonell analyse, som ofte involverer manuell gransking av omfattende datasett eller komplekse spørrespråk, kan være tidkrevende og overveldende. Her åpner RAG for en ny æra av dataforståelse og beslutningsstøtte.

Eksempel: RAG i en tidkrevende oppgave

Forestille deg at du, i stedet for å lete manuelt i enorme Excel-ark, kan be en RAG-drevet LLM om å trekke ut de viktigste innsiktene fra datasettene dine. Ved å bruke naturlig språk kan du motta sammendrag, trendanalyser og forslag til strategiske beslutninger. 

Koordinere ansvar i prosjekter

En RAG-assistent kan spille en avgjørende rolle i prosjektstyring og samarbeid, særlig i komplekse IT-prosjekter der koordinering og kommunikasjon er nøkkelen til suksess. Prosjekter som involverer tverrfaglige team, spredt over ulike geografiske lokasjoner, kan by på utfordringer i å holde alle parter oppdaterte til enhver tid. Her kan RAG bidra til å transformere måten prosjektinformasjon blir håndtert og delt, eller RAG kan bidra med innsikt i prosjektets flaskehalser eller uforutsette skjær i sjøen. 

Person jobber med 3D-modellering og datavisualisering på to skjermer i kontormiljø.

Tekniske utfordringer knyttet til RAG

Bruk av RAG introduserer spesifikke tekniske utfordringer, som å balansere informasjonens granularitet og unngå misledende svar fra AI-modeller. Forståelse og håndtering av disse er kritisk for å utnytte RAGs fulle potensial.

Granularitet: Nøyaktighet av data 

En av de største utfordringene man møter med RAG er å finne rett balanse i granulariteten av informasjon som hentes. Granulariteten refererer til detaljnivået på dataen som hentes eller behandles (størrelsen på såkalte «chunks» eller tekstbiter). 

Størrelsen og omfanget av tekstbitene om modellen henter fra kunnskapsbasen sin varierer. For små biter (fin granularitet) kan føre til at kontekst går tapt, mens for store biter (grov granularitet) kan overvelde modellen med irrelevant informasjon. 

Løsning på granularitet 

Prosessen for å finne riktig balanse i granularitet er utfordrende, men også helt essensiell for å levere nøyaktige svar. En effektiv løsning er å justere størrelsen på tekstbitene dynamisk basert på brukerens forespørsel («prompt»). 

En annen løsning kan være «Propositions», som er presentert i Chen et. Al sin vitenskapelige artikkel om Dense Retrieval. Denne tilnærmingen deler innhentet tekstdata («corpus») inn i mindre, mer håndterbare og mer relevante biter ved hjelp av avanserte teknikker for språkprosessering. Disse bitene representerer selvstendige enheter av informasjon som hver uttrykker et distinkt fakta eller en idé i en kortfattet form. 

Etter at tekstdata er blitt delt inn i propositions, blir de indeksert i en søkbar database, som lar retrievalssystemet effektivt søke gjennom og hente den informasjonen som best matcher forespørselen.

Hallusinasjoner: Misledende AI-modeller

Et annet stort problem i generative AI-modeller er de tidligere nevnte hallusinasjonene. Selv om rett balanse i granularitet bidrar til mindre hallusinasjoner i seg selv, kan modellene fortsatt bli misledet av den hentede informasjonen i komplekse RAG-systemer. 

Løsning på hallusinasjoner

Man kan innføre ytterligere trinn for validering av data, for eksempel en egen modell som står for kryssjekking av informasjon mot flere kilder og integrere moduler for faktasjekking i arkitekturen. Dette reduserer antall feilaktige svar som leveres til sluttbrukeren. 

Langsomme svar

Effektiviteten av datasøk, særlig når det gjelder store datamengder, er kritisk for ytelsen til RAG. Det er ingen som liker å vente for lenge på å få et svar – derfor reduseres brukeropplevelsen i takt med at dataen ikke blir håndtert korrekt. 

Løsning 

Implementering av effektive indekserings- og søkealgoritmer kan forbedre søkehastigheten betydelig. Bruk av distribuert databaser og caching av ofte innhentet informasjon kan også bidra til å redusere søketiden, og bidrar også til faktasjekking av svar.

Fremtiden med RAG

Teknologien utvikler seg raskt. Det som er banebrytende i dag, er normen i morgen. For virksomheter er det avgjørende å forstå RAGs nåværende egenskaper og holde seg oppdatert på fremskrittene. RAG brukes allerede for tekst, men teknikken har også blitt overført til visuelt innhold og andre felt innen generativ AI. Dette gir fagfolk nye verktøy for å formidle ideer og løse problemer på innovative måter. 

CGI og kunstig intelligens

Når vi leverer KI-løsninger, utnytter vi vår globale ekspertise innen databehandling, teknologi og maskinlæring. Dette gir deg reelle verktøy til å hente ut verdi av kunstig intelligens. Sammen finner vi veien fra start til mål på deres KI-reise. Vårt fokus er å skape gevinster gjennom å løse kundens behov med riktig teknologi.

Skap konkurransefortrinn med kunstig intelligens


Kilder

Air-Canada sin chatbot hendelse:
Må betale etter at chatbot fant på regler – E24

Benchmarking Large Language Models in Retrieval Augmented Generation
[2309.01431] Benchmarking Large Language Models in Retrieval-Augmented Generation (arxiv.org)

Survey of hallucinations in Natural Language Generation
[2202.03629] Survey of Hallucination in Natural Language Generation (arxiv.org)

Dense X Retrieval: What Retrieval Granularity Should We Use?
[2312.06648] Dense X Retrieval: What Retrieval Granularity Should We Use? (arxiv.org)

About this author

Nebojsa Milanovic

Nebojsa Milanovic

Manager Consulting Expert

Nebojsa Milanovic er vår Manager Consulting Expert, og har sin faglige tyngde i kunstig intelligens og prosessautomatisering. Han hjelper virksomheter med å kartlegge, designe og utvikle løsninger for intelligent automasjon av sine prosesser.