
(Klicka på bilden ovan för att se videon för denna lektion)
Agentic RAG
Den här lektionen ger en omfattande översikt av Agentic Retrieval-Augmented Generation (Agentic RAG), ett framväxande AI-paradigm där stora språkmodeller (LLMs) självständigt planerar sina nästa steg samtidigt som de hämtar information från externa källor. Till skillnad från statiska mönster där information hämtas och sedan läses, innebär Agentic RAG iterativa anrop till LLM, varvat med verktygs- eller funktionsanrop och strukturerade resultat. Systemet utvärderar resultat, förfinar frågor, använder ytterligare verktyg vid behov och fortsätter denna cykel tills en tillfredsställande lösning uppnås.
Introduktion
Den här lektionen kommer att täcka:
- Förstå Agentic RAG: Lär dig om det framväxande paradigmet inom AI där stora språkmodeller (LLMs) självständigt planerar sina nästa steg samtidigt som de hämtar information från externa datakällor.
- Förstå Iterativ Maker-Checker-stil: Förstå loopen av iterativa anrop till LLM, varvat med verktygs- eller funktionsanrop och strukturerade resultat, utformade för att förbättra korrekthet och hantera felaktiga frågor.
- Utforska praktiska tillämpningar: Identifiera scenarier där Agentic RAG briljerar, såsom miljöer med fokus på korrekthet, komplexa databasinteraktioner och utökade arbetsflöden.
Lärandemål
Efter att ha slutfört denna lektion kommer du att kunna:
- Förstå Agentic RAG: Lär dig om det framväxande paradigmet inom AI där stora språkmodeller (LLMs) självständigt planerar sina nästa steg samtidigt som de hämtar information från externa datakällor.
- Iterativ Maker-Checker-stil: Förstå konceptet med en loop av iterativa anrop till LLM, varvat med verktygs- eller funktionsanrop och strukturerade resultat, utformade för att förbättra korrekthet och hantera felaktiga frågor.
- Äga resonemangsprocessen: Förstå systemets förmåga att äga sin resonemangsprocess och fatta beslut om hur problem ska angripas utan att förlita sig på fördefinierade vägar.
- Arbetsflöde: Förstå hur en agentisk modell självständigt beslutar att hämta marknadstrendrapporter, identifiera konkurrentdata, korrelera interna försäljningsmått, syntetisera insikter och utvärdera strategin.
- Iterativa loopar, verktygsintegration och minne: Lära dig om systemets beroende av ett loopat interaktionsmönster, där det bibehåller tillstånd och minne över steg för att undvika repetitiva loopar och fatta informerade beslut.
- Hantera fel och självkorrigering: Utforska systemets robusta självkorrigeringsmekanismer, inklusive iterering och omfrågning, användning av diagnostiska verktyg och att falla tillbaka på mänsklig övervakning.
- Gränser för agentisk förmåga: Förstå begränsningarna med Agentic RAG, med fokus på domänspecifik autonomi, infrastrukturberoende och respekt för skyddsräcken.
- Praktiska användningsfall och värde: Identifiera scenarier där Agentic RAG briljerar, såsom miljöer med fokus på korrekthet, komplexa databasinteraktioner och utökade arbetsflöden.
- Styrning, transparens och förtroende: Lär dig om vikten av styrning och transparens, inklusive förklarbart resonemang, kontroll av bias och mänsklig övervakning.
Vad är Agentic RAG?
Agentic Retrieval-Augmented Generation (Agentic RAG) är ett framväxande AI-paradigm där stora språkmodeller (LLMs) självständigt planerar sina nästa steg samtidigt som de hämtar information från externa källor. Till skillnad från statiska mönster där information hämtas och sedan läses, innebär Agentic RAG iterativa anrop till LLM, varvat med verktygs- eller funktionsanrop och strukturerade resultat. Systemet utvärderar resultat, förfinar frågor, använder ytterligare verktyg vid behov och fortsätter denna cykel tills en tillfredsställande lösning uppnås. Denna iterativa “maker-checker”-stil förbättrar korrekthet, hanterar felaktiga frågor och säkerställer högkvalitativa resultat.
Systemet äger aktivt sin resonemangsprocess, omskriver misslyckade frågor, väljer olika metoder för informationshämtning och integrerar flera verktyg—såsom vektorsökning i Azure AI Search, SQL-databaser eller anpassade API:er—innan det slutför sitt svar. Den särskiljande egenskapen hos ett agentiskt system är dess förmåga att äga sin resonemangsprocess. Traditionella RAG-implementeringar förlitar sig på fördefinierade vägar, men ett agentiskt system bestämmer självständigt sekvensen av steg baserat på kvaliteten på den information det hittar.
Definition av Agentic Retrieval-Augmented Generation (Agentic RAG)
Agentic Retrieval-Augmented Generation (Agentic RAG) är ett framväxande paradigm inom AI-utveckling där LLMs inte bara hämtar information från externa datakällor utan också självständigt planerar sina nästa steg. Till skillnad från statiska mönster där information hämtas och sedan läses eller noggrant skriptade promptsekvenser, innebär Agentic RAG en loop av iterativa anrop till LLM, varvat med verktygs- eller funktionsanrop och strukturerade resultat. Vid varje steg utvärderar systemet de resultat det har fått, beslutar om det ska förfina sina frågor, använder ytterligare verktyg vid behov och fortsätter denna cykel tills det uppnår en tillfredsställande lösning.
Denna iterativa “maker-checker”-stil är utformad för att förbättra korrekthet, hantera felaktiga frågor till strukturerade databaser (t.ex. NL2SQL) och säkerställa balanserade, högkvalitativa resultat. Snarare än att enbart förlita sig på noggrant utformade promptkedjor, äger systemet aktivt sin resonemangsprocess. Det kan omskriva frågor som misslyckas, välja olika metoder för informationshämtning och integrera flera verktyg—såsom vektorsökning i Azure AI Search, SQL-databaser eller anpassade API:er—innan det slutför sitt svar. Detta eliminerar behovet av överdrivet komplexa orkestreringsramverk. Istället kan en relativt enkel loop av “LLM-anrop → verktygsanvändning → LLM-anrop → …” ge sofistikerade och välgrundade resultat.

Att äga resonemangsprocessen
Den särskiljande egenskapen som gör ett system “agentiskt” är dess förmåga att äga sin resonemangsprocess. Traditionella RAG-implementeringar förlitar sig ofta på att människor fördefinierar en väg för modellen: en tankekedja som beskriver vad som ska hämtas och när.
Men när ett system är verkligt agentiskt, beslutar det internt hur det ska angripa problemet. Det utför inte bara ett skript; det bestämmer självständigt sekvensen av steg baserat på kvaliteten på den information det hittar.
Till exempel, om det ombeds att skapa en produktlanseringsstrategi, förlitar det sig inte enbart på en prompt som beskriver hela forsknings- och beslutsprocessen. Istället beslutar den agentiska modellen självständigt att:
- Hämta aktuella marknadstrendrapporter med Bing Web Grounding.
- Identifiera relevant konkurrentdata med Azure AI Search.
- Korrelera historiska interna försäljningsmått med Azure SQL Database.
- Syntetisera insikterna till en sammanhängande strategi orkestrerad via Azure OpenAI Service.
- Utvärdera strategin för luckor eller inkonsekvenser och initiera en ny omgång informationshämtning vid behov.
Alla dessa steg—att förfina frågor, välja källor, iterera tills modellen är “nöjd” med svaret—beslutas av modellen, inte förskrivna av en människa.
Iterativa loopar, verktygsintegration och minne

Ett agentiskt system förlitar sig på ett loopat interaktionsmönster:
- Initialt anrop: Användarens mål (dvs. användarens prompt) presenteras för LLM.
- Verktygsanvändning: Om modellen identifierar saknad information eller otydliga instruktioner, väljer den ett verktyg eller en metod för informationshämtning—som en vektordatabasfråga (t.ex. Azure AI Search Hybrid-sökning över privat data) eller ett strukturerat SQL-anrop—för att samla mer kontext.
- Utvärdering och förfining: Efter att ha granskat de returnerade uppgifterna beslutar modellen om informationen är tillräcklig. Om inte, förfinar den frågan, provar ett annat verktyg eller justerar sin strategi.
- Upprepa tills nöjd: Denna cykel fortsätter tills modellen avgör att den har tillräcklig klarhet och bevis för att leverera ett slutgiltigt, välgrundat svar.
- Minne och tillstånd: Eftersom systemet bibehåller tillstånd och minne över steg, kan det komma ihåg tidigare försök och deras resultat, undvika repetitiva loopar och fatta mer informerade beslut när det fortskrider.
Med tiden skapar detta en känsla av utvecklande förståelse, vilket gör det möjligt för modellen att navigera komplexa, flerstegsuppgifter utan att en människa ständigt behöver ingripa eller omforma prompten.
Hantering av fel och självkorrigering
Agentic RAG:s autonomi innebär också robusta självkorrigeringsmekanismer. När systemet stöter på återvändsgränder—som att hämta irrelevanta dokument eller stöta på felaktiga frågor—kan det:
- Iterera och omfråga: Istället för att returnera svar med lågt värde, försöker modellen nya sökstrategier, omskriver databasfrågor eller tittar på alternativa dataset.
- Använda diagnostiska verktyg: Systemet kan anropa ytterligare funktioner utformade för att hjälpa det att felsöka sina resonemangssteg eller bekräfta korrektheten av hämtad data. Verktyg som Azure AI Tracing kommer att vara viktiga för att möjliggöra robust observabilitet och övervakning.
- Falla tillbaka på mänsklig övervakning: För högrisk- eller upprepade misslyckanden kan modellen flagga osäkerhet och begära mänsklig vägledning. När människan ger korrigerande feedback kan modellen införliva den lärdomen framöver.
Denna iterativa och dynamiska metod gör det möjligt för modellen att kontinuerligt förbättras, vilket säkerställer att den inte bara är ett engångssystem utan ett som lär sig av sina misstag under en given session.

Gränser för agentisk förmåga
Trots sin autonomi inom en uppgift är Agentic RAG inte detsamma som artificiell generell intelligens. Dess “agentiska” förmågor är begränsade till de verktyg, datakällor och policyer som tillhandahålls av mänskliga utvecklare. Det kan inte uppfinna egna verktyg eller gå utanför de domänbegränsningar som har satts. Istället briljerar det i att dynamiskt orkestrera de resurser som finns tillgängliga.
Viktiga skillnader från mer avancerade AI-former inkluderar:
- Domänspecifik autonomi: Agentic RAG-system är fokuserade på att uppnå användardefinierade mål inom en känd domän, genom att använda strategier som omskrivning av frågor eller verktygsval för att förbättra resultat.
- Infrastrukturberoende: Systemets förmågor är beroende av de verktyg och data som integrerats av utvecklare. Det kan inte överskrida dessa gränser utan mänsklig intervention.
- Respekt för skyddsräcken: Etiska riktlinjer, efterlevnadsregler och affärspolicyer förblir mycket viktiga. Agentens frihet är alltid begränsad av säkerhetsåtgärder och övervakningsmekanismer (förhoppningsvis?).
Praktiska användningsfall och värde
Agentic RAG briljerar i scenarier som kräver iterativ förfining och precision:
- Miljöer med fokus på korrekthet: Vid efterlevnadskontroller, regulatorisk analys eller juridisk forskning kan den agentiska modellen upprepade gånger verifiera fakta, konsultera flera källor och omskriva frågor tills den producerar ett noggrant granskat svar.
- Komplexa databasinteraktioner: Vid arbete med strukturerad data där frågor ofta kan misslyckas eller behöva justeras, kan systemet självständigt förfina sina frågor med Azure SQL eller Microsoft Fabric OneLake, vilket säkerställer att den slutliga hämtningen överensstämmer med användarens avsikt.
- Utökade arbetsflöden: Längre sessioner kan utvecklas när ny information framkommer. Agentic RAG kan kontinuerligt införliva ny data och ändra strategier när det lär sig mer om problemområdet.
Styrning, transparens och förtroende
När dessa system blir mer autonoma i sitt resonemang är styrning och transparens avgörande:
- Förklarbart resonemang: Modellen kan tillhandahålla en granskningsspårning av de frågor den ställde, de källor den konsulterade och de resonemangssteg den tog för att nå sin slutsats. Verktyg som Azure AI Content Safety och Azure AI Tracing / GenAIOps kan hjälpa till att upprätthålla transparens och minska risker.
- Kontroll av bias och balanserad hämtning: Utvecklare kan justera hämtstrategier för att säkerställa att balanserade, representativa datakällor beaktas, och regelbundet granska resultat för att upptäcka bias eller skeva mönster med hjälp av anpassade modeller för avancerade dataanalysorganisationer som använder Azure Machine Learning.
- Mänsklig övervakning och efterlevnad: För känsliga uppgifter förblir mänsklig granskning avgörande. Agentic RAG ersätter inte mänskligt omdöme i högriskbeslut—det kompletterar det genom att leverera mer noggrant granskade alternativ.
Att ha verktyg som tillhandahåller en tydlig redovisning av åtgärder är avgörande. Utan dem kan det vara mycket svårt att felsöka en flerstegsprocess. Se följande exempel från Literal AI (företaget bakom Chainlit) för en Agent-run:


Slutsats
Agentic RAG representerar en naturlig utveckling i hur AI-system hanterar komplexa, dataintensiva uppgifter. Genom att anta ett loopat interaktionsmönster, självständigt välja verktyg och förfina frågor tills ett högkvalitativt resultat uppnås, går systemet bortom statisk prompt-följning och blir en mer adaptiv, kontextmedveten beslutsfattare. Även om det fortfarande är begränsat av mänskligt definierade infrastrukturer och etiska riktlinjer, möjliggör dessa agentiska förmågor rikare, mer dynamiska och i slutändan mer användbara AI-interaktioner för både företag och slutanvändare.
Har du fler frågor om Agentic RAG?
Gå med i Azure AI Foundry Discord för att träffa andra elever, delta i öppet hus och få svar på dina frågor om AI-agenter.
Ytterligare resurser
-
Implementera Retrieval Augmented Generation (RAG) med Azure OpenAI Service: Lär dig hur du använder din egen data med Azure OpenAI Service. Denna Microsoft Learn-modul ger en omfattande guide för att implementera RAG
Akademiska artiklar
Föregående lektion
Designmönster för verktygsanvändning
Nästa lektion
Bygga pålitliga AI-agenter
Ansvarsfriskrivning:
Detta dokument har översatts med hjälp av AI-översättningstjänsten Co-op Translator. Även om vi strävar efter noggrannhet, vänligen notera att automatiska översättningar kan innehålla fel eller felaktigheter. Det ursprungliga dokumentet på dess originalspråk bör betraktas som den auktoritativa källan. För kritisk information rekommenderas professionell mänsklig översättning. Vi ansvarar inte för eventuella missförstånd eller feltolkningar som uppstår vid användning av denna översättning.