ai-agents-for-beginners

Agentic RAG

(Cliquez sur l’image ci-dessus pour regarder la vidéo de cette leçon)

Agentic RAG

Cette leçon offre un aperçu complet de l’Agentic Retrieval-Augmented Generation (Agentic RAG), un paradigme émergent en IA où les grands modèles de langage (LLMs) planifient de manière autonome leurs prochaines étapes tout en puisant des informations dans des sources externes. Contrairement aux schémas statiques de type retrieval-then-read, l’Agentic RAG implique des appels itératifs au LLM, entrecoupés d’appels d’outils ou de fonctions et de sorties structurées. Le système évalue les résultats, affine les requêtes, invoque des outils supplémentaires si nécessaire et poursuit ce cycle jusqu’à l’obtention d’une solution satisfaisante.

Introduction

Cette leçon couvrira

Learning Goals

After completing this lesson, you will know how to/understand:

What is Agentic RAG?

Agentic Retrieval-Augmented Generation (Agentic RAG) est un paradigme émergent en IA dans lequel les grands modèles de langage (LLMs) planifient de manière autonome leurs prochaines étapes tout en extrayant des informations de sources externes. Contrairement aux schémas statiques de type retrieval-then-read, l’Agentic RAG implique des appels itératifs au LLM, entrecoupés d’appels d’outils ou de fonctions et de sorties structurées. Le système évalue les résultats, affine les requêtes, invoque des outils supplémentaires si nécessaire et poursuit ce cycle jusqu’à l’obtention d’une solution satisfaisante. Ce style itératif de type « maker-checker » améliore la justesse, gère les requêtes mal formées et garantit des résultats de haute qualité.

Le système prend activement en charge son processus de raisonnement, réécrivant les requêtes échouées, choisissant différentes méthodes de recherche et intégrant plusieurs outils—tels que la recherche vectorielle dans Azure AI Search, des bases de données SQL ou des API personnalisées—avant de finaliser sa réponse. La qualité distinctive d’un système agentique est sa capacité à s’approprier son processus de raisonnement. Les implémentations RAG traditionnelles reposent sur des chemins prédéfinis, tandis qu’un système agentique détermine de manière autonome la séquence d’étapes en fonction de la qualité des informations qu’il trouve.

Defining Agentic Retrieval-Augmented Generation (Agentic RAG)

Agentic Retrieval-Augmented Generation (Agentic RAG) est un paradigme émergent dans le développement de l’IA où les LLMs non seulement extraient des informations de sources de données externes, mais planifient aussi de manière autonome leurs prochaines étapes. Contrairement aux schémas statiques retrieval-then-read ou aux séquences d’invite soigneusement scénarisées, l’Agentic RAG implique une boucle d’appels itératifs au LLM, entrecoupés d’appels d’outils ou de fonctions et de sorties structurées. À chaque étape, le système évalue les résultats obtenus, décide s’il doit affiner ses requêtes, invoque des outils supplémentaires si nécessaire et poursuit ce cycle jusqu’à l’obtention d’une solution satisfaisante.

Ce style itératif de fonctionnement « maker-checker » est conçu pour améliorer la justesse, gérer les requêtes mal formées vers des bases de données structurées (par ex. NL2SQL) et garantir des résultats équilibrés et de haute qualité. Plutôt que de s’appuyer uniquement sur des chaînes d’invites finement conçues, le système prend activement en charge son processus de raisonnement. Il peut réécrire des requêtes qui échouent, choisir différentes méthodes de recherche et intégrer plusieurs outils—tels que la recherche vectorielle dans Azure AI Search, des bases de données SQL ou des API personnalisées—avant de finaliser sa réponse. Cela élimine le besoin de cadres d’orchestration excessivement complexes. À la place, une boucle relativement simple « appel LLM → utilisation d’outil → appel LLM → … » peut produire des sorties sophistiquées et bien fondées.

Agentic RAG Core Loop

Owning the Reasoning Process

La qualité distinctive qui rend un système « agentic » est sa capacité à s’approprier son processus de raisonnement. Les implémentations RAG traditionnelles dépendent souvent d’humains définissant à l’avance un chemin pour le modèle : une chaîne de pensée qui décrit ce qu’il faut récupérer et quand. Mais lorsqu’un système est véritablement agentic, il décide en interne de la manière d’aborder le problème. Il n’exécute pas simplement un script ; il détermine de façon autonome la séquence d’étapes en fonction de la qualité des informations qu’il trouve. Par exemple, s’il lui est demandé de créer une stratégie de lancement de produit, il ne s’appuie pas uniquement sur une invite qui décrit l’intégralité du travail de recherche et de prise de décision. Au lieu de cela, le modèle agentic décide de manière indépendante de :

  1. Retrieve current market trend reports using Bing Web Grounding
  2. Identify relevant competitor data using Azure AI Search.
  3. Correlate historical internal sales metrics using Azure SQL Database.
  4. Synthesize the findings into a cohesive strategy orchestrated via Azure OpenAI Service.
  5. Evaluate the strategy for gaps or inconsistencies, prompting another round of retrieval if necessary. All of these steps—refining queries, choosing sources, iterating until “happy” with the answer—are decided by the model, not pre-scripted by a human.

Iterative Loops, Tool Integration, and Memory

Tool Integration Architecture

Un système agentic repose sur un schéma d’interaction en boucle :

Au fil du temps, cela crée une impression de compréhension évolutive, permettant au modèle de naviguer des tâches complexes en plusieurs étapes sans nécessiter l’intervention humaine constante ou la reformulation permanente de l’invite.

Handling Failure Modes and Self-Correction

L’autonomie de l’Agentic RAG implique également des mécanismes robustes d’auto-correction. Lorsque le système rencontre des impasses—comme la récupération de documents non pertinents ou des requêtes mal formées—il peut :

Cette approche itérative et dynamique permet au modèle de s’améliorer continuellement, garantissant qu’il ne s’agit pas simplement d’un système en une seule exécution, mais d’un système qui apprend de ses erreurs au cours d’une session donnée.

Self Correction Mechanism

Boundaries of Agency

Malgré son autonomie au sein d’une tâche, l’Agentic RAG n’est pas analogue à une Intelligence Artificielle Générale. Ses capacités « agentic » sont limitées aux outils, aux sources de données et aux politiques fournis par les développeurs humains. Il ne peut pas inventer ses propres outils ni sortir des limites du domaine qui ont été définies. En revanche, il excelle à orchestrer dynamiquement les ressources disponibles. Les différences clés par rapport à des formes d’IA plus avancées incluent :

  1. Domain-Specific Autonomy: Agentic RAG systems are focused on achieving user-defined goals within a known domain, employing strategies like query rewriting or tool selection to improve outcomes.
  2. Infrastructure-Dependent: The system’s capabilities hinge on the tools and data integrated by developers. It can’t surpass these boundaries without human intervention.
  3. Respect for Guardrails: Ethical guidelines, compliance rules, and business policies remain very important. The agent’s freedom is always constrained by safety measures and oversight mechanisms (espérons-le ?)

Practical Use Cases and Value

Agentic RAG brille dans des scénarios nécessitant un affinement itératif et de la précision :

  1. Correctness-First Environments: In compliance checks, regulatory analysis, or legal research, the agentic model can repeatedly verify facts, consult multiple sources, and rewrite queries until it produces a thoroughly vetted answer.
  2. Complex Database Interactions: When dealing with structured data where queries might often fail or need adjustment, the system can autonomously refine its queries using Azure SQL or Microsoft Fabric OneLake, ensuring the final retrieval aligns with the user’s intent.
  3. Extended Workflows: Longer-running sessions might evolve as new information surfaces. Agentic RAG can continuously incorporate new data, shifting strategies as it learns more about the problem space.

Governance, Transparency, and Trust

Au fur et à mesure que ces systèmes gagnent en autonomie dans leur raisonnement, la gouvernance et la transparence deviennent cruciales :

Disposer d’outils fournissant un enregistrement clair des actions est essentiel. Sans eux, déboguer un processus en plusieurs étapes peut être très difficile. Voir l’exemple suivant de Literal AI (société derrière Chainlit) pour une exécution d’Agent :

AgentRunExample

Conclusion

Agentic RAG représente une évolution naturelle dans la manière dont les systèmes d’IA traitent des tâches complexes et riches en données. En adoptant un schéma d’interaction en boucle, en sélectionnant de manière autonome des outils et en affinant les requêtes jusqu’à l’obtention d’un résultat de haute qualité, le système dépasse le simple suivi d’invites statiques pour devenir un décideur plus adaptatif et conscient du contexte. Bien qu’il reste limité par des infrastructures et des directives éthiques définies par des humains, ces capacités agentiques permettent des interactions IA plus riches, plus dynamiques et, en fin de compte, plus utiles pour les entreprises et les utilisateurs finaux.

Got More Questions about Agentic RAG?

Join the Microsoft Foundry Discord to meet with other learners, attend office hours and get your AI Agents questions answered.

Additional Resources

Articles académiques

Leçon précédente

Modèle d’utilisation d’outils

Leçon suivante

Construire des agents d’IA dignes de confiance


Avis de non-responsabilité : Ce document a été traduit à l’aide du service de traduction par IA Co-op Translator. Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatiques peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d’origine doit être considéré comme la source faisant foi. Pour les informations critiques, une traduction professionnelle réalisée par un traducteur humain est recommandée. Nous ne saurions être tenus responsables des éventuels malentendus ou interprétations erronées résultant de l’utilisation de cette traduction.