ai-agents-for-beginners

Agentic RAG

(Cliquez sur l’image ci-dessus pour visionner la vidéo de cette leçon)

Agentic RAG

Cette leçon offre une vue d’ensemble complète de l’Agentic Retrieval-Augmented Generation (Agentic RAG), un paradigme émergent de l’IA où les grands modèles de langage (LLMs) planifient de manière autonome leurs prochaines étapes tout en récupérant des informations provenant de sources externes. Contrairement aux modèles statiques de récupération puis lecture, l’Agentic RAG implique des appels itératifs au LLM, entrecoupés d’appels à des outils ou fonctions et de sorties structurées. Le système évalue les résultats, affine les requêtes, invoque des outils supplémentaires si nécessaire et poursuit ce cycle jusqu’à obtenir une solution satisfaisante.

Introduction

Cette leçon couvrira :

Objectifs d’apprentissage

Après avoir terminé cette leçon, vous saurez comment/comprendre :

Qu’est-ce que l’Agentic RAG ?

L’Agentic Retrieval-Augmented Generation (Agentic RAG) est un paradigme émergent de l’IA où les grands modèles de langage (LLMs) planifient de manière autonome leurs prochaines étapes tout en récupérant des informations provenant de sources externes. Contrairement aux modèles statiques de récupération puis lecture, l’Agentic RAG implique des appels itératifs au LLM, entrecoupés d’appels à des outils ou fonctions et de sorties structurées. Le système évalue les résultats, affine les requêtes, invoque des outils supplémentaires si nécessaire et poursuit ce cycle jusqu’à obtenir une solution satisfaisante. Ce style itératif “maker-checker” améliore la précision, gère les requêtes malformées et garantit des résultats de haute qualité.

Le système s’approprie activement son processus de raisonnement, réécrit les requêtes échouées, choisit différentes méthodes de récupération et intègre plusieurs outils—tels que la recherche vectorielle dans Azure AI Search, les bases de données SQL ou les API personnalisées—avant de finaliser sa réponse. La qualité distinctive d’un système agentique est sa capacité à s’approprier son processus de raisonnement. Les implémentations traditionnelles de RAG reposent sur des chemins prédéfinis, mais un système agentique détermine de manière autonome la séquence des étapes en fonction de la qualité des informations qu’il trouve.

Définir l’Agentic Retrieval-Augmented Generation (Agentic RAG)

L’Agentic Retrieval-Augmented Generation (Agentic RAG) est un paradigme émergent dans le développement de l’IA où les LLMs non seulement récupèrent des informations provenant de sources de données externes, mais planifient également de manière autonome leurs prochaines étapes. Contrairement aux modèles statiques de récupération puis lecture ou aux séquences de prompts soigneusement scriptées, l’Agentic RAG implique un cycle d’appels itératifs au LLM, entrecoupés d’appels à des outils ou fonctions et de sorties structurées. À chaque étape, le système évalue les résultats obtenus, décide s’il doit affiner ses requêtes, invoque des outils supplémentaires si nécessaire et poursuit ce cycle jusqu’à obtenir une solution satisfaisante.

Ce style itératif “maker-checker” est conçu pour améliorer la précision, gérer les requêtes malformées vers des bases de données structurées (par exemple NL2SQL) et garantir des résultats équilibrés et de haute qualité. Plutôt que de s’appuyer uniquement sur des chaînes de prompts soigneusement conçues, le système s’approprie activement son processus de raisonnement. Il peut réécrire des requêtes échouées, choisir différentes méthodes de récupération et intégrer plusieurs outils—tels que la recherche vectorielle dans Azure AI Search, les bases de données SQL ou les API personnalisées—avant de finaliser sa réponse. Cela élimine le besoin de cadres d’orchestration excessivement complexes. À la place, une boucle relativement simple de “appel LLM → utilisation d’outil → appel LLM → …” peut produire des sorties sophistiquées et bien fondées.

Agentic RAG Core Loop

Appropriation du processus de raisonnement

La qualité distinctive qui rend un système “agentique” est sa capacité à s’approprier son processus de raisonnement. Les implémentations traditionnelles de RAG dépendent souvent des humains pour prédéfinir un chemin pour le modèle : une chaîne de raisonnement qui indique quoi récupérer et quand. Mais lorsqu’un système est véritablement agentique, il décide en interne comment aborder le problème. Il ne se contente pas d’exécuter un script ; il détermine de manière autonome la séquence des étapes en fonction de la qualité des informations qu’il trouve.

Par exemple, s’il est demandé de créer une stratégie de lancement de produit, il ne se contente pas de s’appuyer sur un prompt qui détaille tout le flux de travail de recherche et de prise de décision. À la place, le modèle agentique décide de manière autonome de :

  1. Récupérer des rapports sur les tendances actuelles du marché en utilisant Bing Web Grounding.
  2. Identifier des données pertinentes sur les concurrents en utilisant Azure AI Search.
  3. Corréler des métriques historiques de ventes internes en utilisant Azure SQL Database.
  4. Synthétiser les résultats dans une stratégie cohérente orchestrée via Azure OpenAI Service.
  5. Évaluer la stratégie pour détecter des lacunes ou incohérences, en lançant une nouvelle recherche si nécessaire.

Toutes ces étapes—affiner les requêtes, choisir les sources, itérer jusqu’à être “satisfait” de la réponse—sont décidées par le modèle, et non prédéfinies par un humain.

Boucles itératives, intégration d’outils et mémoire

Tool Integration Architecture

Un système agentique repose sur un modèle d’interaction en boucle :

Avec le temps, cela crée un sentiment de compréhension évolutive, permettant au modèle de naviguer dans des tâches complexes et multi-étapes sans nécessiter une intervention humaine constante ou une reformulation du prompt.

Gestion des modes d’échec et auto-correction

L’autonomie de l’Agentic RAG implique également des mécanismes robustes d’auto-correction. Lorsque le système rencontre des impasses—comme la récupération de documents non pertinents ou des requêtes malformées—il peut :

Cette approche itérative et dynamique permet au modèle de s’améliorer en continu, garantissant qu’il ne s’agit pas seulement d’un système à usage unique, mais d’un système qui apprend de ses erreurs au cours d’une session donnée.

Self Correction Mechanism

Limites de l’autonomie

Malgré son autonomie dans une tâche, l’Agentic RAG n’est pas équivalent à une intelligence artificielle générale. Ses capacités “agentiques” sont limitées aux outils, sources de données et politiques fournies par les développeurs humains. Il ne peut pas inventer ses propres outils ni sortir des limites de domaine qui lui ont été fixées. À la place, il excelle dans l’orchestration dynamique des ressources disponibles.

Les différences clés par rapport à des formes d’IA plus avancées incluent :

  1. Autonomie spécifique au domaine : Les systèmes Agentic RAG se concentrent sur l’atteinte d’objectifs définis par l’utilisateur dans un domaine connu, en employant des stratégies telles que la réécriture de requêtes ou la sélection d’outils pour améliorer les résultats.
  2. Dépendance à l’infrastructure : Les capacités du système dépendent des outils et des données intégrés par les développeurs. Il ne peut pas dépasser ces limites sans intervention humaine.
  3. Respect des garde-fous : Les directives éthiques, les règles de conformité et les politiques commerciales restent très importantes. La liberté de l’agent est toujours contrainte par des mesures de sécurité et des mécanismes de supervision (espérons-le ?).

Cas d’utilisation pratiques et valeur

L’Agentic RAG excelle dans les scénarios nécessitant un raffinement itératif et une précision :

  1. Environnements axés sur la précision : Dans les vérifications de conformité, l’analyse réglementaire ou la recherche juridique, le modèle agentique peut vérifier les faits à plusieurs reprises, consulter plusieurs sources et réécrire des requêtes jusqu’à produire une réponse soigneusement validée.
  2. Interactions complexes avec des bases de données : Lorsqu’il s’agit de données structurées où les requêtes échouent souvent ou nécessitent des ajustements, le système peut affiner ses requêtes de manière autonome en utilisant Azure SQL ou Microsoft Fabric OneLake, garantissant que la récupération finale correspond à l’intention de l’utilisateur.
  3. Flux de travail prolongés : Les sessions de longue durée peuvent évoluer à mesure que de nouvelles informations apparaissent. L’Agentic RAG peut intégrer continuellement de nouvelles données, modifiant ses stratégies à mesure qu’il en apprend davantage sur l’espace problématique.

Gouvernance, transparence et confiance

À mesure que ces systèmes deviennent plus autonomes dans leur raisonnement, la gouvernance et la transparence sont cruciales :

Disposer d’outils qui fournissent un enregistrement clair des actions est essentiel. Sans eux, déboguer un processus multi-étapes peut être très difficile. Voir l’exemple suivant de Literal AI (société derrière Chainlit) pour une exécution d’agent :

AgentRunExample

Conclusion

L’Agentic RAG représente une évolution naturelle dans la manière dont les systèmes d’IA gèrent des tâches complexes et intensives en données. En adoptant un modèle d’interaction en boucle, en sélectionnant des outils de manière autonome et en affinant les requêtes jusqu’à obtenir un résultat de haute qualité, le système dépasse le suivi statique des prompts pour devenir un décideur plus adaptatif et conscient du contexte. Bien qu’encore limité par des infrastructures définies par l’homme et des directives éthiques, ces capacités agentiques permettent des interactions IA plus riches, dynamiques et, en fin de compte, plus utiles pour les entreprises et les utilisateurs finaux.

Vous avez d’autres questions sur l’Agentic RAG ?

Rejoignez le Discord Azure AI Foundry pour rencontrer d’autres apprenants, assister à des heures de bureau et obtenir des réponses à vos questions sur les agents IA.

Ressources supplémentaires

Articles académiques

Leçon précédente

Modèle de conception pour l’utilisation d’outils

Leçon suivante

Construire des agents IA fiables


Avertissement :
Ce document a été traduit à l’aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d’origine doit être considéré comme la source faisant autorité. Pour des informations critiques, il est recommandé de recourir à une traduction humaine professionnelle. Nous déclinons toute responsabilité en cas de malentendus ou d’interprétations erronées résultant de l’utilisation de cette traduction.