
(Clique na imagem acima para ver o vídeo desta lição)
Agentic RAG
Esta lição oferece uma visão abrangente sobre o Agentic Retrieval-Augmented Generation (Agentic RAG), um paradigma emergente de IA onde modelos de linguagem de grande escala (LLMs) planeiam autonomamente os seus próximos passos enquanto recolhem informações de fontes externas. Ao contrário dos padrões estáticos de recuperação e leitura, o Agentic RAG envolve chamadas iterativas ao LLM, intercaladas com chamadas a ferramentas ou funções e saídas estruturadas. O sistema avalia os resultados, refina as consultas, invoca ferramentas adicionais, se necessário, e continua este ciclo até alcançar uma solução satisfatória.
Introdução
Esta lição abordará:
- Compreender o Agentic RAG: Aprenda sobre este paradigma emergente na IA, onde modelos de linguagem de grande escala (LLMs) planeiam autonomamente os seus próximos passos enquanto recolhem informações de fontes externas.
- Entender o Estilo Iterativo Maker-Checker: Compreenda o ciclo de chamadas iterativas ao LLM, intercaladas com chamadas a ferramentas ou funções e saídas estruturadas, projetado para melhorar a precisão e lidar com consultas malformadas.
- Explorar Aplicações Práticas: Identifique cenários onde o Agentic RAG se destaca, como ambientes onde a precisão é prioritária, interações complexas com bases de dados e fluxos de trabalho extensos.
Objetivos de Aprendizagem
Após completar esta lição, saberá como/compreenderá:
- Compreender o Agentic RAG: Aprenda sobre este paradigma emergente na IA, onde modelos de linguagem de grande escala (LLMs) planeiam autonomamente os seus próximos passos enquanto recolhem informações de fontes externas.
- Estilo Iterativo Maker-Checker: Entenda o conceito de um ciclo de chamadas iterativas ao LLM, intercaladas com chamadas a ferramentas ou funções e saídas estruturadas, projetado para melhorar a precisão e lidar com consultas malformadas.
- Assumir o Processo de Raciocínio: Compreenda a capacidade do sistema de assumir o seu próprio processo de raciocínio, tomando decisões sobre como abordar problemas sem depender de caminhos predefinidos.
- Fluxo de Trabalho: Entenda como um modelo agentic decide de forma independente recuperar relatórios de tendências de mercado, identificar dados de concorrentes, correlacionar métricas internas de vendas, sintetizar descobertas e avaliar a estratégia.
- Ciclos Iterativos, Integração de Ferramentas e Memória: Aprenda sobre a dependência do sistema em padrões de interação em loop, mantendo estado e memória ao longo das etapas para evitar loops repetitivos e tomar decisões informadas.
- Lidar com Modos de Falha e Autocorreção: Explore os mecanismos robustos de autocorreção do sistema, incluindo iteração e novas consultas, uso de ferramentas de diagnóstico e recurso à supervisão humana.
- Limitações da Agência: Compreenda as limitações do Agentic RAG, com foco na autonomia específica do domínio, dependência de infraestrutura e respeito pelas diretrizes de segurança.
- Casos de Uso Práticos e Valor: Identifique cenários onde o Agentic RAG se destaca, como ambientes onde a precisão é prioritária, interações complexas com bases de dados e fluxos de trabalho extensos.
- Governança, Transparência e Confiança: Aprenda sobre a importância da governança e transparência, incluindo raciocínio explicável, controlo de viés e supervisão humana.
O que é o Agentic RAG?
Agentic Retrieval-Augmented Generation (Agentic RAG) é um paradigma emergente de IA onde modelos de linguagem de grande escala (LLMs) planeiam autonomamente os seus próximos passos enquanto recolhem informações de fontes externas. Ao contrário dos padrões estáticos de recuperação e leitura, o Agentic RAG envolve chamadas iterativas ao LLM, intercaladas com chamadas a ferramentas ou funções e saídas estruturadas. O sistema avalia os resultados, refina as consultas, invoca ferramentas adicionais, se necessário, e continua este ciclo até alcançar uma solução satisfatória. Este estilo iterativo “maker-checker” melhora a precisão, lida com consultas malformadas e garante resultados de alta qualidade.
O sistema assume ativamente o seu processo de raciocínio, reescrevendo consultas falhadas, escolhendo diferentes métodos de recuperação e integrando várias ferramentas—como pesquisa vetorial no Azure AI Search, bases de dados SQL ou APIs personalizadas—antes de finalizar a sua resposta. A qualidade distintiva de um sistema agentic é a sua capacidade de assumir o seu processo de raciocínio. Implementações tradicionais de RAG dependem de caminhos predefinidos, mas um sistema agentic determina autonomamente a sequência de passos com base na qualidade da informação encontrada.
Definindo o Agentic Retrieval-Augmented Generation (Agentic RAG)
Agentic Retrieval-Augmented Generation (Agentic RAG) é um paradigma emergente no desenvolvimento de IA onde os LLMs não apenas recolhem informações de fontes externas, mas também planeiam autonomamente os seus próximos passos. Ao contrário dos padrões estáticos de recuperação e leitura ou sequências de prompts cuidadosamente roteirizadas, o Agentic RAG envolve um ciclo de chamadas iterativas ao LLM, intercaladas com chamadas a ferramentas ou funções e saídas estruturadas. A cada passo, o sistema avalia os resultados obtidos, decide se deve refinar as consultas, invoca ferramentas adicionais, se necessário, e continua este ciclo até alcançar uma solução satisfatória.
Este estilo iterativo “maker-checker” é projetado para melhorar a precisão, lidar com consultas malformadas para bases de dados estruturadas (por exemplo, NL2SQL) e garantir resultados equilibrados e de alta qualidade. Em vez de depender exclusivamente de cadeias de prompts cuidadosamente projetadas, o sistema assume ativamente o seu processo de raciocínio. Pode reescrever consultas que falham, escolher diferentes métodos de recuperação e integrar várias ferramentas—como pesquisa vetorial no Azure AI Search, bases de dados SQL ou APIs personalizadas—antes de finalizar a sua resposta. Isso elimina a necessidade de frameworks de orquestração excessivamente complexos. Em vez disso, um loop relativamente simples de “chamada ao LLM → uso de ferramenta → chamada ao LLM → …” pode gerar saídas sofisticadas e bem fundamentadas.

Assumir o Processo de Raciocínio
A qualidade distintiva que torna um sistema “agentic” é a sua capacidade de assumir o seu processo de raciocínio. Implementações tradicionais de RAG frequentemente dependem de humanos para pré-definir um caminho para o modelo: uma cadeia de pensamento que delineia o que recuperar e quando. Mas quando um sistema é verdadeiramente agentic, ele decide internamente como abordar o problema. Não está apenas a executar um script; está a determinar autonomamente a sequência de passos com base na qualidade da informação que encontra.
Por exemplo, se for solicitado que crie uma estratégia de lançamento de produto, ele não depende apenas de um prompt que descreve todo o fluxo de trabalho de pesquisa e tomada de decisão. Em vez disso, o modelo agentic decide de forma independente:
- Recuperar relatórios de tendências de mercado atuais usando Bing Web Grounding.
- Identificar dados relevantes de concorrentes usando Azure AI Search.
- Correlacionar métricas históricas internas de vendas usando Azure SQL Database.
- Sintetizar as descobertas numa estratégia coesa orquestrada via Azure OpenAI Service.
- Avaliar a estratégia em busca de lacunas ou inconsistências, iniciando outra rodada de recuperação, se necessário.
Todos estes passos—refinar consultas, escolher fontes, iterar até estar “satisfeito” com a resposta—são decididos pelo modelo, não pré-roteirizados por um humano.
Ciclos Iterativos, Integração de Ferramentas e Memória

Um sistema agentic baseia-se num padrão de interação em loop:
- Chamada Inicial: O objetivo do utilizador (ou seja, o prompt do utilizador) é apresentado ao LLM.
- Invocação de Ferramentas: Se o modelo identificar informações em falta ou instruções ambíguas, seleciona uma ferramenta ou método de recuperação—como uma consulta a uma base de dados vetorial (por exemplo, Azure AI Search Hybrid search sobre dados privados) ou uma chamada SQL estruturada—para obter mais contexto.
- Avaliação e Refinamento: Após analisar os dados retornados, o modelo decide se as informações são suficientes. Caso contrário, refina a consulta, tenta uma ferramenta diferente ou ajusta a sua abordagem.
- Repetir Até Estar Satisfeito: Este ciclo continua até que o modelo determine que tem clareza e evidências suficientes para fornecer uma resposta final e bem fundamentada.
- Memória e Estado: Como o sistema mantém estado e memória ao longo das etapas, pode recordar tentativas anteriores e os seus resultados, evitando loops repetitivos e tomando decisões mais informadas à medida que avança.
Com o tempo, isso cria uma sensação de compreensão evolutiva, permitindo que o modelo navegue em tarefas complexas e de múltiplas etapas sem que um humano precise intervir constantemente ou reformular o prompt.
A autonomia do Agentic RAG também envolve mecanismos robustos de autocorreção. Quando o sistema encontra impasses—como recuperar documentos irrelevantes ou encontrar consultas malformadas—ele pode:
- Iterar e Fazer Novas Consultas: Em vez de retornar respostas de baixo valor, o modelo tenta novas estratégias de pesquisa, reescreve consultas a bases de dados ou analisa conjuntos de dados alternativos.
- Usar Ferramentas de Diagnóstico: O sistema pode invocar funções adicionais projetadas para ajudá-lo a depurar os seus passos de raciocínio ou confirmar a correção dos dados recuperados. Ferramentas como o Azure AI Tracing serão importantes para permitir uma observabilidade e monitorização robustas.
- Recorrer à Supervisão Humana: Para cenários de alto risco ou falhas repetidas, o modelo pode sinalizar incertezas e solicitar orientação humana. Uma vez que o humano fornece feedback corretivo, o modelo pode incorporar essa lição no futuro.
Esta abordagem iterativa e dinâmica permite que o modelo melhore continuamente, garantindo que não é apenas um sistema de tentativa única, mas um que aprende com os seus erros durante uma sessão específica.

Limitações da Agência
Apesar da sua autonomia dentro de uma tarefa, o Agentic RAG não é análogo à Inteligência Artificial Geral. As suas capacidades “agentic” estão confinadas às ferramentas, fontes de dados e políticas fornecidas pelos desenvolvedores humanos. Ele não pode inventar as suas próprias ferramentas ou ultrapassar os limites do domínio que foram definidos. Em vez disso, destaca-se na orquestração dinâmica dos recursos disponíveis.
Diferenças-chave em relação a formas mais avançadas de IA incluem:
- Autonomia Específica do Domínio: Sistemas Agentic RAG estão focados em alcançar objetivos definidos pelo utilizador dentro de um domínio conhecido, empregando estratégias como reescrita de consultas ou seleção de ferramentas para melhorar os resultados.
- Dependência de Infraestrutura: As capacidades do sistema dependem das ferramentas e dados integrados pelos desenvolvedores. Ele não pode ultrapassar esses limites sem intervenção humana.
- Respeito pelas Diretrizes de Segurança: Diretrizes éticas, regras de conformidade e políticas empresariais continuam a ser muito importantes. A liberdade do agente está sempre limitada por medidas de segurança e mecanismos de supervisão (espera-se).
Casos de Uso Práticos e Valor
O Agentic RAG destaca-se em cenários que exigem refinamento iterativo e precisão:
- Ambientes com Foco na Precisão: Em verificações de conformidade, análises regulatórias ou pesquisas jurídicas, o modelo agentic pode verificar repetidamente os factos, consultar várias fontes e reescrever consultas até produzir uma resposta minuciosamente validada.
- Interações Complexas com Bases de Dados: Ao lidar com dados estruturados onde as consultas podem frequentemente falhar ou precisar de ajustes, o sistema pode refinar autonomamente as suas consultas usando Azure SQL ou Microsoft Fabric OneLake, garantindo que a recuperação final esteja alinhada com a intenção do utilizador.
- Fluxos de Trabalho Extensos: Sessões mais longas podem evoluir à medida que novas informações surgem. O Agentic RAG pode incorporar continuamente novos dados, ajustando estratégias à medida que aprende mais sobre o espaço do problema.
Governança, Transparência e Confiança
À medida que estes sistemas se tornam mais autónomos no seu raciocínio, a governança e a transparência tornam-se cruciais:
- Raciocínio Explicável: O modelo pode fornecer um registo auditável das consultas que fez, das fontes que consultou e dos passos de raciocínio que tomou para chegar à sua conclusão. Ferramentas como Azure AI Content Safety e Azure AI Tracing / GenAIOps podem ajudar a manter a transparência e mitigar riscos.
- Controlo de Viés e Recuperação Equilibrada: Os desenvolvedores podem ajustar estratégias de recuperação para garantir que fontes de dados equilibradas e representativas sejam consideradas, e auditar regularmente as saídas para detetar viés ou padrões enviesados usando modelos personalizados para organizações avançadas de ciência de dados com Azure Machine Learning.
- Supervisão Humana e Conformidade: Para tarefas sensíveis, a revisão humana continua a ser essencial. O Agentic RAG não substitui o julgamento humano em decisões de alto risco—ele complementa-o ao fornecer opções mais minuciosamente validadas.
Ter ferramentas que forneçam um registo claro das ações é essencial. Sem elas, depurar um processo de múltiplas etapas pode ser muito difícil. Veja o exemplo a seguir da Literal AI (empresa por trás do Chainlit) para uma execução de agente:


Conclusão
O Agentic RAG representa uma evolução natural na forma como os sistemas de IA lidam com tarefas complexas e intensivas em dados. Ao adotar um padrão de interação em loop, selecionar ferramentas autonomamente e refinar consultas até alcançar um resultado de alta qualidade, o sistema vai além do simples seguimento de prompts estáticos, tornando-se um tomador de decisões mais adaptável e consciente do contexto. Embora ainda limitado por infraestruturas e diretrizes éticas definidas por humanos, estas capacidades agentic permitem interações de IA mais ricas, dinâmicas e, em última análise, mais úteis para empresas e utilizadores finais.
Tem Mais Perguntas sobre Agentic RAG?
Junte-se ao Azure AI Foundry Discord para se conectar com outros aprendizes, participar em sessões de esclarecimento e obter respostas às suas perguntas sobre Agentes de IA.
Recursos Adicionais
-
Implemente Geração Aumentada por Recuperação (RAG) com o Azure OpenAI Service: Aprenda a usar os seus próprios dados com o Azure OpenAI Service. Este módulo do Microsoft Learn fornece um guia abrangente sobre como implementar RAG
Artigos Académicos
Aula Anterior
Modelo de Design para Uso de Ferramentas
Próxima Aula
Construindo Agentes de IA Confiáveis
Aviso Legal:
Este documento foi traduzido utilizando o serviço de tradução por IA Co-op Translator. Embora nos esforcemos para garantir a precisão, é importante notar que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autoritária. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes da utilização desta tradução.