ai-agents-for-beginners

Agentic RAG

(Haz clic en la imagen de arriba para ver el video de esta lección)

Agentic RAG

Esta lección ofrece una visión completa de Agentic Retrieval-Augmented Generation (Agentic RAG), un paradigma emergente de IA donde los modelos de lenguaje grande (LLMs) planifican autónomamente sus próximos pasos mientras obtienen información de fuentes externas. A diferencia de los patrones estáticos de recuperación y lectura, Agentic RAG implica llamadas iterativas al LLM, intercaladas con llamadas a herramientas o funciones y salidas estructuradas. El sistema evalúa los resultados, refina las consultas, invoca herramientas adicionales si es necesario y continúa este ciclo hasta lograr una solución satisfactoria.

Introducción

Esta lección cubrirá:

Objetivos de aprendizaje

Después de completar esta lección, sabrás cómo/entenderás:

¿Qué es Agentic RAG?

Agentic Retrieval-Augmented Generation (Agentic RAG) es un paradigma emergente de IA donde los modelos de lenguaje grande (LLMs) planifican autónomamente sus próximos pasos mientras obtienen información de fuentes externas. A diferencia de los patrones estáticos de recuperación y lectura, Agentic RAG implica llamadas iterativas al LLM, intercaladas con llamadas a herramientas o funciones y salidas estructuradas. El sistema evalúa los resultados, refina las consultas, invoca herramientas adicionales si es necesario y continúa este ciclo hasta lograr una solución satisfactoria. Este estilo iterativo “maker-checker” mejora la precisión, maneja consultas malformadas y asegura resultados de alta calidad.

El sistema asume activamente su proceso de razonamiento, reescribiendo consultas fallidas, eligiendo diferentes métodos de recuperación e integrando múltiples herramientas—como búsqueda vectorial en Azure AI Search, bases de datos SQL o APIs personalizadas—antes de finalizar su respuesta. La cualidad distintiva de un sistema agentic es su capacidad para asumir su propio proceso de razonamiento. Las implementaciones tradicionales de RAG dependen de rutas predefinidas, pero un sistema agentic determina autónomamente la secuencia de pasos basada en la calidad de la información que encuentra.

Definición de Agentic Retrieval-Augmented Generation (Agentic RAG)

Agentic Retrieval-Augmented Generation (Agentic RAG) es un paradigma emergente en el desarrollo de IA donde los LLMs no solo obtienen información de fuentes de datos externas, sino que también planifican autónomamente sus próximos pasos. A diferencia de los patrones estáticos de recuperación y lectura o las secuencias de indicaciones cuidadosamente diseñadas, Agentic RAG implica un ciclo de llamadas iterativas al LLM, intercaladas con llamadas a herramientas o funciones y salidas estructuradas. En cada paso, el sistema evalúa los resultados obtenidos, decide si refinar sus consultas, invoca herramientas adicionales si es necesario y continúa este ciclo hasta lograr una solución satisfactoria.

Este estilo iterativo “maker-checker” está diseñado para mejorar la precisión, manejar consultas malformadas a bases de datos estructuradas (por ejemplo, NL2SQL) y asegurar resultados equilibrados y de alta calidad. En lugar de depender únicamente de cadenas de indicaciones cuidadosamente diseñadas, el sistema asume activamente su proceso de razonamiento. Puede reescribir consultas que fallan, elegir diferentes métodos de recuperación e integrar múltiples herramientas—como búsqueda vectorial en Azure AI Search, bases de datos SQL o APIs personalizadas—antes de finalizar su respuesta. Esto elimina la necesidad de marcos de orquestación excesivamente complejos. En su lugar, un ciclo relativamente simple de “llamada al LLM → uso de herramienta → llamada al LLM → …” puede generar salidas sofisticadas y bien fundamentadas.

Agentic RAG Core Loop

Asumir el proceso de razonamiento

La cualidad distintiva que hace que un sistema sea “agentic” es su capacidad para asumir su propio proceso de razonamiento. Las implementaciones tradicionales de RAG a menudo dependen de que los humanos predefinan una ruta para el modelo: una cadena de pensamiento que detalla qué recuperar y cuándo. Pero cuando un sistema es verdaderamente agentic, decide internamente cómo abordar el problema. No solo ejecuta un guion; determina autónomamente la secuencia de pasos basada en la calidad de la información que encuentra.

Por ejemplo, si se le pide crear una estrategia de lanzamiento de producto, no depende únicamente de una indicación que detalla todo el flujo de trabajo de investigación y toma de decisiones. En cambio, el modelo agentic decide independientemente:

  1. Recuperar informes de tendencias de mercado actuales utilizando Bing Web Grounding.
  2. Identificar datos relevantes de competidores utilizando Azure AI Search.
  3. Correlacionar métricas internas de ventas históricas utilizando Azure SQL Database.
  4. Sintetizar los hallazgos en una estrategia cohesiva orquestada a través de Azure OpenAI Service.
  5. Evaluar la estrategia en busca de brechas o inconsistencias, iniciando otra ronda de recuperación si es necesario.

Todos estos pasos—refinar consultas, elegir fuentes, iterar hasta estar “satisfecho” con la respuesta—son decididos por el modelo, no predefinidos por un humano.

Bucles iterativos, integración de herramientas y memoria

Tool Integration Architecture

Un sistema agentic depende de un patrón de interacción en bucle:

Con el tiempo, esto crea una sensación de comprensión evolutiva, permitiendo al modelo navegar tareas complejas y de múltiples pasos sin requerir que un humano intervenga constantemente o reformule la indicación.

Manejo de modos de falla y autocorrección

La autonomía de Agentic RAG también implica mecanismos robustos de autocorrección. Cuando el sistema encuentra callejones sin salida—como recuperar documentos irrelevantes o enfrentar consultas malformadas—puede:

Este enfoque iterativo y dinámico permite que el modelo mejore continuamente, asegurando que no sea solo un sistema de un solo intento, sino uno que aprende de sus errores durante una sesión dada.

Self Correction Mechanism

Límites de la autonomía

A pesar de su autonomía dentro de una tarea, Agentic RAG no es análogo a la Inteligencia Artificial General. Sus capacidades “agentic” están confinadas a las herramientas, fuentes de datos y políticas proporcionadas por los desarrolladores humanos. No puede inventar sus propias herramientas ni salir de los límites del dominio que se le han establecido. Más bien, sobresale en orquestar dinámicamente los recursos disponibles.

Las diferencias clave con formas más avanzadas de IA incluyen:

  1. Autonomía específica del dominio: Los sistemas Agentic RAG están enfocados en lograr objetivos definidos por el usuario dentro de un dominio conocido, empleando estrategias como reescritura de consultas o selección de herramientas para mejorar los resultados.
  2. Dependencia de la infraestructura: Las capacidades del sistema dependen de las herramientas y datos integrados por los desarrolladores. No puede superar estos límites sin intervención humana.
  3. Respeto por las medidas de seguridad: Las pautas éticas, las reglas de cumplimiento y las políticas empresariales siguen siendo muy importantes. La libertad del agente siempre está limitada por medidas de seguridad y mecanismos de supervisión (¿esperemos?).

Casos de uso prácticos y valor

Agentic RAG destaca en escenarios que requieren refinamiento iterativo y precisión:

  1. Entornos donde la precisión es clave: En verificaciones de cumplimiento, análisis regulatorio o investigación legal, el modelo agentic puede verificar repetidamente hechos, consultar múltiples fuentes y reescribir consultas hasta producir una respuesta completamente revisada.
  2. Interacciones complejas con bases de datos: Al tratar con datos estructurados donde las consultas pueden fallar o necesitar ajustes con frecuencia, el sistema puede refinar autónomamente sus consultas utilizando Azure SQL o Microsoft Fabric OneLake, asegurando que la recuperación final se alinee con la intención del usuario.
  3. Flujos de trabajo extendidos: Las sesiones más largas pueden evolucionar a medida que surge nueva información. Agentic RAG puede incorporar continuamente nuevos datos, cambiando estrategias a medida que aprende más sobre el espacio del problema.

Gobernanza, transparencia y confianza

A medida que estos sistemas se vuelven más autónomos en su razonamiento, la gobernanza y la transparencia son cruciales:

Tener herramientas que proporcionen un registro claro de las acciones es esencial. Sin ellas, depurar un proceso de múltiples pasos puede ser muy difícil. Ve el siguiente ejemplo de Literal AI (empresa detrás de Chainlit) para una ejecución de agente:

AgentRunExample

Conclusión

Agentic RAG representa una evolución natural en cómo los sistemas de IA manejan tareas complejas e intensivas en datos. Al adoptar un patrón de interacción en bucle, seleccionar herramientas autónomamente y refinar consultas hasta lograr un resultado de alta calidad, el sistema va más allá de seguir indicaciones estáticas para convertirse en un tomador de decisiones más adaptativo y consciente del contexto. Aunque todavía está limitado por infraestructuras definidas por humanos y pautas éticas, estas capacidades agentic permiten interacciones de IA más ricas, dinámicas y, en última instancia, más útiles para empresas y usuarios finales.

¿Tienes más preguntas sobre Agentic RAG?

Únete al Discord de Azure AI Foundry para conectarte con otros estudiantes, asistir a horas de oficina y resolver tus dudas sobre AI Agents.

Recursos adicionales

Artículos académicos

Lección anterior

Patrón de diseño para uso de herramientas

Próxima lección

Construyendo agentes de IA confiables


Descargo de responsabilidad:
Este documento ha sido traducido utilizando el servicio de traducción automática Co-op Translator. Aunque nos esforzamos por garantizar la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables de malentendidos o interpretaciones erróneas que puedan surgir del uso de esta traducción.