
(برای مشاهده ویدئوی این درس، روی تصویر بالا کلیک کنید)
Agentic RAG
این درس یک مرور جامع از Agentic Retrieval-Augmented Generation (Agentic RAG) ارائه میدهد، یک پارادایم نوظهور در هوش مصنوعی که در آن مدلهای زبانی بزرگ (LLMs) به صورت خودکار مراحل بعدی خود را برنامهریزی میکنند و اطلاعات را از منابع خارجی استخراج میکنند. برخلاف الگوهای ایستا مانند «بازیابی و سپس خواندن»، Agentic RAG شامل تماسهای تکراری با LLM است که با استفاده از ابزارها یا توابع و خروجیهای ساختاریافته همراه میشود. سیستم نتایج را ارزیابی میکند، پرسشها را اصلاح میکند، ابزارهای اضافی را در صورت نیاز فراخوانی میکند و این چرخه را تا رسیدن به یک راهحل رضایتبخش ادامه میدهد.
مقدمه
این درس شامل موارد زیر خواهد بود:
- درک Agentic RAG: آشنایی با پارادایم نوظهور در هوش مصنوعی که در آن مدلهای زبانی بزرگ (LLMs) به صورت خودکار مراحل بعدی خود را برنامهریزی میکنند و اطلاعات را از منابع داده خارجی استخراج میکنند.
- سبک تکراری Maker-Checker: فهم چرخه تماسهای تکراری با LLM که با استفاده از ابزارها یا توابع و خروجیهای ساختاریافته همراه میشود، طراحی شده برای بهبود صحت و مدیریت پرسشهای ناقص.
- بررسی کاربردهای عملی: شناسایی سناریوهایی که Agentic RAG در آنها برجسته است، مانند محیطهای مبتنی بر صحت، تعاملات پیچیده با پایگاههای داده، و جریانهای کاری طولانیمدت.
اهداف یادگیری
پس از تکمیل این درس، شما قادر خواهید بود:
- درک Agentic RAG: آشنایی با پارادایم نوظهور در هوش مصنوعی که در آن مدلهای زبانی بزرگ (LLMs) به صورت خودکار مراحل بعدی خود را برنامهریزی میکنند و اطلاعات را از منابع داده خارجی استخراج میکنند.
- سبک تکراری Maker-Checker: فهم مفهوم چرخه تماسهای تکراری با LLM که با استفاده از ابزارها یا توابع و خروجیهای ساختاریافته همراه میشود، طراحی شده برای بهبود صحت و مدیریت پرسشهای ناقص.
- مالکیت فرآیند استدلال: درک توانایی سیستم در مالکیت فرآیند استدلال خود، تصمیمگیری در مورد نحوه برخورد با مشکلات بدون تکیه بر مسیرهای از پیش تعریفشده.
- جریان کاری: فهم اینکه چگونه یک مدل عاملمحور به صورت مستقل تصمیم میگیرد گزارشهای روند بازار را بازیابی کند، دادههای رقبا را شناسایی کند، معیارهای فروش داخلی را مرتبط کند، یافتهها را ترکیب کند و استراتژی را ارزیابی کند.
- حلقههای تکراری، یکپارچهسازی ابزار و حافظه: آشنایی با وابستگی سیستم به الگوی تعامل حلقهای، حفظ حالت و حافظه در مراحل مختلف برای جلوگیری از حلقههای تکراری و اتخاذ تصمیمات آگاهانه.
- مدیریت حالتهای شکست و خودتصحیح: بررسی مکانیسمهای خودتصحیح قوی سیستم، از جمله تکرار و پرسش مجدد، استفاده از ابزارهای تشخیصی، و بازگشت به نظارت انسانی.
- مرزهای عاملمحوری: درک محدودیتهای Agentic RAG، تمرکز بر خودمختاری خاص دامنه، وابستگی به زیرساختها، و احترام به محدودیتها.
- موارد استفاده عملی و ارزش: شناسایی سناریوهایی که Agentic RAG در آنها برجسته است، مانند محیطهای مبتنی بر صحت، تعاملات پیچیده با پایگاههای داده، و جریانهای کاری طولانیمدت.
- حاکمیت، شفافیت و اعتماد: آشنایی با اهمیت حاکمیت و شفافیت، از جمله استدلال قابل توضیح، کنترل تعصب، و نظارت انسانی.
Agentic RAG چیست؟
Agentic Retrieval-Augmented Generation (Agentic RAG) یک پارادایم نوظهور در هوش مصنوعی است که در آن مدلهای زبانی بزرگ (LLMs) به صورت خودکار مراحل بعدی خود را برنامهریزی میکنند و اطلاعات را از منابع خارجی استخراج میکنند. برخلاف الگوهای ایستا مانند «بازیابی و سپس خواندن»، Agentic RAG شامل تماسهای تکراری با LLM است که با استفاده از ابزارها یا توابع و خروجیهای ساختاریافته همراه میشود. سیستم نتایج را ارزیابی میکند، پرسشها را اصلاح میکند، ابزارهای اضافی را در صورت نیاز فراخوانی میکند و این چرخه را تا رسیدن به یک راهحل رضایتبخش ادامه میدهد. این سبک تکراری «سازنده-بازبین» برای بهبود صحت، مدیریت پرسشهای ناقص، و تضمین نتایج با کیفیت بالا طراحی شده است.
سیستم به طور فعال فرآیند استدلال خود را مالکیت میکند، پرسشهای ناموفق را بازنویسی میکند، روشهای بازیابی مختلف را انتخاب میکند، و ابزارهای متعددی مانند جستجوی برداری در Azure AI Search، پایگاههای داده SQL، یا APIهای سفارشی را ادغام میکند تا پاسخ نهایی خود را ارائه دهد. ویژگی متمایز یک سیستم عاملمحور توانایی آن در مالکیت فرآیند استدلال خود است. پیادهسازیهای سنتی RAG به مسیرهای از پیش تعریفشده متکی هستند، اما یک سیستم عاملمحور به صورت خودکار ترتیب مراحل را بر اساس کیفیت اطلاعاتی که پیدا میکند تعیین میکند.
تعریف Agentic Retrieval-Augmented Generation (Agentic RAG)
Agentic Retrieval-Augmented Generation (Agentic RAG) یک پارادایم نوظهور در توسعه هوش مصنوعی است که در آن LLMها نه تنها اطلاعات را از منابع داده خارجی استخراج میکنند بلکه به صورت خودکار مراحل بعدی خود را برنامهریزی میکنند. برخلاف الگوهای ایستا مانند «بازیابی و سپس خواندن» یا توالیهای پرسشنامهای دقیق، Agentic RAG شامل چرخه تماسهای تکراری با LLM است که با استفاده از ابزارها یا توابع و خروجیهای ساختاریافته همراه میشود. در هر مرحله، سیستم نتایج به دست آمده را ارزیابی میکند، تصمیم میگیرد که آیا پرسشها را اصلاح کند، ابزارهای اضافی را فراخوانی میکند و این چرخه را تا رسیدن به یک راهحل رضایتبخش ادامه میدهد.
این سبک تکراری «سازنده-بازبین» برای بهبود صحت، مدیریت پرسشهای ناقص به پایگاههای داده ساختاریافته (مانند NL2SQL)، و تضمین نتایج متعادل و با کیفیت بالا طراحی شده است. به جای تکیه بر زنجیرههای پرسشنامهای پیچیده، سیستم به طور فعال فرآیند استدلال خود را مالکیت میکند. این سیستم میتواند پرسشهای ناموفق را بازنویسی کند، روشهای بازیابی مختلف را انتخاب کند، و ابزارهای متعددی مانند جستجوی برداری در Azure AI Search، پایگاههای داده SQL، یا APIهای سفارشی را ادغام کند تا پاسخ نهایی خود را ارائه دهد. این امر نیاز به چارچوبهای ارکستراسیون پیچیده را از بین میبرد. در عوض، یک چرخه نسبتاً ساده از «تماس با LLM → استفاده از ابزار → تماس با LLM → …» میتواند خروجیهای پیچیده و مستدل ارائه دهد.

مالکیت فرآیند استدلال
ویژگی متمایزی که یک سیستم را «عاملمحور» میکند توانایی آن در مالکیت فرآیند استدلال خود است. پیادهسازیهای سنتی RAG اغلب به انسانها متکی هستند تا مسیر مدل را از پیش تعریف کنند: یک زنجیره تفکر که مشخص میکند چه چیزی را بازیابی کند و چه زمانی.
اما وقتی یک سیستم واقعاً عاملمحور باشد، به صورت داخلی تصمیم میگیرد که چگونه به مشکل نزدیک شود. این فقط اجرای یک اسکریپت نیست؛ بلکه به صورت خودکار ترتیب مراحل را بر اساس کیفیت اطلاعاتی که پیدا میکند تعیین میکند.
برای مثال، اگر از آن خواسته شود یک استراتژی راهاندازی محصول ایجاد کند، فقط به یک پرسشنامه که کل جریان تحقیق و تصمیمگیری را مشخص میکند متکی نیست. در عوض، مدل عاملمحور به صورت مستقل تصمیم میگیرد:
- گزارشهای روند بازار فعلی را با استفاده از Bing Web Grounding بازیابی کند.
- دادههای رقبا را با استفاده از Azure AI Search شناسایی کند.
- معیارهای فروش داخلی تاریخی را با استفاده از Azure SQL Database مرتبط کند.
- یافتهها را به یک استراتژی منسجم ترکیب کند که از طریق Azure OpenAI Service هماهنگ شده است.
- استراتژی را برای شکافها یا ناسازگاریها ارزیابی کند و در صورت لزوم یک دور دیگر بازیابی را آغاز کند.
تمام این مراحل—اصلاح پرسشها، انتخاب منابع، تکرار تا زمانی که از پاسخ «راضی» باشد—توسط مدل تصمیمگیری میشود، نه اینکه از پیش توسط انسان اسکریپت شده باشد.
حلقههای تکراری، یکپارچهسازی ابزار و حافظه

یک سیستم عاملمحور به یک الگوی تعامل حلقهای متکی است:
- تماس اولیه: هدف کاربر (یعنی پرسش کاربر) به LLM ارائه میشود.
- فراخوانی ابزار: اگر مدل اطلاعات ناقص یا دستورالعملهای مبهم را شناسایی کند، یک ابزار یا روش بازیابی را انتخاب میکند—مانند پرسش از پایگاه داده برداری (مانند Azure AI Search Hybrid search بر روی دادههای خصوصی) یا یک تماس SQL ساختاریافته—برای جمعآوری زمینه بیشتر.
- ارزیابی و اصلاح: پس از بررسی دادههای بازگشتی، مدل تصمیم میگیرد که آیا اطلاعات کافی است. اگر نه، پرسش را اصلاح میکند، ابزار دیگری را امتحان میکند، یا رویکرد خود را تنظیم میکند.
- تکرار تا رضایت: این چرخه ادامه مییابد تا زمانی که مدل تعیین کند که وضوح و شواهد کافی برای ارائه یک پاسخ نهایی و مستدل دارد.
- حافظه و حالت: از آنجا که سیستم حالت و حافظه را در مراحل مختلف حفظ میکند، میتواند تلاشهای قبلی و نتایج آنها را به یاد بیاورد، از حلقههای تکراری جلوگیری کند و تصمیمات آگاهانهتری در ادامه بگیرد.
با گذشت زمان، این امر حس درک تکاملی ایجاد میکند و به مدل امکان میدهد وظایف پیچیده و چندمرحلهای را بدون نیاز به دخالت مداوم انسان یا تغییر شکل پرسش انجام دهد.
مدیریت حالتهای شکست و خودتصحیح
خودمختاری Agentic RAG شامل مکانیسمهای خودتصحیح قوی نیز میشود. وقتی سیستم به بنبست میرسد—مانند بازیابی اسناد نامربوط یا مواجهه با پرسشهای ناقص—میتواند:
- تکرار و پرسش مجدد: به جای ارائه پاسخهای کمارزش، مدل استراتژیهای جستجوی جدیدی را امتحان میکند، پرسشهای پایگاه داده را بازنویسی میکند، یا به مجموعه دادههای جایگزین نگاه میکند.
- استفاده از ابزارهای تشخیصی: سیستم ممکن است توابع اضافی را فراخوانی کند که برای کمک به اشکالزدایی مراحل استدلال یا تأیید صحت دادههای بازیابی شده طراحی شدهاند. ابزارهایی مانند Azure AI Tracing برای امکانپذیر کردن مشاهدهپذیری و نظارت قوی مهم خواهند بود.
- بازگشت به نظارت انسانی: برای سناریوهای حساس یا مواردی که به طور مکرر شکست میخورند، مدل ممکن است عدم قطعیت را علامتگذاری کند و درخواست راهنمایی انسانی کند. پس از ارائه بازخورد اصلاحی توسط انسان، مدل میتواند آن درس را در آینده به کار گیرد.
این رویکرد تکراری و پویا به مدل امکان میدهد به طور مداوم بهبود یابد و تضمین کند که فقط یک سیستم تکمرحلهای نیست بلکه سیستمی است که از اشتباهات خود در طول یک جلسه خاص یاد میگیرد.

مرزهای عاملمحوری
با وجود خودمختاری در یک وظیفه، Agentic RAG معادل هوش مصنوعی عمومی نیست. قابلیتهای «عاملمحور» آن محدود به ابزارها، منابع داده، و سیاستهایی است که توسط توسعهدهندگان انسانی ارائه شدهاند. این سیستم نمیتواند ابزارهای خود را اختراع کند یا از مرزهای دامنهای که تعیین شدهاند فراتر رود. بلکه در هماهنگی پویا منابع موجود برجسته است.
تفاوتهای کلیدی با اشکال پیشرفتهتر هوش مصنوعی شامل موارد زیر است:
- خودمختاری خاص دامنه: سیستمهای Agentic RAG بر دستیابی به اهداف تعریفشده توسط کاربر در یک دامنه شناختهشده تمرکز دارند و از استراتژیهایی مانند بازنویسی پرسشها یا انتخاب ابزار برای بهبود نتایج استفاده میکنند.
- وابسته به زیرساخت: قابلیتهای سیستم به ابزارها و دادههایی که توسط توسعهدهندگان ادغام شدهاند بستگی دارد. این سیستم نمیتواند بدون دخالت انسانی از این مرزها فراتر رود.
- احترام به محدودیتها: دستورالعملهای اخلاقی، قوانین انطباق، و سیاستهای کسبوکار همچنان بسیار مهم هستند. آزادی عامل همیشه توسط اقدامات ایمنی و مکانیسمهای نظارتی محدود میشود (امیدواریم؟)
موارد استفاده عملی و ارزش
Agentic RAG در سناریوهایی که نیاز به اصلاح تکراری و دقت دارند برجسته است:
- محیطهای مبتنی بر صحت: در بررسیهای انطباق، تحلیلهای نظارتی، یا تحقیقات قانونی، مدل عاملمحور میتواند به طور مکرر حقایق را تأیید کند، منابع متعدد را مشورت کند، و پرسشها را بازنویسی کند تا پاسخی کاملاً بررسیشده ارائه دهد.
- تعاملات پیچیده با پایگاههای داده: هنگام کار با دادههای ساختاریافته که پرسشها ممکن است اغلب شکست بخورند یا نیاز به تنظیم داشته باشند، سیستم میتواند پرسشهای خود را به صورت خودکار با استفاده از Azure SQL یا Microsoft Fabric OneLake اصلاح کند و اطمینان حاصل کند که بازیابی نهایی با قصد کاربر همسو است.
- جریانهای کاری طولانیمدت: جلسات طولانیتر ممکن است با ظهور اطلاعات جدید تکامل یابند. Agentic RAG میتواند به طور مداوم دادههای جدید را ادغام کند و استراتژیها را با یادگیری بیشتر درباره فضای مشکل تغییر دهد.
حاکمیت، شفافیت و اعتماد
با افزایش خودمختاری این سیستمها در استدلال، حاکمیت و شفافیت بسیار مهم هستند:
- استدلال قابل توضیح: مدل میتواند یک مسیر حسابرسی از پرسشهایی که انجام داده، منابعی که مشورت کرده، و مراحل استدلالی که برای رسیدن به نتیجه طی کرده ارائه دهد. ابزارهایی مانند Azure AI Content Safety و Azure AI Tracing / GenAIOps میتوانند به حفظ شفافیت و کاهش ریسکها کمک کنند.
- کنترل تعصب و بازیابی متعادل: توسعهدهندگان میتوانند استراتژیهای بازیابی را تنظیم کنند تا اطمینان حاصل شود که منابع داده متعادل و نماینده در نظر گرفته میشوند و خروجیها را به طور منظم بررسی کنند تا تعصب یا الگوهای منحرف را شناسایی کنند، با استفاده از مدلهای سفارشی برای سازمانهای پیشرفته دادهمحور با استفاده از Azure Machine Learning.
- نظارت انسانی و انطباق: برای وظایف حساس، بررسی انسانی همچنان ضروری است. Agentic RAG جایگزین قضاوت انسانی در تصمیمات حساس نمیشود—بلکه آن را با ارائه گزینههای کاملاً بررسیشده تقویت میکند.
داشتن ابزارهایی که یک رکورد واضح از اقدامات ارائه میدهند ضروری است. بدون آنها، اشکالزدایی یک فرآیند چندمرحلهای میتواند بسیار دشوار باشد. مثال زیر از Literal AI (شرکت پشت Chainlit) را برای اجرای عامل ببینید:


نتیجهگیری
Agentic RAG نمایانگر یک تکامل طبیعی در نحوه برخورد سیستمهای هوش مصنوعی با وظایف پیچیده و دادهمحور است. با اتخاذ یک الگوی تعامل حلقهای، انتخاب ابزارها به صورت خودکار، و اصلاح پرسشها تا رسیدن به یک نتیجه با کیفیت بالا، سیستم از پیروی ایستا از پرسشها به یک تصمیمگیرنده تطبیقی و آگاه به زمینه حرکت میکند. در حالی که همچنان محدود به زیرساختهای تعریفشده توسط انسان و دستورالعملهای اخلاقی است، این قابلیتهای عاملمحور تعاملات هوش مصنوعی غنیتر، پویاتر، و در نهایت مفیدتر را برای شرکتها و کاربران نهایی امکانپذیر میسازد.
سوالات بیشتری درباره Agentic RAG دارید؟
به Azure AI Foundry Discord بپیوندید تا با دیگر یادگیرندگان ملاقات کنید، در ساعات اداری شرکت کنید و سوالات خود درباره AI Agents را پاسخ دهید.
منابع اضافی
-
پیادهسازی تولید تقویتشده با بازیابی (RAG) با استفاده از سرویس Azure OpenAI: یاد بگیرید چگونه از دادههای خود با سرویس Azure OpenAI استفاده کنید. این ماژول آموزشی مایکروسافت یک راهنمای جامع برای پیادهسازی RAG ارائه میدهد.
مقالات علمی
درس قبلی
الگوی طراحی استفاده از ابزار
درس بعدی
ساخت عوامل هوش مصنوعی قابل اعتماد
سلب مسئولیت:
این سند با استفاده از سرویس ترجمه هوش مصنوعی Co-op Translator ترجمه شده است. در حالی که ما برای دقت تلاش میکنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.