ai-agents-for-beginners

Agentic RAG

(點擊上方圖片觀看本課程影片)

Agentic RAG

本課程全面介紹了「Agentic Retrieval-Augmented Generation (Agentic RAG)」,這是一種新興的人工智慧範式,讓大型語言模型(LLMs)能夠自主規劃下一步,同時從外部資源中提取資訊。與靜態的「檢索後閱讀」模式不同,Agentic RAG 涉及 LLM 的多次迭代調用,並穿插工具或函數調用以及結構化輸出。系統會評估結果、改進查詢、在必要時調用額外工具,並持續此循環直到達成令人滿意的解決方案。

課程介紹

本課程將涵蓋以下內容:

學習目標

完成本課程後,您將能夠了解以下內容:

什麼是 Agentic RAG?

Agentic Retrieval-Augmented Generation (Agentic RAG) 是一種新興的人工智慧範式,讓大型語言模型(LLMs)能夠自主規劃下一步,同時從外部資源中提取資訊。與靜態的「檢索後閱讀」模式不同,Agentic RAG 涉及 LLM 的多次迭代調用,並穿插工具或函數調用以及結構化輸出。系統會評估結果、改進查詢、在必要時調用額外工具,並持續此循環直到達成令人滿意的解決方案。

定義 Agentic Retrieval-Augmented Generation (Agentic RAG)

Agentic Retrieval-Augmented Generation (Agentic RAG) 是 AI 開發中的新興範式,LLMs 不僅能從外部數據源中提取資訊,還能自主規劃下一步。與靜態的「檢索後閱讀」模式或精心設計的提示序列不同,Agentic RAG 涉及 LLM 的迭代調用循環,穿插工具或函數調用以及結構化輸出。每一步,系統都會評估已獲得的結果,決定是否改進查詢、調用額外工具,並持續此循環直到達成令人滿意的解決方案。

這種迭代的「Maker-Checker」操作模式旨在提高正確性,處理結構化數據庫(例如 NL2SQL)的不良查詢,並確保平衡且高品質的結果。系統不僅依賴精心設計的提示鏈,還能主動掌控其推理過程。它可以重寫失敗的查詢、選擇不同的檢索方法,並整合多種工具,例如 Azure AI Search 的向量搜索、SQL 數據庫或自定義 API,然後再最終確定答案。這消除了對過於複雜的編排框架的需求。相反,一個相對簡單的「LLM 調用 → 工具使用 → LLM 調用 → …」循環即可產生複雜且有根據的輸出。

Agentic RAG Core Loop

掌控推理過程

使系統具有「代理性」的區別特質在於其掌控推理過程的能力。傳統的 RAG 實現通常依賴人類預先定義模型的路徑:例如一個檢索和決策的思路鏈。 但當系統真正具有代理性時,它會內部決定如何解決問題。它不僅僅執行一個腳本;而是根據所獲得資訊的質量自主決定步驟的順序。 例如,當被要求制定產品上市策略時,它不僅僅依賴一個提示來詳細說明整個研究和決策工作流程。相反,代理模型會自主決定:

  1. 使用 Bing Web Grounding 檢索當前市場趨勢報告。
  2. 使用 Azure AI Search 識別相關競爭者數據。
  3. 使用 Azure SQL Database 關聯歷史內部銷售指標。
  4. 通過 Azure OpenAI Service 將分析結果綜合成一個連貫的策略。
  5. 評估策略的漏洞或不一致之處,必要時進行另一輪檢索。 所有這些步驟——改進查詢、選擇資源、迭代直到對答案「滿意」——都是由模型決定的,而非由人類預先編寫。

迭代循環、工具整合與記憶

Tool Integration Architecture

代理系統依賴於循環交互模式:

隨著時間的推移,這種方式創造了一種逐步演化的理解,使模型能夠在不需要人類不斷介入或重塑提示的情況下,完成複雜的多步驟任務。

處理失敗模式與自我修正

Agentic RAG 的自主性還包括強大的自我修正機制。當系統遇到瓶頸,例如檢索到無關文件或遇到不良查詢時,它可以:

這種迭代和動態的方法使模型能夠持續改進,確保它不僅僅是一個一次性系統,而是一個能在特定會話中從錯誤中學習的系統。

Self Correction Mechanism

代理的界限

儘管在任務中具有自主性,Agentic RAG 並不等同於人工通用智能。其「代理性」能力僅限於人類開發者提供的工具、數據源和政策。它無法自行創建工具或超越已設置的領域邊界。相反,它擅長於動態編排現有資源。 與更高級 AI 形式的主要區別包括:

  1. 特定領域的自主性: Agentic RAG 系統專注於在已知領域內實現使用者定義的目標,採用查詢重寫或工具選擇等策略來改善結果。
  2. 基礎設施依賴: 系統的能力取決於開發者整合的工具和數據。它無法在沒有人工干預的情況下超越這些邊界。
  3. 尊重安全框架: 道德準則、合規規則和業務政策仍然非常重要。代理的自由始終受到安全措施和監督機制的約束(希望如此?)。

實際應用場景與價值

Agentic RAG 在需要迭代改進和精確性的場景中表現出色:

  1. 以正確性為優先的環境: 在合規檢查、法規分析或法律研究中,代理模型可以反覆驗證事實、查詢多個來源並重寫查詢,直到產生經過徹底審核的答案。
  2. 複雜的數據庫交互: 在處理結構化數據時,查詢可能經常失敗或需要調整,系統可以自主使用 Azure SQL 或 Microsoft Fabric OneLake 改進查詢,確保最終檢索符合使用者意圖。
  3. 延展性工作流程: 隨著新資訊的出現,長期運行的會話可能會演變。Agentic RAG 可以持續整合新數據,隨著對問題空間的了解加深而調整策略。

治理、透明性與信任

隨著這些系統在推理中變得更加自主,治理和透明性至關重要:

擁有能夠提供清晰行動記錄的工具至關重要。沒有這些工具,調試多步驟過程可能非常困難。以下是 Literal AI(Chainlit 背後的公司)提供的代理運行示例:

AgentRunExample

AgentRunExample2

結論

Agentic RAG 代表了 AI 系統如何處理複雜且數據密集型任務的自然演進。通過採用循環交互模式、自主選擇工具並改進查詢直到達成高品質結果,系統超越了靜態的提示執行,成為更具適應性和上下文感知的決策者。儘管仍然受限於人類定義的基礎設施和道德準則,這些代理性能力使企業和終端使用者能夠享受更豐富、更動態且更有價值的 AI 交互。

對 Agentic RAG 有更多疑問?

加入 Azure AI Foundry Discord,與其他學習者交流,參加辦公時間並解答您的 AI Agents 問題。

其他資源

- 使用 Azure OpenAI 服務實現檢索增強生成 (RAG):了解如何使用您自己的數據搭配 Azure OpenAI 服務。本 Microsoft Learn 模組提供了實現 RAG 的全面指南

學術論文

上一課

工具使用設計模式

下一課

構建可信的 AI 代理


免責聲明
本文件已使用 AI 翻譯服務 Co-op Translator 進行翻譯。儘管我們努力確保翻譯的準確性,但請注意,自動翻譯可能包含錯誤或不準確之處。原始文件的母語版本應被視為權威來源。對於關鍵信息,建議使用專業人工翻譯。我們對因使用此翻譯而引起的任何誤解或誤釋不承擔責任。