ai-agents-for-beginners

Exploring AI Agent Frameworks

(คลิกที่ภาพด้านบนเพื่อดูวิดีโอของบทเรียนนี้)

สำรวจกรอบการทำงานของ AI Agent

กรอบการทำงานของ AI Agent คือแพลตฟอร์มซอฟต์แวร์ที่ออกแบบมาเพื่อช่วยให้การสร้าง การปรับใช้ และการจัดการ AI Agent เป็นเรื่องง่ายขึ้น กรอบการทำงานเหล่านี้มอบส่วนประกอบสำเร็จรูป เครื่องมือ และการจัดการที่ช่วยให้การพัฒนาระบบ AI ที่ซับซ้อนเป็นไปอย่างมีประสิทธิภาพ

กรอบการทำงานเหล่านี้ช่วยให้นักพัฒนาสามารถมุ่งเน้นไปที่แง่มุมเฉพาะของแอปพลิเคชันของตน โดยใช้วิธีการมาตรฐานในการแก้ไขปัญหาทั่วไปในกระบวนการพัฒนา AI Agent ซึ่งช่วยเพิ่มความสามารถในการขยายตัว การเข้าถึง และประสิทธิภาพในการสร้างระบบ AI

บทนำ

บทเรียนนี้จะครอบคลุม:

เป้าหมายการเรียนรู้

เป้าหมายของบทเรียนนี้คือช่วยให้คุณเข้าใจ:

กรอบการทำงานของ AI Agent คืออะไร และช่วยให้นักพัฒนาสามารถทำอะไรได้บ้าง?

กรอบการทำงาน AI แบบดั้งเดิมสามารถช่วยให้คุณผสาน AI เข้ากับแอปพลิเคชันของคุณ และทำให้แอปพลิเคชันเหล่านี้ดีขึ้นในด้านต่าง ๆ ดังนี้:

ฟังดูดีใช่ไหม แล้วทำไมเราถึงต้องการกรอบการทำงานของ AI Agent?

กรอบการทำงานของ AI Agent เป็นมากกว่ากรอบการทำงาน AI ทั่วไป เพราะมันถูกออกแบบมาเพื่อสร้าง Agent ที่ชาญฉลาด ซึ่งสามารถโต้ตอบกับผู้ใช้ Agent อื่น ๆ และสภาพแวดล้อมเพื่อบรรลุเป้าหมายเฉพาะ ตัว Agent เหล่านี้สามารถแสดงพฤติกรรมอิสระ ตัดสินใจ และปรับตัวให้เข้ากับสภาพแวดล้อมที่เปลี่ยนแปลงได้ ลองมาดูความสามารถสำคัญที่กรอบการทำงานของ AI Agent มอบให้:

สรุปคือ Agent ช่วยให้คุณทำสิ่งต่าง ๆ ได้มากขึ้น ยกระดับการทำงานอัตโนมัติไปอีกขั้น และสร้างระบบที่ชาญฉลาดมากขึ้นที่สามารถปรับตัวและเรียนรู้จากสภาพแวดล้อม

วิธีสร้างต้นแบบ ปรับปรุง และเพิ่มความสามารถของ Agent อย่างรวดเร็ว?

นี่เป็นพื้นที่ที่มีการเปลี่ยนแปลงอย่างรวดเร็ว แต่มีบางสิ่งที่เป็นเรื่องทั่วไปในกรอบการทำงานของ AI Agent ส่วนใหญ่ที่สามารถช่วยให้คุณสร้างต้นแบบและปรับปรุงได้อย่างรวดเร็ว ได้แก่ ส่วนประกอบแบบโมดูล เครื่องมือการทำงานร่วมกัน และการเรียนรู้แบบเรียลไทม์ ลองมาดูรายละเอียดกัน:

ใช้ส่วนประกอบแบบโมดูล

SDK เช่น Microsoft Semantic Kernel และ LangChain มีส่วนประกอบสำเร็จรูป เช่น ตัวเชื่อมต่อ AI เทมเพลตคำสั่ง และการจัดการ Memory

วิธีที่ทีมสามารถใช้สิ่งเหล่านี้: ทีมสามารถประกอบส่วนประกอบเหล่านี้อย่างรวดเร็วเพื่อสร้างต้นแบบที่ใช้งานได้ โดยไม่ต้องเริ่มต้นจากศูนย์ ซึ่งช่วยให้สามารถทดลองและปรับปรุงได้อย่างรวดเร็ว

วิธีการทำงานในทางปฏิบัติ: คุณสามารถใช้ตัวแยกวิเคราะห์สำเร็จรูปเพื่อดึงข้อมูลจากการป้อนข้อมูลของผู้ใช้ โมดูล Memory เพื่อจัดเก็บและเรียกข้อมูล และตัวสร้างคำสั่งเพื่อโต้ตอบกับผู้ใช้ โดยไม่ต้องสร้างส่วนประกอบเหล่านี้ตั้งแต่ต้น

ตัวอย่างโค้ด. ลองดูตัวอย่างวิธีใช้ตัวเชื่อมต่อ AI สำเร็จรูปกับ Semantic Kernel Python และ .Net ที่ใช้การเรียกฟังก์ชันอัตโนมัติเพื่อให้โมเดลตอบสนองต่อการป้อนข้อมูลของผู้ใช้:

# Semantic Kernel Python Example

import asyncio
from typing import Annotated

from semantic_kernel.connectors.ai import FunctionChoiceBehavior
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion, AzureChatPromptExecutionSettings
from semantic_kernel.contents import ChatHistory
from semantic_kernel.functions import kernel_function
from semantic_kernel.kernel import Kernel

# Define a ChatHistory object to hold the conversation's context
chat_history = ChatHistory()
chat_history.add_user_message("I'd like to go to New York on January 1, 2025")


# Define a sample plugin that contains the function to book travel
class BookTravelPlugin:
    """A Sample Book Travel Plugin"""

    @kernel_function(name="book_flight", description="Book travel given location and date")
    async def book_flight(
        self, date: Annotated[str, "The date of travel"], location: Annotated[str, "The location to travel to"]
    ) -> str:
        return f"Travel was booked to {location} on {date}"

# Create the Kernel
kernel = Kernel()

# Add the sample plugin to the Kernel object
kernel.add_plugin(BookTravelPlugin(), plugin_name="book_travel")

# Define the Azure OpenAI AI Connector
chat_service = AzureChatCompletion(
    deployment_name="YOUR_DEPLOYMENT_NAME", 
    api_key="YOUR_API_KEY", 
    endpoint="https://<your-resource>.azure.openai.com/",
)

# Define the request settings to configure the model with auto-function calling
request_settings = AzureChatPromptExecutionSettings(function_choice_behavior=FunctionChoiceBehavior.Auto())


async def main():
    # Make the request to the model for the given chat history and request settings
    # The Kernel contains the sample that the model will request to invoke
    response = await chat_service.get_chat_message_content(
        chat_history=chat_history, settings=request_settings, kernel=kernel
    )
    assert response is not None

    """
    Note: In the auto function calling process, the model determines it can invoke the 
    `BookTravelPlugin` using the `book_flight` function, supplying the necessary arguments. 
    
    For example:

    "tool_calls": [
        {
            "id": "call_abc123",
            "type": "function",
            "function": {
                "name": "BookTravelPlugin-book_flight",
                "arguments": "{'location': 'New York', 'date': '2025-01-01'}"
            }
        }
    ]

    Since the location and date arguments are required (as defined by the kernel function), if the 
    model lacks either, it will prompt the user to provide them. For instance:

    User: Book me a flight to New York.
    Model: Sure, I'd love to help you book a flight. Could you please specify the date?
    User: I want to travel on January 1, 2025.
    Model: Your flight to New York on January 1, 2025, has been successfully booked. Safe travels!
    """

    print(f"`{response}`")
    # Example AI Model Response: `Your flight to New York on January 1, 2025, has been successfully booked. Safe travels! ✈️🗽`

    # Add the model's response to our chat history context
    chat_history.add_assistant_message(response.content)


if __name__ == "__main__":
    asyncio.run(main())
// Semantic Kernel C# example

using Microsoft.SemanticKernel;
using Microsoft.SemanticKernel.ChatCompletion;
using System.ComponentModel;
using Microsoft.SemanticKernel.Connectors.AzureOpenAI;

ChatHistory chatHistory = [];
chatHistory.AddUserMessage("I'd like to go to New York on January 1, 2025");

var kernelBuilder = Kernel.CreateBuilder();
kernelBuilder.AddAzureOpenAIChatCompletion(
    deploymentName: "NAME_OF_YOUR_DEPLOYMENT",
    apiKey: "YOUR_API_KEY",
    endpoint: "YOUR_AZURE_ENDPOINT"
);
kernelBuilder.Plugins.AddFromType<BookTravelPlugin>("BookTravel"); 
var kernel = kernelBuilder.Build();

var settings = new AzureOpenAIPromptExecutionSettings()
{
    FunctionChoiceBehavior = FunctionChoiceBehavior.Auto()
};

var chatCompletion = kernel.GetRequiredService<IChatCompletionService>();

var response = await chatCompletion.GetChatMessageContentAsync(chatHistory, settings, kernel);

/*
Behind the scenes, the model recognizes the tool to call, what arguments it already has (location) and (date)
{

"tool_calls": [
    {
        "id": "call_abc123",
        "type": "function",
        "function": {
            "name": "BookTravelPlugin-book_flight",
            "arguments": "{'location': 'New York', 'date': '2025-01-01'}"
        }
    }
]
*/

Console.WriteLine(response.Content);
chatHistory.AddMessage(response!.Role, response!.Content!);

// Example AI Model Response: Your flight to New York on January 1, 2025, has been successfully booked. Safe travels! ✈️🗽

// Define a plugin that contains the function to book travel
public class BookTravelPlugin
{
    [KernelFunction("book_flight")]
    [Description("Book travel given location and date")]
    public async Task<string> BookFlight(DateTime date, string location)
    {
        return await Task.FromResult( $"Travel was booked to {location} on {date}");
    }
}

จากตัวอย่างนี้ คุณจะเห็นวิธีใช้ตัวแยกวิเคราะห์สำเร็จรูปเพื่อดึงข้อมูลสำคัญจากการป้อนข้อมูลของผู้ใช้ เช่น ต้นทาง ปลายทาง และวันที่ของคำขอจองเที่ยวบิน วิธีการแบบโมดูลนี้ช่วยให้คุณมุ่งเน้นไปที่ตรรกะระดับสูง

ใช้เครื่องมือการทำงานร่วมกัน

กรอบการทำงาน เช่น CrewAI, Microsoft AutoGen และ Semantic Kernel ช่วยให้สามารถสร้าง Agent หลายตัวที่สามารถทำงานร่วมกันได้

วิธีที่ทีมสามารถใช้สิ่งเหล่านี้: ทีมสามารถออกแบบ Agent ที่มีบทบาทและงานเฉพาะ เพื่อทดสอบและปรับปรุงกระบวนการทำงานร่วมกัน และเพิ่มประสิทธิภาพของระบบโดยรวม

วิธีการทำงานในทางปฏิบัติ: คุณสามารถสร้างทีม Agent ที่แต่ละตัวมีฟังก์ชันเฉพาะ เช่น การดึงข้อมูล การวิเคราะห์ หรือการตัดสินใจ Agent เหล่านี้สามารถสื่อสารและแบ่งปันข้อมูลเพื่อบรรลุเป้าหมายร่วมกัน เช่น การตอบคำถามของผู้ใช้หรือการทำงานให้เสร็จสมบูรณ์

ตัวอย่างโค้ด (AutoGen):

# creating agents, then create a round robin schedule where they can work together, in this case in order

# Data Retrieval Agent
# Data Analysis Agent
# Decision Making Agent

agent_retrieve = AssistantAgent(
    name="dataretrieval",
    model_client=model_client,
    tools=[retrieve_tool],
    system_message="Use tools to solve tasks."
)

agent_analyze = AssistantAgent(
    name="dataanalysis",
    model_client=model_client,
    tools=[analyze_tool],
    system_message="Use tools to solve tasks."
)

# conversation ends when user says "APPROVE"
termination = TextMentionTermination("APPROVE")

user_proxy = UserProxyAgent("user_proxy", input_func=input)

team = RoundRobinGroupChat([agent_retrieve, agent_analyze, user_proxy], termination_condition=termination)

stream = team.run_stream(task="Analyze data", max_turns=10)
# Use asyncio.run(...) when running in a script.
await Console(stream)

ในโค้ดก่อนหน้านี้ คุณจะเห็นวิธีสร้างงานที่เกี่ยวข้องกับ Agent หลายตัวที่ทำงานร่วมกันเพื่อวิเคราะห์ข้อมูล แต่ละ Agent มีฟังก์ชันเฉพาะ และงานจะดำเนินการโดยการประสานงานระหว่าง Agent เพื่อให้ได้ผลลัพธ์ที่ต้องการ การสร้าง Agent เฉพาะที่มีบทบาทเฉพาะช่วยปรับปรุงประสิทธิภาพและประสิทธิผลของงาน

เรียนรู้แบบเรียลไทม์

กรอบการทำงานขั้นสูงมอบความสามารถในการทำความเข้าใจบริบทและปรับตัวแบบเรียลไทม์

วิธีที่ทีมสามารถใช้สิ่งเหล่านี้: ทีมสามารถใช้กลไกการตอบกลับที่ Agent เรียนรู้จากการโต้ตอบและปรับพฤติกรรมแบบไดนามิก ซึ่งนำไปสู่การปรับปรุงและการพัฒนาความสามารถอย่างต่อเนื่อง

วิธีการทำงานในทางปฏิบัติ: Agent สามารถวิเคราะห์ความคิดเห็นของผู้ใช้ ข้อมูลสภาพแวดล้อม และผลลัพธ์ของงานเพื่ออัปเดตฐานความรู้ ปรับอัลกอริทึมการตัดสินใจ และปรับปรุงประสิทธิภาพเมื่อเวลาผ่านไป กระบวนการเรียนรู้แบบวนซ้ำนี้ช่วยให้ Agent ปรับตัวให้เข้ากับสภาพแวดล้อมที่เปลี่ยนแปลงและความชอบของผู้ใช้ ซึ่งช่วยเพิ่มประสิทธิภาพของระบบโดยรวม

ความแตกต่างระหว่างกรอบการทำงาน AutoGen, Semantic Kernel และ Azure AI Agent Service คืออะไร?

มีหลายวิธีในการเปรียบเทียบกรอบการทำงานเหล่านี้ แต่ลองมาดูความแตกต่างสำคัญในแง่ของการออกแบบ ความสามารถ และกรณีการใช้งานเป้าหมาย:

AutoGen

AutoGen เป็นกรอบการทำงานแบบโอเพ่นซอร์สที่พัฒนาโดย Microsoft Research’s AI Frontiers Lab โดยมุ่งเน้นไปที่แอปพลิเคชันแบบกระจายที่ขับเคลื่อนด้วยเหตุการณ์ ซึ่งช่วยให้สามารถใช้งาน LLM และ SLM หลายตัว เครื่องมือ และรูปแบบการออกแบบ Agent หลายตัวขั้นสูง

AutoGen ถูกสร้างขึ้นโดยมีแนวคิดหลักเกี่ยวกับ Agent ซึ่งเป็นเอนทิตีอิสระที่สามารถรับรู้สภาพแวดล้อม ตัดสินใจ และดำเนินการเพื่อบรรลุเป้าหมายเฉพาะ Agent สื่อสารผ่านข้อความแบบอะซิงโครนัส ซึ่งช่วยให้ทำงานได้อย่างอิสระและขนานกัน เพิ่มความสามารถในการขยายตัวและการตอบสนองของระบบ

Agent ถูกสร้างขึ้นบนพื้นฐานของ Actor Model ตามที่ Wikipedia กล่าวไว้ Actor คือ องค์ประกอบพื้นฐานของการคำนวณแบบขนาน ในการตอบสนองต่อข้อความที่ได้รับ Actor สามารถ: ตัดสินใจในระดับท้องถิ่น สร้าง Actor เพิ่มเติม ส่งข้อความเพิ่มเติม และกำหนดวิธีตอบสนองต่อข้อความถัดไปที่ได้รับ

กรณีการใช้งาน: การสร้างโค้ดอัตโนมัติ งานวิเคราะห์ข้อมูล และการสร้าง Agent แบบกำหนดเองสำหรับฟังก์ชันการวางแผนและการวิจัย

นี่คือแนวคิดหลักที่สำคัญของ AutoGen:

ในโค้ดก่อนหน้านี้ MyAgent ถูกสร้างขึ้นและสืบทอดจาก RoutedAgent โดยมีตัวจัดการข้อความที่พิมพ์เนื้อหาของข้อความและส่งการตอบกลับโดยใช้ตัวแทน AssistantAgent โดยเฉพาะอย่างยิ่งสังเกตว่าเราได้กำหนด self._delegate เป็นอินสแตนซ์ของ AssistantAgent ซึ่งเป็น Agent สำเร็จรูปที่สามารถจัดการการตอบกลับการแชทได้

ลองแจ้ง AutoGen เกี่ยวกับประเภท Agent นี้และเริ่มโปรแกรมต่อไป:

```python

# main.py
runtime = SingleThreadedAgentRuntime()
await MyAgent.register(runtime, "my_agent", lambda: MyAgent())

runtime.start()  # Start processing messages in the background.
await runtime.send_message(MyMessageType("Hello, World!"), AgentId("my_agent", "default"))
```

ในโค้ดก่อนหน้านี้ Agent ถูกลงทะเบียนกับ Runtime และจากนั้นมีการส่งข้อความไปยัง Agent ซึ่งส่งผลให้เกิดผลลัพธ์ดังนี้:

```text
# Output from the console:
my_agent received message: Hello, World!
my_assistant received message: Hello, World!
my_assistant responded: Hello! How can I assist you today?
```

ในโค้ดก่อนหน้านี้ เรามี GroupChatManager ที่ลงทะเบียนกับ Runtime ผู้จัดการนี้มีหน้าที่ประสานการโต้ตอบระหว่างประเภท Agent ต่าง ๆ เช่น นักเขียน นักวาดภาพ บรรณาธิการ และผู้ใช้

Semantic Kernel + Agent Framework

Semantic Kernel เป็น SDK การจัดการ AI ที่พร้อมใช้งานในระดับองค์กร ประกอบด้วยตัวเชื่อมต่อ AI และ Memory พร้อมกับ Agent Framework

ลองมาดูส่วนประกอบหลักกันก่อน:

นี่คือตัวอย่างง่าย ๆ ของวิธีสร้าง Kernel และเพิ่มบริการการตอบกลับการแชท Semantic Kernel สร้างการเชื่อมต่อกับบริการ AI ภายนอก ในกรณีนี้คือ Azure OpenAI Chat Completion

นี่คือพื้นฐานของเฟรมเวิร์ก Semantic Kernel แล้ว Agent Framework ล่ะ?

Azure AI Agent Service

Azure AI Agent Service เป็นส่วนเสริมใหม่ที่เปิดตัวในงาน Microsoft Ignite 2024 ซึ่งช่วยให้สามารถพัฒนาและปรับใช้ AI agents ด้วยโมเดลที่ยืดหยุ่นมากขึ้น เช่น การเรียกใช้งาน LLMs แบบโอเพ่นซอร์สโดยตรง เช่น Llama 3, Mistral และ Cohere

Azure AI Agent Service มีระบบรักษาความปลอดภัยระดับองค์กรที่แข็งแกร่งและวิธีการจัดเก็บข้อมูลที่เหมาะสำหรับการใช้งานในองค์กร

บริการนี้สามารถใช้งานได้ทันทีร่วมกับเฟรมเวิร์กการจัดการหลายเอเจนต์ เช่น AutoGen และ Semantic Kernel

บริการนี้อยู่ในช่วง Public Preview และรองรับ Python และ C# สำหรับการสร้างเอเจนต์

โดยใช้ Semantic Kernel Python เราสามารถสร้าง Azure AI Agent พร้อมปลั๊กอินที่ผู้ใช้กำหนดเองได้:

import asyncio
from typing import Annotated

from azure.identity.aio import DefaultAzureCredential

from semantic_kernel.agents import AzureAIAgent, AzureAIAgentSettings, AzureAIAgentThread
from semantic_kernel.contents import ChatMessageContent
from semantic_kernel.contents import AuthorRole
from semantic_kernel.functions import kernel_function


# Define a sample plugin for the sample
class MenuPlugin:
    """A sample Menu Plugin used for the concept sample."""

    @kernel_function(description="Provides a list of specials from the menu.")
    def get_specials(self) -> Annotated[str, "Returns the specials from the menu."]:
        return """
        Special Soup: Clam Chowder
        Special Salad: Cobb Salad
        Special Drink: Chai Tea
        """

    @kernel_function(description="Provides the price of the requested menu item.")
    def get_item_price(
        self, menu_item: Annotated[str, "The name of the menu item."]
    ) -> Annotated[str, "Returns the price of the menu item."]:
        return "$9.99"


async def main() -> None:
    ai_agent_settings = AzureAIAgentSettings.create()

    async with (
        DefaultAzureCredential() as creds,
        AzureAIAgent.create_client(
            credential=creds,
            conn_str=ai_agent_settings.project_connection_string.get_secret_value(),
        ) as client,
    ):
        # Create agent definition
        agent_definition = await client.agents.create_agent(
            model=ai_agent_settings.model_deployment_name,
            name="Host",
            instructions="Answer questions about the menu.",
        )

        # Create the AzureAI Agent using the defined client and agent definition
        agent = AzureAIAgent(
            client=client,
            definition=agent_definition,
            plugins=[MenuPlugin()],
        )

        # Create a thread to hold the conversation
        # If no thread is provided, a new thread will be
        # created and returned with the initial response
        thread: AzureAIAgentThread | None = None

        user_inputs = [
            "Hello",
            "What is the special soup?",
            "How much does that cost?",
            "Thank you",
        ]

        try:
            for user_input in user_inputs:
                print(f"# User: '{user_input}'")
                # Invoke the agent for the specified thread
                response = await agent.get_response(
                    messages=user_input,
                    thread_id=thread,
                )
                print(f"# {response.name}: {response.content}")
                thread = response.thread
        finally:
            await thread.delete() if thread else None
            await client.agents.delete_agent(agent.id)


if __name__ == "__main__":
    asyncio.run(main())

แนวคิดหลัก

Azure AI Agent Service มีแนวคิดหลักดังนี้:

กรณีการใช้งาน: Azure AI Agent Service ถูกออกแบบมาสำหรับแอปพลิเคชันในองค์กรที่ต้องการการปรับใช้ AI agent ที่ปลอดภัย ขยายขนาดได้ และยืดหยุ่น

ความแตกต่างระหว่างเฟรมเวิร์กเหล่านี้คืออะไร?

ดูเหมือนว่าเฟรมเวิร์กเหล่านี้จะมีความซ้อนทับกันมาก แต่ก็มีความแตกต่างสำคัญในแง่ของการออกแบบ ความสามารถ และกรณีการใช้งานเป้าหมาย:

ยังไม่แน่ใจว่าจะเลือกอะไร?

กรณีการใช้งาน

ลองดูว่ากรณีการใช้งานทั่วไปสามารถช่วยคุณได้หรือไม่:

Q: ฉันกำลังทดลอง เรียนรู้ และสร้างแอปพลิเคชันเอเจนต์ต้นแบบ และต้องการสร้างและทดลองได้อย่างรวดเร็ว

A: AutoGen จะเป็นตัวเลือกที่ดีสำหรับสถานการณ์นี้ เนื่องจากมุ่งเน้นที่แอปพลิเคชันเอเจนต์แบบกระจายที่ขับเคลื่อนด้วยเหตุการณ์ และรองรับรูปแบบการออกแบบเอเจนต์หลายตัวขั้นสูง

Q: อะไรทำให้ AutoGen เป็นตัวเลือกที่ดีกว่า Semantic Kernel และ Azure AI Agent Service สำหรับกรณีการใช้งานนี้?

A: AutoGen ถูกออกแบบมาโดยเฉพาะสำหรับแอปพลิเคชันเอเจนต์แบบกระจายที่ขับเคลื่อนด้วยเหตุการณ์ ทำให้เหมาะสำหรับการทำงานอัตโนมัติ เช่น การสร้างโค้ดและการวิเคราะห์ข้อมูล มันมีเครื่องมือและความสามารถที่จำเป็นในการสร้างระบบหลายเอเจนต์ที่ซับซ้อนอย่างมีประสิทธิภาพ

Q: ฟังดูเหมือน Azure AI Agent Service ก็สามารถใช้งานได้ในกรณีนี้เช่นกัน มันมีเครื่องมือสำหรับการสร้างโค้ดและอื่นๆ ใช่ไหม?

A: ใช่ Azure AI Agent Service เป็นบริการแพลตฟอร์มสำหรับเอเจนต์ และมีความสามารถในตัวสำหรับโมเดลหลายตัว Azure AI Search Bing Search และ Azure Functions มันทำให้การสร้างเอเจนต์ใน Foundry Portal และการปรับใช้ในระดับใหญ่เป็นเรื่องง่าย

Q: ฉันยังสับสนอยู่ แค่บอกตัวเลือกเดียวให้ฉัน

A: ตัวเลือกที่ดีคือการสร้างแอปพลิเคชันของคุณใน Semantic Kernel ก่อน แล้วใช้ Azure AI Agent Service เพื่อปรับใช้เอเจนต์ของคุณ วิธีนี้ช่วยให้คุณสามารถเก็บรักษาเอเจนต์ของคุณได้ง่าย ในขณะที่ใช้พลังของการสร้างระบบหลายเอเจนต์ใน Semantic Kernel นอกจากนี้ Semantic Kernel ยังมีตัวเชื่อมต่อใน AutoGen ทำให้การใช้เฟรมเวิร์กทั้งสองร่วมกันเป็นเรื่องง่าย

สรุปความแตกต่างสำคัญในตาราง:

เฟรมเวิร์ก จุดเน้น แนวคิดหลัก กรณีการใช้งาน
AutoGen แอปพลิเคชันเอเจนต์แบบกระจายที่ขับเคลื่อนด้วยเหตุการณ์ Agents, Personas, Functions, Data การสร้างโค้ด การวิเคราะห์ข้อมูล
Semantic Kernel การทำความเข้าใจและสร้างเนื้อหาที่เหมือนมนุษย์ Agents, Modular Components, Collaboration การทำความเข้าใจภาษา การสร้างเนื้อหา
Azure AI Agent Service โมเดลที่ยืดหยุ่น ความปลอดภัยระดับองค์กร การสร้างโค้ด การเรียกใช้เครื่องมือ Modularity, Collaboration, Process Orchestration การปรับใช้ AI agent ที่ปลอดภัย ขยายขนาดได้ และยืดหยุ่น

กรณีการใช้งานที่เหมาะสมที่สุดสำหรับแต่ละเฟรมเวิร์กคืออะไร?

ฉันสามารถผสานรวมเครื่องมือในระบบ Azure ที่มีอยู่ของฉันโดยตรงได้หรือไม่ หรือฉันต้องการโซลูชันแบบสแตนด์อโลน?

คำตอบคือได้ คุณสามารถผสานรวมเครื่องมือในระบบ Azure ที่มีอยู่ของคุณโดยตรงกับ Azure AI Agent Service โดยเฉพาะ เนื่องจากมันถูกสร้างมาให้ทำงานร่วมกับบริการ Azure อื่นๆ ได้อย่างราบรื่น ตัวอย่างเช่น คุณสามารถผสานรวม Bing, Azure AI Search และ Azure Functions นอกจากนี้ยังมีการผสานรวมลึกกับ Azure AI Foundry

สำหรับ AutoGen และ Semantic Kernel คุณก็สามารถผสานรวมกับบริการ Azure ได้เช่นกัน แต่คุณอาจต้องเรียกใช้บริการ Azure จากโค้ดของคุณ อีกวิธีหนึ่งในการผสานรวมคือการใช้ Azure SDKs เพื่อโต้ตอบกับบริการ Azure จากเอเจนต์ของคุณ นอกจากนี้ อย่างที่กล่าวไป คุณสามารถใช้ Azure AI Agent Service เป็นตัวจัดการสำหรับเอเจนต์ที่สร้างใน AutoGen หรือ Semantic Kernel ซึ่งจะช่วยให้เข้าถึงระบบ Azure ได้ง่าย

มีคำถามเพิ่มเติมเกี่ยวกับ AI Agent Frameworks หรือไม่?

เข้าร่วม Azure AI Foundry Discord เพื่อพบปะกับผู้เรียนคนอื่นๆ เข้าร่วมชั่วโมงทำการ และรับคำตอบสำหรับคำถามเกี่ยวกับ AI Agents ของคุณ

อ้างอิง

บทเรียนก่อนหน้า

Introduction to AI Agents and Agent Use Cases

บทเรียนถัดไป

Understanding Agentic Design Patterns


ข้อจำกัดความรับผิดชอบ:
เอกสารนี้ได้รับการแปลโดยใช้บริการแปลภาษา AI Co-op Translator แม้ว่าเราจะพยายามให้การแปลมีความถูกต้อง แต่โปรดทราบว่าการแปลอัตโนมัติอาจมีข้อผิดพลาดหรือความไม่ถูกต้อง เอกสารต้นฉบับในภาษาดั้งเดิมควรถือเป็นแหล่งข้อมูลที่เชื่อถือได้ สำหรับข้อมูลที่สำคัญ ขอแนะนำให้ใช้บริการแปลภาษามนุษย์ที่มีความเชี่ยวชาญ เราไม่รับผิดชอบต่อความเข้าใจผิดหรือการตีความผิดที่เกิดจากการใช้การแปลนี้