ai-agents-for-beginners

Изследване на рамки за AI агенти

(Кликнете върху изображението по-горе, за да гледате видеото на този урок)

Изследване на рамки за AI агенти

Рамките за AI агенти са софтуерни платформи, създадени да улеснят създаването, внедряването и управлението на AI агенти. Те предоставят на разработчиците предварително изградени компоненти, абстракции и инструменти, които опростяват разработването на сложни AI системи.

Тези рамки помагат на разработчиците да се фокусират върху уникалните аспекти на своите приложения, като предоставят стандартизирани подходи към общите предизвикателства в разработването на AI агенти. Те подобряват мащабируемостта, достъпността и ефективността при изграждането на AI системи.

Въведение

Този урок ще обхване:

Цели на обучението

Целите на този урок са да ви помогнат да разберете:

Какво представляват рамките за AI агенти и какво позволяват на разработчиците да правят?

Традиционните AI рамки могат да ви помогнат да интегрирате AI във вашите приложения и да ги направите по-добри по следните начини:

Звучи страхотно, нали? Тогава защо ни е нужна рамка за AI агенти?

Рамките за AI агенти представляват нещо повече от обикновени AI рамки. Те са създадени, за да позволят създаването на интелигентни агенти, които могат да взаимодействат с потребители, други агенти и околната среда, за да постигнат конкретни цели. Тези агенти могат да проявяват автономно поведение, да вземат решения и да се адаптират към променящи се условия. Нека разгледаме някои ключови възможности, които предоставят рамките за AI агенти:

В обобщение, агентите ви позволяват да правите повече, да издигнете автоматизацията на следващо ниво и да създавате по-интелигентни системи, които могат да се адаптират и учат от своята среда.

Как бързо да прототипирате, итеративно подобрявате и разширявате възможностите на агента?

Това е бързо развиваща се област, но има някои общи неща в повечето рамки за AI агенти, които могат да ви помогнат да прототипирате и итеративно подобрявате, а именно модулни компоненти, инструменти за сътрудничество и обучение в реално време. Нека разгледаме тези аспекти:

Използвайте модулни компоненти

SDK като Microsoft Semantic Kernel и LangChain предлагат предварително изградени компоненти като AI конектори, шаблони за подканващи съобщения и управление на паметта.

Как екипите могат да ги използват: Екипите могат бързо да сглобят тези компоненти, за да създадат функционален прототип, без да започват от нулата, което позволява бързи експерименти и итерации.

Как работи на практика: Можете да използвате предварително изграден парсер за извличане на информация от потребителски вход, модул за памет за съхранение и извличане на данни и генератор на подканващи съобщения за взаимодействие с потребители, без да се налага да изграждате тези компоненти от нулата.

Примерен код. Нека разгледаме примери за това как можете да използвате предварително изграден AI конектор със Semantic Kernel Python и .Net, който използва автоматично извикване на функции, за да накара модела да отговори на потребителски вход:

# Semantic Kernel Python Example

import asyncio
from typing import Annotated

from semantic_kernel.connectors.ai import FunctionChoiceBehavior
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion, AzureChatPromptExecutionSettings
from semantic_kernel.contents import ChatHistory
from semantic_kernel.functions import kernel_function
from semantic_kernel.kernel import Kernel

# Define a ChatHistory object to hold the conversation's context
chat_history = ChatHistory()
chat_history.add_user_message("I'd like to go to New York on January 1, 2025")


# Define a sample plugin that contains the function to book travel
class BookTravelPlugin:
    """A Sample Book Travel Plugin"""

    @kernel_function(name="book_flight", description="Book travel given location and date")
    async def book_flight(
        self, date: Annotated[str, "The date of travel"], location: Annotated[str, "The location to travel to"]
    ) -> str:
        return f"Travel was booked to {location} on {date}"

# Create the Kernel
kernel = Kernel()

# Add the sample plugin to the Kernel object
kernel.add_plugin(BookTravelPlugin(), plugin_name="book_travel")

# Define the Azure OpenAI AI Connector
chat_service = AzureChatCompletion(
    deployment_name="YOUR_DEPLOYMENT_NAME", 
    api_key="YOUR_API_KEY", 
    endpoint="https://<your-resource>.azure.openai.com/",
)

# Define the request settings to configure the model with auto-function calling
request_settings = AzureChatPromptExecutionSettings(function_choice_behavior=FunctionChoiceBehavior.Auto())


async def main():
    # Make the request to the model for the given chat history and request settings
    # The Kernel contains the sample that the model will request to invoke
    response = await chat_service.get_chat_message_content(
        chat_history=chat_history, settings=request_settings, kernel=kernel
    )
    assert response is not None

    """
    Note: In the auto function calling process, the model determines it can invoke the 
    `BookTravelPlugin` using the `book_flight` function, supplying the necessary arguments. 
    
    For example:

    "tool_calls": [
        {
            "id": "call_abc123",
            "type": "function",
            "function": {
                "name": "BookTravelPlugin-book_flight",
                "arguments": "{'location': 'New York', 'date': '2025-01-01'}"
            }
        }
    ]

    Since the location and date arguments are required (as defined by the kernel function), if the 
    model lacks either, it will prompt the user to provide them. For instance:

    User: Book me a flight to New York.
    Model: Sure, I'd love to help you book a flight. Could you please specify the date?
    User: I want to travel on January 1, 2025.
    Model: Your flight to New York on January 1, 2025, has been successfully booked. Safe travels!
    """

    print(f"`{response}`")
    # Example AI Model Response: `Your flight to New York on January 1, 2025, has been successfully booked. Safe travels! ✈️🗽`

    # Add the model's response to our chat history context
    chat_history.add_assistant_message(response.content)


if __name__ == "__main__":
    asyncio.run(main())
// Semantic Kernel C# example

using Microsoft.SemanticKernel;
using Microsoft.SemanticKernel.ChatCompletion;
using System.ComponentModel;
using Microsoft.SemanticKernel.Connectors.AzureOpenAI;

ChatHistory chatHistory = [];
chatHistory.AddUserMessage("I'd like to go to New York on January 1, 2025");

var kernelBuilder = Kernel.CreateBuilder();
kernelBuilder.AddAzureOpenAIChatCompletion(
    deploymentName: "NAME_OF_YOUR_DEPLOYMENT",
    apiKey: "YOUR_API_KEY",
    endpoint: "YOUR_AZURE_ENDPOINT"
);
kernelBuilder.Plugins.AddFromType<BookTravelPlugin>("BookTravel"); 
var kernel = kernelBuilder.Build();

var settings = new AzureOpenAIPromptExecutionSettings()
{
    FunctionChoiceBehavior = FunctionChoiceBehavior.Auto()
};

var chatCompletion = kernel.GetRequiredService<IChatCompletionService>();

var response = await chatCompletion.GetChatMessageContentAsync(chatHistory, settings, kernel);

/*
Behind the scenes, the model recognizes the tool to call, what arguments it already has (location) and (date)
{

"tool_calls": [
    {
        "id": "call_abc123",
        "type": "function",
        "function": {
            "name": "BookTravelPlugin-book_flight",
            "arguments": "{'location': 'New York', 'date': '2025-01-01'}"
        }
    }
]
*/

Console.WriteLine(response.Content);
chatHistory.AddMessage(response!.Role, response!.Content!);

// Example AI Model Response: Your flight to New York on January 1, 2025, has been successfully booked. Safe travels! ✈️🗽

// Define a plugin that contains the function to book travel
public class BookTravelPlugin
{
    [KernelFunction("book_flight")]
    [Description("Book travel given location and date")]
    public async Task<string> BookFlight(DateTime date, string location)
    {
        return await Task.FromResult( $"Travel was booked to {location} on {date}");
    }
}

От този пример можете да видите как можете да използвате предварително изграден парсер за извличане на ключова информация от потребителски вход, като например произход, дестинация и дата на заявка за резервация на полет. Този модулен подход ви позволява да се фокусирате върху логиката на високо ниво.

Възползвайте се от инструменти за сътрудничество

Рамки като CrewAI, Microsoft AutoGen и Semantic Kernel улесняват създаването на множество агенти, които могат да работят заедно.

Как екипите могат да ги използват: Екипите могат да проектират агенти със специфични роли и задачи, което позволява тестване и усъвършенстване на съвместни работни процеси и подобряване на цялостната ефективност на системата.

Как работи на практика: Можете да създадете екип от агенти, където всеки агент има специализирана функция, като извличане на данни, анализ или вземане на решения. Тези агенти могат да комуникират и споделят информация, за да постигнат обща цел, като например отговаряне на потребителски запитвания или изпълнение на задача.

Примерен код (AutoGen):

# creating agents, then create a round robin schedule where they can work together, in this case in order

# Data Retrieval Agent
# Data Analysis Agent
# Decision Making Agent

agent_retrieve = AssistantAgent(
    name="dataretrieval",
    model_client=model_client,
    tools=[retrieve_tool],
    system_message="Use tools to solve tasks."
)

agent_analyze = AssistantAgent(
    name="dataanalysis",
    model_client=model_client,
    tools=[analyze_tool],
    system_message="Use tools to solve tasks."
)

# conversation ends when user says "APPROVE"
termination = TextMentionTermination("APPROVE")

user_proxy = UserProxyAgent("user_proxy", input_func=input)

team = RoundRobinGroupChat([agent_retrieve, agent_analyze, user_proxy], termination_condition=termination)

stream = team.run_stream(task="Analyze data", max_turns=10)
# Use asyncio.run(...) when running in a script.
await Console(stream)

В предишния код виждате как можете да създадете задача, която включва множество агенти, работещи заедно за анализ на данни. Всеки агент изпълнява специфична функция, а задачата се изпълнява чрез координиране на агентите за постигане на желания резултат. Създавайки специализирани агенти с определени роли, можете да подобрите ефективността и производителността на задачите.

Учете в реално време

Напредналите рамки предоставят възможности за разбиране на контекста и адаптация в реално време.

Как екипите могат да ги използват: Екипите могат да внедрят обратни връзки, при които агентите се учат от взаимодействия и динамично коригират поведението си, водейки до непрекъснато подобрение и усъвършенстване на възможностите.

Как работи на практика: Агенти могат да анализират обратна връзка от потребители, данни от околната среда и резултати от задачи, за да актуализират базата си от знания, да коригират алгоритмите за вземане на решения и да подобрят производителността си с времето. Този итеративен процес на учене позволява на агентите да се адаптират към променящи се условия и предпочитания на потребителите, подобрявайки цялостната ефективност на системата.

Какви са разликите между рамките AutoGen, Semantic Kernel и Azure AI Agent Service?

Има много начини за сравнение на тези рамки, но нека разгледаме някои ключови разлики по отношение на техния дизайн, възможности и целеви случаи на употреба:

AutoGen

AutoGen е рамка с отворен код, разработена от AI Frontiers Lab на Microsoft Research. Тя се фокусира върху събитийно-ориентирани, разпределени агентни приложения, позволяващи множество LLMs и SLMs, инструменти и напреднали модели за дизайн на многоагентни системи.

AutoGen е изградена около основната концепция за агенти, които са автономни единици, способни да възприемат своята среда, да вземат решения и да предприемат действия за постигане на конкретни цели. Агенти комуникират чрез асинхронни съобщения, което им позволява да работят независимо и паралелно, подобрявайки мащабируемостта и отзивчивостта на системата.

Агентите са базирани на модела на актьорите. Според Wikipedia, актьорът е основният градивен елемент на конкурентното изчисление. В отговор на съобщение, което получава, актьорът може: да взема локални решения, да създава повече актьори, да изпраща повече съобщения и да определя как да отговори на следващото получено съобщение.

Случаи на употреба: Автоматизация на генериране на код, задачи за анализ на данни и изграждане на персонализирани агенти за планиране и изследователски функции.

Ето някои важни основни концепции на AutoGen:

Semantic Kernel + Рамка за агенти

Semantic Kernel е готов за предприятия AI Orchestration SDK. Той се състои от AI и памет конектори, заедно с рамка за агенти.

Нека първо разгледаме някои основни компоненти:

Това са основите на рамката Semantic Kernel, а какво да кажем за Agent Framework?

Azure AI Agent Service

Azure AI Agent Service е по-нова добавка, представена на Microsoft Ignite 2024. Тя позволява разработването и внедряването на AI агенти с по-гъвкави модели, като директно извикване на open-source LLMs като Llama 3, Mistral и Cohere.

Azure AI Agent Service предоставя по-силни механизми за сигурност на корпоративно ниво и методи за съхранение на данни, което я прави подходяща за корпоративни приложения.

Тя работи директно с рамки за оркестрация на множество агенти като AutoGen и Semantic Kernel.

Тази услуга в момента е в Public Preview и поддържа Python и C# за създаване на агенти.

С помощта на Semantic Kernel Python можем да създадем Azure AI Agent с потребителски дефиниран плъгин:

import asyncio
from typing import Annotated

from azure.identity.aio import DefaultAzureCredential

from semantic_kernel.agents import AzureAIAgent, AzureAIAgentSettings, AzureAIAgentThread
from semantic_kernel.contents import ChatMessageContent
from semantic_kernel.contents import AuthorRole
from semantic_kernel.functions import kernel_function


# Define a sample plugin for the sample
class MenuPlugin:
    """A sample Menu Plugin used for the concept sample."""

    @kernel_function(description="Provides a list of specials from the menu.")
    def get_specials(self) -> Annotated[str, "Returns the specials from the menu."]:
        return """
        Special Soup: Clam Chowder
        Special Salad: Cobb Salad
        Special Drink: Chai Tea
        """

    @kernel_function(description="Provides the price of the requested menu item.")
    def get_item_price(
        self, menu_item: Annotated[str, "The name of the menu item."]
    ) -> Annotated[str, "Returns the price of the menu item."]:
        return "$9.99"


async def main() -> None:
    ai_agent_settings = AzureAIAgentSettings.create()

    async with (
        DefaultAzureCredential() as creds,
        AzureAIAgent.create_client(
            credential=creds,
            conn_str=ai_agent_settings.project_connection_string.get_secret_value(),
        ) as client,
    ):
        # Create agent definition
        agent_definition = await client.agents.create_agent(
            model=ai_agent_settings.model_deployment_name,
            name="Host",
            instructions="Answer questions about the menu.",
        )

        # Create the AzureAI Agent using the defined client and agent definition
        agent = AzureAIAgent(
            client=client,
            definition=agent_definition,
            plugins=[MenuPlugin()],
        )

        # Create a thread to hold the conversation
        # If no thread is provided, a new thread will be
        # created and returned with the initial response
        thread: AzureAIAgentThread | None = None

        user_inputs = [
            "Hello",
            "What is the special soup?",
            "How much does that cost?",
            "Thank you",
        ]

        try:
            for user_input in user_inputs:
                print(f"# User: '{user_input}'")
                # Invoke the agent for the specified thread
                response = await agent.get_response(
                    messages=user_input,
                    thread_id=thread,
                )
                print(f"# {response.name}: {response.content}")
                thread = response.thread
        finally:
            await thread.delete() if thread else None
            await client.agents.delete_agent(agent.id)


if __name__ == "__main__":
    asyncio.run(main())

Основни концепции

Azure AI Agent Service има следните основни концепции:

Приложения: Azure AI Agent Service е проектирана за корпоративни приложения, които изискват сигурно, мащабируемо и гъвкаво внедряване на AI агенти.

Каква е разликата между тези рамки?

Изглежда, че има много припокриване между тези рамки, но има някои ключови разлики по отношение на техния дизайн, възможности и целеви приложения:

Все още не сте сигурни коя да изберете?

Приложения

Нека видим дали можем да ви помогнем, като разгледаме някои често срещани приложения:

В: Експериментирам, уча и изграждам proof-of-concept приложения за агенти и искам да мога да изграждам и експериментирам бързо.

О: AutoGen би бил добър избор за този сценарий, тъй като се фокусира върху събитийно-ориентирани, разпределени агентни приложения и поддържа усъвършенствани дизайни с множество агенти.

В: Какво прави AutoGen по-добър избор от Semantic Kernel и Azure AI Agent Service за този случай?

О: AutoGen е специално проектиран за събитийно-ориентирани, разпределени агентни приложения, което го прави подходящ за автоматизиране на задачи за генериране на код и анализ на данни. Той предоставя необходимите инструменти и възможности за ефективно изграждане на сложни системи с множество агенти.

В: Звучи, че Azure AI Agent Service също може да работи тук, има инструменти за генериране на код и други?

О: Да, Azure AI Agent Service е платформа за агенти и добавя вградени възможности за множество модели, Azure AI Search, Bing Search и Azure Functions. Това улеснява изграждането на вашите агенти в Foundry Portal и тяхното мащабно внедряване.

В: Все още съм объркан, просто ми дайте един вариант.

О: Чудесен избор е първо да изградите приложението си в Semantic Kernel и след това да използвате Azure AI Agent Service, за да внедрите агента си. Този подход ви позволява лесно да запазите вашите агенти, като същевременно използвате мощта за изграждане на системи с множество агенти в Semantic Kernel. Освен това, Semantic Kernel има конектор в AutoGen, което улеснява използването на двете рамки заедно.

Нека обобщим ключовите разлики в таблица:

Рамка Фокус Основни концепции Приложения
AutoGen Събитийно-ориентирани, разпределени агентни приложения Агенти, Персони, Функции, Данни Генериране на код, задачи за анализ на данни
Semantic Kernel Разбиране и генериране на текст, подобен на човешки Агенти, Модулни компоненти, Сътрудничество Разбиране на естествен език, генериране на съдържание
Azure AI Agent Service Гъвкави модели, корпоративна сигурност, Генериране на код, Извикване на инструменти Модулност, Сътрудничество, Оркестрация на процеси Сигурно, мащабируемо и гъвкаво внедряване на AI агенти

Какво е идеалното приложение за всяка от тези рамки?

Мога ли да интегрирам съществуващите си инструменти от Azure екосистемата директно или ми трябват самостоятелни решения?

Отговорът е да, можете да интегрирате съществуващите си инструменти от Azure екосистемата директно с Azure AI Agent Service, особено защото тя е създадена да работи безпроблемно с други Azure услуги. Например, можете да интегрирате Bing, Azure AI Search и Azure Functions. Има и дълбока интеграция с Azure AI Foundry.

За AutoGen и Semantic Kernel също можете да интегрирате с Azure услуги, но може да се наложи да извиквате Azure услугите от вашия код. Друг начин за интеграция е да използвате Azure SDKs, за да взаимодействате с Azure услуги от вашите агенти. Освен това, както беше споменато, можете да използвате Azure AI Agent Service като оркестратор за вашите агенти, изградени в AutoGen или Semantic Kernel, което ще осигури лесен достъп до Azure екосистемата.

Примерни кодове

Имате още въпроси относно AI Agent Frameworks?

Присъединете се към Azure AI Foundry Discord, за да се срещнете с други обучаващи се, да присъствате на офис часове и да получите отговори на вашите въпроси за AI агенти.

Референции

Предишен урок

Въведение в AI агенти и техните приложения

Следващ урок

Разбиране на агентни дизайнерски модели


Отказ от отговорност:
Този документ е преведен с помощта на AI услуга за превод Co-op Translator. Въпреки че се стремим към точност, моля, имайте предвид, че автоматизираните преводи може да съдържат грешки или неточности. Оригиналният документ на неговия роден език трябва да се счита за авторитетен източник. За критична информация се препоръчва професионален човешки превод. Ние не носим отговорност за каквито и да е недоразумения или погрешни интерпретации, произтичащи от използването на този превод.