(برای مشاهده ویدئوی این درس روی تصویر بالا کلیک کنید)
چارچوبهای عامل هوش مصنوعی پلتفرمهای نرمافزاری هستند که برای سادهسازی ایجاد، استقرار و مدیریت عوامل هوش مصنوعی طراحی شدهاند. این چارچوبها ابزارها، اجزا و انتزاعات از پیش ساختهای را در اختیار توسعهدهندگان قرار میدهند که فرآیند توسعه سیستمهای پیچیده هوش مصنوعی را تسهیل میکنند.
این چارچوبها به توسعهدهندگان کمک میکنند تا بر جنبههای منحصر به فرد برنامههای خود تمرکز کنند و رویکردهای استانداردی برای چالشهای رایج در توسعه عوامل هوش مصنوعی ارائه دهند. آنها مقیاسپذیری، دسترسیپذیری و کارایی در ساخت سیستمهای هوش مصنوعی را بهبود میبخشند.
این درس شامل موارد زیر خواهد بود:
اهداف این درس کمک به شما برای درک موارد زیر است:
چارچوبهای سنتی هوش مصنوعی میتوانند به شما کمک کنند تا هوش مصنوعی را در برنامههای خود ادغام کنید و این برنامهها را به روشهای زیر بهبود بخشید:
چارچوبهای عامل هوش مصنوعی چیزی فراتر از چارچوبهای هوش مصنوعی معمولی هستند. آنها برای ایجاد عوامل هوشمندی طراحی شدهاند که میتوانند با کاربران، عوامل دیگر و محیط تعامل داشته باشند تا اهداف خاصی را محقق کنند. این عوامل میتوانند رفتار خودمختار نشان دهند، تصمیمگیری کنند و با شرایط متغیر سازگار شوند. بیایید برخی از قابلیتهای کلیدی که توسط چارچوبهای عامل هوش مصنوعی فراهم میشوند را بررسی کنیم:
به طور خلاصه، عوامل به شما امکان میدهند کارهای بیشتری انجام دهید، اتوماسیون را به سطح بعدی ببرید و سیستمهای هوشمندتری ایجاد کنید که بتوانند از محیط خود یاد بگیرند و سازگار شوند.
این حوزه به سرعت در حال پیشرفت است، اما برخی موارد در اکثر چارچوبهای عامل هوش مصنوعی مشترک هستند که میتوانند به شما در نمونهسازی و تکرار سریع کمک کنند، مانند اجزای ماژولار، ابزارهای همکاری و یادگیری در زمان واقعی. بیایید به این موارد بپردازیم:
SDKهایی مانند Microsoft Semantic Kernel و LangChain اجزای از پیش ساختهای مانند اتصالدهندههای هوش مصنوعی، قالبهای درخواست و مدیریت حافظه ارائه میدهند.
چگونه تیمها میتوانند از این موارد استفاده کنند: تیمها میتوانند این اجزا را به سرعت مونتاژ کنند تا یک نمونه اولیه کاربردی ایجاد کنند، بدون اینکه از ابتدا شروع کنند، و این امکان را برای آزمایش و تکرار سریع فراهم کنند.
چگونه در عمل کار میکند: شما میتوانید از یک تجزیهکننده از پیش ساخته برای استخراج اطلاعات از ورودی کاربر، یک ماژول حافظه برای ذخیره و بازیابی دادهها، و یک تولیدکننده درخواست برای تعامل با کاربران استفاده کنید، بدون اینکه مجبور باشید این اجزا را از ابتدا بسازید.
نمونه کد. بیایید به نمونههایی از نحوه استفاده از یک اتصالدهنده هوش مصنوعی از پیش ساخته با Semantic Kernel Python و .Net که از فراخوانی خودکار توابع برای پاسخ مدل به ورودی کاربر استفاده میکند، نگاه کنیم:
# Semantic Kernel Python Example
import asyncio
from typing import Annotated
from semantic_kernel.connectors.ai import FunctionChoiceBehavior
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion, AzureChatPromptExecutionSettings
from semantic_kernel.contents import ChatHistory
from semantic_kernel.functions import kernel_function
from semantic_kernel.kernel import Kernel
# Define a ChatHistory object to hold the conversation's context
chat_history = ChatHistory()
chat_history.add_user_message("I'd like to go to New York on January 1, 2025")
# Define a sample plugin that contains the function to book travel
class BookTravelPlugin:
"""A Sample Book Travel Plugin"""
@kernel_function(name="book_flight", description="Book travel given location and date")
async def book_flight(
self, date: Annotated[str, "The date of travel"], location: Annotated[str, "The location to travel to"]
) -> str:
return f"Travel was booked to {location} on {date}"
# Create the Kernel
kernel = Kernel()
# Add the sample plugin to the Kernel object
kernel.add_plugin(BookTravelPlugin(), plugin_name="book_travel")
# Define the Azure OpenAI AI Connector
chat_service = AzureChatCompletion(
deployment_name="YOUR_DEPLOYMENT_NAME",
api_key="YOUR_API_KEY",
endpoint="https://<your-resource>.azure.openai.com/",
)
# Define the request settings to configure the model with auto-function calling
request_settings = AzureChatPromptExecutionSettings(function_choice_behavior=FunctionChoiceBehavior.Auto())
async def main():
# Make the request to the model for the given chat history and request settings
# The Kernel contains the sample that the model will request to invoke
response = await chat_service.get_chat_message_content(
chat_history=chat_history, settings=request_settings, kernel=kernel
)
assert response is not None
"""
Note: In the auto function calling process, the model determines it can invoke the
`BookTravelPlugin` using the `book_flight` function, supplying the necessary arguments.
For example:
"tool_calls": [
{
"id": "call_abc123",
"type": "function",
"function": {
"name": "BookTravelPlugin-book_flight",
"arguments": "{'location': 'New York', 'date': '2025-01-01'}"
}
}
]
Since the location and date arguments are required (as defined by the kernel function), if the
model lacks either, it will prompt the user to provide them. For instance:
User: Book me a flight to New York.
Model: Sure, I'd love to help you book a flight. Could you please specify the date?
User: I want to travel on January 1, 2025.
Model: Your flight to New York on January 1, 2025, has been successfully booked. Safe travels!
"""
print(f"`{response}`")
# Example AI Model Response: `Your flight to New York on January 1, 2025, has been successfully booked. Safe travels! ✈️🗽`
# Add the model's response to our chat history context
chat_history.add_assistant_message(response.content)
if __name__ == "__main__":
asyncio.run(main())
// Semantic Kernel C# example
using Microsoft.SemanticKernel;
using Microsoft.SemanticKernel.ChatCompletion;
using System.ComponentModel;
using Microsoft.SemanticKernel.Connectors.AzureOpenAI;
ChatHistory chatHistory = [];
chatHistory.AddUserMessage("I'd like to go to New York on January 1, 2025");
var kernelBuilder = Kernel.CreateBuilder();
kernelBuilder.AddAzureOpenAIChatCompletion(
deploymentName: "NAME_OF_YOUR_DEPLOYMENT",
apiKey: "YOUR_API_KEY",
endpoint: "YOUR_AZURE_ENDPOINT"
);
kernelBuilder.Plugins.AddFromType<BookTravelPlugin>("BookTravel");
var kernel = kernelBuilder.Build();
var settings = new AzureOpenAIPromptExecutionSettings()
{
FunctionChoiceBehavior = FunctionChoiceBehavior.Auto()
};
var chatCompletion = kernel.GetRequiredService<IChatCompletionService>();
var response = await chatCompletion.GetChatMessageContentAsync(chatHistory, settings, kernel);
/*
Behind the scenes, the model recognizes the tool to call, what arguments it already has (location) and (date)
{
"tool_calls": [
{
"id": "call_abc123",
"type": "function",
"function": {
"name": "BookTravelPlugin-book_flight",
"arguments": "{'location': 'New York', 'date': '2025-01-01'}"
}
}
]
*/
Console.WriteLine(response.Content);
chatHistory.AddMessage(response!.Role, response!.Content!);
// Example AI Model Response: Your flight to New York on January 1, 2025, has been successfully booked. Safe travels! ✈️🗽
// Define a plugin that contains the function to book travel
public class BookTravelPlugin
{
[KernelFunction("book_flight")]
[Description("Book travel given location and date")]
public async Task<string> BookFlight(DateTime date, string location)
{
return await Task.FromResult( $"Travel was booked to {location} on {date}");
}
}
آنچه از این مثال میبینید این است که چگونه میتوانید از یک تجزیهکننده از پیش ساخته برای استخراج اطلاعات کلیدی از ورودی کاربر، مانند مبدا، مقصد و تاریخ درخواست رزرو پرواز استفاده کنید. این رویکرد ماژولار به شما امکان میدهد بر منطق سطح بالا تمرکز کنید.
چارچوبهایی مانند CrewAI، Microsoft AutoGen و Semantic Kernel امکان ایجاد عوامل متعدد را فراهم میکنند که میتوانند با یکدیگر کار کنند.
چگونه تیمها میتوانند از این موارد استفاده کنند: تیمها میتوانند عوامل را با نقشها و وظایف خاص طراحی کنند، امکان آزمایش و اصلاح جریانهای کاری همکاری و بهبود کارایی کلی سیستم.
چگونه در عمل کار میکند: شما میتوانید یک تیم از عوامل ایجاد کنید که هر عامل دارای یک عملکرد تخصصی است، مانند بازیابی دادهها، تحلیل یا تصمیمگیری. این عوامل میتوانند برای دستیابی به یک هدف مشترک، مانند پاسخ به یک پرسش کاربر یا تکمیل یک وظیفه، ارتباط برقرار کنند و اطلاعات را به اشتراک بگذارند.
نمونه کد (AutoGen):
# creating agents, then create a round robin schedule where they can work together, in this case in order
# Data Retrieval Agent
# Data Analysis Agent
# Decision Making Agent
agent_retrieve = AssistantAgent(
name="dataretrieval",
model_client=model_client,
tools=[retrieve_tool],
system_message="Use tools to solve tasks."
)
agent_analyze = AssistantAgent(
name="dataanalysis",
model_client=model_client,
tools=[analyze_tool],
system_message="Use tools to solve tasks."
)
# conversation ends when user says "APPROVE"
termination = TextMentionTermination("APPROVE")
user_proxy = UserProxyAgent("user_proxy", input_func=input)
team = RoundRobinGroupChat([agent_retrieve, agent_analyze, user_proxy], termination_condition=termination)
stream = team.run_stream(task="Analyze data", max_turns=10)
# Use asyncio.run(...) when running in a script.
await Console(stream)
آنچه در کد قبلی میبینید این است که چگونه میتوانید یک وظیفه را ایجاد کنید که شامل عوامل متعدد است که با یکدیگر برای تحلیل دادهها کار میکنند. هر عامل یک عملکرد خاص را انجام میدهد و وظیفه با هماهنگی عوامل برای دستیابی به نتیجه مطلوب اجرا میشود. با ایجاد عوامل اختصاصی با نقشهای تخصصی، میتوانید کارایی و عملکرد وظایف را بهبود بخشید.
چارچوبهای پیشرفته قابلیتهایی برای درک زمینه و سازگاری در زمان واقعی ارائه میدهند.
چگونه تیمها میتوانند از این موارد استفاده کنند: تیمها میتوانند حلقههای بازخوردی پیادهسازی کنند که در آن عوامل از تعاملات یاد میگیرند و رفتار خود را به صورت پویا تنظیم میکنند، که منجر به بهبود و اصلاح مداوم قابلیتها میشود.
چگونه در عمل کار میکند: عوامل میتوانند بازخورد کاربران، دادههای محیطی و نتایج وظایف را تحلیل کنند تا پایگاه دانش خود را بهروزرسانی کنند، الگوریتمهای تصمیمگیری را تنظیم کنند و عملکرد را در طول زمان بهبود بخشند. این فرآیند یادگیری تکراری به عوامل امکان میدهد با شرایط متغیر و ترجیحات کاربران سازگار شوند و اثربخشی کلی سیستم را افزایش دهند.
راههای زیادی برای مقایسه این چارچوبها وجود دارد، اما بیایید به برخی تفاوتهای کلیدی از نظر طراحی، قابلیتها و موارد استفاده هدفمند نگاه کنیم:
AutoGen یک چارچوب متنباز است که توسط آزمایشگاه AI Frontiers مایکروسافت ریسرچ توسعه یافته است. این چارچوب بر برنامههای عاملمحور توزیعشده و مبتنی بر رویداد تمرکز دارد و امکان استفاده از LLMها و SLMها، ابزارها و الگوهای طراحی پیشرفته چندعاملی را فراهم میکند.
AutoGen حول مفهوم اصلی عوامل ساخته شده است، که موجودیتهای خودمختاری هستند که میتوانند محیط خود را درک کنند، تصمیمگیری کنند و اقداماتی انجام دهند تا اهداف خاصی را محقق کنند. عوامل از طریق پیامهای غیرهمزمان ارتباط برقرار میکنند، که به آنها امکان میدهد به صورت مستقل و موازی کار کنند و مقیاسپذیری و پاسخگویی سیستم را افزایش دهند.
طبق تعریف ویکیپدیا، یک بازیگر بلوک سازنده اساسی محاسبات همزمان است. در پاسخ به پیامی که دریافت میکند، یک بازیگر میتواند: تصمیمات محلی بگیرد، بازیگران بیشتری ایجاد کند، پیامهای بیشتری ارسال کند و نحوه پاسخ به پیام بعدی دریافتی را تعیین کند.
موارد استفاده: خودکارسازی تولید کد، وظایف تحلیل دادهها و ساخت عوامل سفارشی برای برنامهریزی و عملکردهای تحقیقاتی.
در اینجا برخی از مفاهیم اصلی AutoGen آورده شده است:
در اینجا یک قطعه کد کوتاه آورده شده است که در آن شما عامل خود را با قابلیتهای چت ایجاد میکنید:
from autogen_agentchat.agents import AssistantAgent
from autogen_agentchat.messages import TextMessage
from autogen_ext.models.openai import OpenAIChatCompletionClient
class MyAssistant(RoutedAgent):
def __init__(self, name: str) -> None:
super().__init__(name)
model_client = OpenAIChatCompletionClient(model="gpt-4o")
self._delegate = AssistantAgent(name, model_client=model_client)
@message_handler
async def handle_my_message_type(self, message: MyMessageType, ctx: MessageContext) -> None:
print(f"{self.id.type} received message: {message.content}")
response = await self._delegate.on_messages(
[TextMessage(content=message.content, source="user")], ctx.cancellation_token
)
print(f"{self.id.type} responded: {response.chat_message.content}")
در کد قبلی، MyAssistant
ایجاد شده و از RoutedAgent
ارث میبرد. این عامل دارای یک مدیریتکننده پیام است که محتوای پیام را چاپ میکند و سپس با استفاده از نماینده AssistantAgent
پاسخ ارسال میکند. به ویژه توجه کنید که چگونه به self._delegate
یک نمونه از AssistantAgent
اختصاص داده میشود که یک عامل از پیش ساخته شده است و میتواند تکمیلهای چت را مدیریت کند.
بیایید AutoGen را از این نوع عامل مطلع کنیم و برنامه را شروع کنیم:
# main.py
runtime = SingleThreadedAgentRuntime()
await MyAgent.register(runtime, "my_agent", lambda: MyAgent())
runtime.start() # Start processing messages in the background.
await runtime.send_message(MyMessageType("Hello, World!"), AgentId("my_agent", "default"))
در کد قبلی، عوامل با زمان اجرا ثبت شدهاند و سپس یک پیام به عامل ارسال میشود که منجر به خروجی زیر میشود:
# Output from the console:
my_agent received message: Hello, World!
my_assistant received message: Hello, World!
my_assistant responded: Hello! How can I assist you today?
عوامل چندگانه. AutoGen از ایجاد عوامل متعدد که میتوانند با یکدیگر کار کنند برای دستیابی به وظایف پیچیده پشتیبانی میکند. عوامل میتوانند اطلاعات را به اشتراک بگذارند و اقدامات خود را هماهنگ کنند تا مشکلات را به طور کارآمدتر حل کنند. برای ایجاد یک سیستم چندعاملی، میتوانید انواع مختلفی از عوامل با عملکردها و نقشهای تخصصی تعریف کنید، مانند بازیابی دادهها، تحلیل، تصمیمگیری و تعامل با کاربر. بیایید ببینیم چنین ایجاد چگونه به نظر میرسد تا حس بهتری از آن داشته باشیم:
editor_description = "Editor for planning and reviewing the content."
# Example of declaring an Agent
editor_agent_type = await EditorAgent.register(
runtime,
editor_topic_type, # Using topic type as the agent type.
lambda: EditorAgent(
description=editor_description,
group_chat_topic_type=group_chat_topic_type,
model_client=OpenAIChatCompletionClient(
model="gpt-4o-2024-08-06",
# api_key="YOUR_API_KEY",
),
),
)
# remaining declarations shortened for brevity
# Group chat
group_chat_manager_type = await GroupChatManager.register(
runtime,
"group_chat_manager",
lambda: GroupChatManager(
participant_topic_types=[writer_topic_type, illustrator_topic_type, editor_topic_type, user_topic_type],
model_client=OpenAIChatCompletionClient(
model="gpt-4o-2024-08-06",
# api_key="YOUR_API_KEY",
),
participant_descriptions=[
writer_description,
illustrator_description,
editor_description,
user_description
],
),
)
در کد قبلی، یک GroupChatManager
با زمان اجرا ثبت شده است. این مدیر مسئول هماهنگی تعاملات بین انواع مختلف عوامل، مانند نویسندگان، تصویرگران، ویراستاران و کاربران است.
زمان اجرای مستقل. این گزینه خوبی برای برنامههای تکفرآیندی است که در آن همه عوامل در همان زبان برنامهنویسی پیادهسازی شدهاند و در همان فرآیند اجرا میشوند. در اینجا یک تصویر از نحوه کار آن آورده شده است:
پشته برنامه
عوامل از طریق پیامها از طریق زمان اجرا ارتباط برقرار میکنند و زمان اجرا چرخه عمر عوامل را مدیریت میکند
زمان اجرای عامل توزیعشده، برای برنامههای چندفرآیندی مناسب است که در آن عوامل ممکن است در زبانهای برنامهنویسی مختلف پیادهسازی شده باشند و روی ماشینهای مختلف اجرا شوند. در اینجا یک تصویر از نحوه کار آن آورده شده است:
Semantic Kernel یک SDK ارکستراسیون هوش مصنوعی آماده برای سازمانها است. این SDK شامل اتصالدهندههای هوش مصنوعی و حافظه، همراه با یک چارچوب عامل است.
ابتدا برخی از اجزای اصلی را پوشش دهیم:
اتصالدهندههای هوش مصنوعی: این رابطی با خدمات هوش مصنوعی خارجی و منابع داده برای استفاده در هر دو زبان Python و C# است.
# Semantic Kernel Python
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion
from semantic_kernel.kernel import Kernel
kernel = Kernel()
kernel.add_service(
AzureChatCompletion(
deployment_name="your-deployment-name",
api_key="your-api-key",
endpoint="your-endpoint",
)
)
// Semantic Kernel C#
using Microsoft.SemanticKernel;
// Create kernel
var builder = Kernel.CreateBuilder();
// Add a chat completion service:
builder.Services.AddAzureOpenAIChatCompletion(
"your-resource-name",
"your-endpoint",
"your-resource-key",
"deployment-model");
var kernel = builder.Build();
در اینجا یک مثال ساده از نحوه ایجاد یک هسته و افزودن یک سرویس تکمیل چت آورده شده است. Semantic Kernel یک اتصال به یک سرویس هوش مصنوعی خارجی ایجاد میکند، در این مورد، Azure OpenAI Chat Completion.
افزونهها: اینها توابعی را که یک برنامه میتواند استفاده کند، کپسوله میکنند. افزونههای آماده و سفارشی وجود دارند که میتوانید ایجاد کنید. یک مفهوم مرتبط “توابع درخواست” است. به جای ارائه نشانههای زبان طبیعی برای فراخوانی توابع، شما برخی توابع را به مدل اعلام میکنید. بر اساس زمینه چت فعلی، مدل ممکن است یکی از این توابع را برای تکمیل یک درخواست یا پرسش فراخوانی کند. در اینجا یک مثال آورده شده است:
from semantic_kernel.connectors.ai.open_ai.services.azure_chat_completion import AzureChatCompletion
async def main():
from semantic_kernel.functions import KernelFunctionFromPrompt
from semantic_kernel.kernel import Kernel
kernel = Kernel()
kernel.add_service(AzureChatCompletion())
user_input = input("User Input:> ")
kernel_function = KernelFunctionFromPrompt(
function_name="SummarizeText",
prompt="""
Summarize the provided unstructured text in a sentence that is easy to understand.
Text to summarize:
""",
)
response = await kernel_function.invoke(kernel=kernel, user_input=user_input)
print(f"Model Response: {response}")
"""
Sample Console Output:
User Input:> I like dogs
Model Response: The text expresses a preference for dogs.
"""
if __name__ == "__main__":
import asyncio
asyncio.run(main())
var userInput = Console.ReadLine();
// Define semantic function inline.
string skPrompt = @"Summarize the provided unstructured text in a sentence that is easy to understand.
Text to summarize: ";
// create the function from the prompt
KernelFunction summarizeFunc = kernel.CreateFunctionFromPrompt(
promptTemplate: skPrompt,
functionName: "SummarizeText"
);
//then import into the current kernel
kernel.ImportPluginFromFunctions("SemanticFunctions", [summarizeFunc]);
در اینجا، ابتدا یک قالب درخواست skPrompt
دارید که فضایی برای ورودی کاربر، $userInput
باقی میگذارد. سپس شما تابع هسته SummarizeText
را ایجاد میکنید و سپس آن را با نام افزونه SemanticFunctions
به هسته وارد میکنید. توجه کنید به نام تابع که به Semantic Kernel کمک میکند بفهمد تابع چه کاری انجام میدهد و چه زمانی باید فراخوانی شود.
تابع بومی: همچنین توابع بومی وجود دارند که چارچوب میتواند مستقیماً برای انجام وظیفه فراخوانی کند. در اینجا یک مثال از چنین تابعی که محتوا را از یک فایل بازیابی میکند آورده شده است:
public class NativeFunctions {
[SKFunction, Description("Retrieve content from local file")]
public async Task<string> RetrieveLocalFile(string fileName, int maxSize = 5000)
{
string content = await File.ReadAllTextAsync(fileName);
if (content.Length <= maxSize) return content;
return content.Substring(0, maxSize);
}
}
//Import native function
string plugInName = "NativeFunction";
string functionName = "RetrieveLocalFile";
//To add the functions to a kernel use the following function
kernel.ImportPluginFromType<NativeFunctions>();
حافظه: مدیریت زمینه برای برنامههای هوش مصنوعی را انتزاع و ساده میکند. ایده حافظه این است که این چیزی است که LLM باید درباره آن بداند. شما میتوانید این اطلاعات را در یک ذخیرهسازی برداری ذخیره کنید که در نهایت یک پایگاه داده در حافظه یا یک پایگاه داده برداری یا مشابه آن خواهد بود. در اینجا یک مثال از یک سناریوی بسیار ساده آورده شده است که در آن حقایق به حافظه اضافه میشوند:
var facts = new Dictionary<string,string>();
facts.Add(
"Azure Machine Learning; https://learn.microsoft.com/azure/machine-learning/",
@"Azure Machine Learning is a cloud service for accelerating and
managing the machine learning project lifecycle. Machine learning professionals,
data scientists, and engineers can use it in their day-to-day workflows"
);
facts.Add(
"Azure SQL Service; https://learn.microsoft.com/azure/azure-sql/",
@"Azure SQL is a family of managed, secure, and intelligent products
that use the SQL Server database engine in the Azure cloud."
);
string memoryCollectionName = "SummarizedAzureDocs";
foreach (var fact in facts) {
await memoryBuilder.SaveReferenceAsync(
collection: memoryCollectionName,
description: fact.Key.Split(";")[1].Trim(),
text: fact.Value,
externalId: fact.Key.Split(";")[2].Trim(),
externalSourceName: "Azure Documentation"
);
}
این حقایق سپس در مجموعه حافظه SummarizedAzureDocs
ذخیره میشوند. این یک مثال بسیار ساده است، اما میتوانید ببینید که چگونه میتوانید اطلاعات را در حافظه ذخیره کنید تا LLM از آن استفاده کند.
پس این اصول اولیه چارچوب Semantic Kernel بود، حالا چارچوب Agent Framework چیست؟
سرویس Azure AI Agent یک افزوده جدیدتر است که در Microsoft Ignite 2024 معرفی شد. این سرویس امکان توسعه و استقرار عوامل هوش مصنوعی با مدلهای انعطافپذیرتر را فراهم میکند، مانند فراخوانی مستقیم مدلهای LLM متنباز مثل Llama 3، Mistral و Cohere.
سرویس Azure AI Agent مکانیزمهای امنیتی قویتر و روشهای ذخیرهسازی داده برای سازمانها ارائه میدهد که آن را برای کاربردهای سازمانی مناسب میسازد.
این سرویس بهصورت پیشفرض با چارچوبهای ارکستراسیون چندعاملی مانند AutoGen و Semantic Kernel کار میکند.
این سرویس در حال حاضر در مرحله پیشنمایش عمومی قرار دارد و از زبانهای Python و C# برای ساخت عوامل پشتیبانی میکند.
با استفاده از Semantic Kernel Python، میتوانیم یک عامل Azure AI با یک افزونه تعریفشده توسط کاربر ایجاد کنیم:
import asyncio
from typing import Annotated
from azure.identity.aio import DefaultAzureCredential
from semantic_kernel.agents import AzureAIAgent, AzureAIAgentSettings, AzureAIAgentThread
from semantic_kernel.contents import ChatMessageContent
from semantic_kernel.contents import AuthorRole
from semantic_kernel.functions import kernel_function
# Define a sample plugin for the sample
class MenuPlugin:
"""A sample Menu Plugin used for the concept sample."""
@kernel_function(description="Provides a list of specials from the menu.")
def get_specials(self) -> Annotated[str, "Returns the specials from the menu."]:
return """
Special Soup: Clam Chowder
Special Salad: Cobb Salad
Special Drink: Chai Tea
"""
@kernel_function(description="Provides the price of the requested menu item.")
def get_item_price(
self, menu_item: Annotated[str, "The name of the menu item."]
) -> Annotated[str, "Returns the price of the menu item."]:
return "$9.99"
async def main() -> None:
ai_agent_settings = AzureAIAgentSettings.create()
async with (
DefaultAzureCredential() as creds,
AzureAIAgent.create_client(
credential=creds,
conn_str=ai_agent_settings.project_connection_string.get_secret_value(),
) as client,
):
# Create agent definition
agent_definition = await client.agents.create_agent(
model=ai_agent_settings.model_deployment_name,
name="Host",
instructions="Answer questions about the menu.",
)
# Create the AzureAI Agent using the defined client and agent definition
agent = AzureAIAgent(
client=client,
definition=agent_definition,
plugins=[MenuPlugin()],
)
# Create a thread to hold the conversation
# If no thread is provided, a new thread will be
# created and returned with the initial response
thread: AzureAIAgentThread | None = None
user_inputs = [
"Hello",
"What is the special soup?",
"How much does that cost?",
"Thank you",
]
try:
for user_input in user_inputs:
print(f"# User: '{user_input}'")
# Invoke the agent for the specified thread
response = await agent.get_response(
messages=user_input,
thread_id=thread,
)
print(f"# {response.name}: {response.content}")
thread = response.thread
finally:
await thread.delete() if thread else None
await client.agents.delete_agent(agent.id)
if __name__ == "__main__":
asyncio.run(main())
سرویس Azure AI Agent دارای مفاهیم اصلی زیر است:
عامل. سرویس Azure AI Agent با Azure AI Foundry یکپارچه شده است. در AI Foundry، یک عامل هوش مصنوعی بهعنوان یک میکروسرویس “هوشمند” عمل میکند که میتواند برای پاسخ به سوالات (RAG)، انجام اقدامات یا خودکارسازی کامل جریانهای کاری استفاده شود. این کار را با ترکیب قدرت مدلهای هوش مصنوعی مولد با ابزارهایی که به آن امکان دسترسی و تعامل با منابع داده واقعی را میدهند، انجام میدهد. در اینجا یک مثال از یک عامل آورده شده است:
agent = project_client.agents.create_agent(
model="gpt-4o-mini",
name="my-agent",
instructions="You are helpful agent",
tools=code_interpreter.definitions,
tool_resources=code_interpreter.resources,
)
در این مثال، یک عامل با مدل gpt-4o-mini
، نام my-agent
و دستورالعملهای You are helpful agent
ایجاد شده است. این عامل با ابزارها و منابعی تجهیز شده است تا وظایف تفسیر کد را انجام دهد.
رشته و پیامها. رشته یکی دیگر از مفاهیم مهم است. رشته نمایانگر یک مکالمه یا تعامل بین یک عامل و یک کاربر است. رشتهها میتوانند برای پیگیری پیشرفت مکالمه، ذخیره اطلاعات زمینهای و مدیریت وضعیت تعامل استفاده شوند. در اینجا یک مثال از یک رشته آورده شده است:
thread = project_client.agents.create_thread()
message = project_client.agents.create_message(
thread_id=thread.id,
role="user",
content="Could you please create a bar chart for the operating profit using the following data and provide the file to me? Company A: $1.2 million, Company B: $2.5 million, Company C: $3.0 million, Company D: $1.8 million",
)
# Ask the agent to perform work on the thread
run = project_client.agents.create_and_process_run(thread_id=thread.id, agent_id=agent.id)
# Fetch and log all messages to see the agent's response
messages = project_client.agents.list_messages(thread_id=thread.id)
print(f"Messages: {messages}")
در کد قبلی، یک رشته ایجاد شده است. سپس یک پیام به رشته ارسال میشود. با فراخوانی create_and_process_run
، از عامل خواسته میشود که روی رشته کار کند. در نهایت، پیامها بازیابی و ثبت میشوند تا پاسخ عامل مشاهده شود. پیامها پیشرفت مکالمه بین کاربر و عامل را نشان میدهند. همچنین مهم است که بدانید پیامها میتوانند انواع مختلفی مانند متن، تصویر یا فایل داشته باشند، به این معنا که کار عامل ممکن است منجر به تولید یک تصویر یا پاسخ متنی شود. بهعنوان یک توسعهدهنده، میتوانید از این اطلاعات برای پردازش بیشتر پاسخ یا ارائه آن به کاربر استفاده کنید.
یکپارچگی با سایر چارچوبهای هوش مصنوعی. سرویس Azure AI Agent میتواند با سایر چارچوبها مانند AutoGen و Semantic Kernel تعامل داشته باشد، به این معنا که میتوانید بخشی از برنامه خود را در یکی از این چارچوبها بسازید و بهعنوان مثال از سرویس Agent بهعنوان یک ارکستراتور استفاده کنید یا همه چیز را در سرویس Agent بسازید.
موارد استفاده: سرویس Azure AI Agent برای کاربردهای سازمانی طراحی شده است که نیاز به استقرار عوامل هوش مصنوعی امن، مقیاسپذیر و انعطافپذیر دارند.
به نظر میرسد که بین این چارچوبها همپوشانی زیادی وجود دارد، اما تفاوتهای کلیدی در طراحی، قابلیتها و موارد استفاده هدف وجود دارد:
هنوز مطمئن نیستید کدام را انتخاب کنید؟
بیایید با مرور برخی موارد استفاده رایج به شما کمک کنیم:
سوال: من در حال آزمایش، یادگیری و ساخت برنامههای نمونه اولیه عامل هستم و میخواهم بتوانم سریع بسازم و آزمایش کنم.
پاسخ: AutoGen برای این سناریو انتخاب خوبی است، زیرا بر برنامههای عاملمحور رویدادمحور و توزیعشده تمرکز دارد و از الگوهای طراحی پیشرفته چندعاملی پشتیبانی میکند.
سوال: چه چیزی باعث میشود AutoGen برای این مورد استفاده بهتر از Semantic Kernel و Azure AI Agent Service باشد؟
پاسخ: AutoGen بهطور خاص برای برنامههای عاملمحور رویدادمحور و توزیعشده طراحی شده است، که آن را برای خودکارسازی وظایف تولید کد و تحلیل دادهها مناسب میسازد. ابزارها و قابلیتهای لازم برای ساخت سیستمهای پیچیده چندعاملی را بهطور کارآمد فراهم میکند.
سوال: به نظر میرسد Azure AI Agent Service هم میتواند اینجا کار کند، ابزارهایی برای تولید کد و موارد دیگر دارد؟
پاسخ: بله، سرویس Azure AI Agent یک سرویس پلتفرم برای عوامل است و قابلیتهای داخلی برای مدلهای متعدد، Azure AI Search، Bing Search و Azure Functions اضافه میکند. این سرویس ساخت عوامل در پورتال Foundry و استقرار آنها در مقیاس را آسان میکند.
سوال: هنوز گیج هستم، فقط یک گزینه به من بدهید.
پاسخ: یک انتخاب عالی این است که ابتدا برنامه خود را در Semantic Kernel بسازید و سپس از سرویس Azure AI Agent برای استقرار عامل خود استفاده کنید. این رویکرد به شما امکان میدهد عوامل خود را بهراحتی حفظ کنید و در عین حال از قدرت ساخت سیستمهای چندعاملی در Semantic Kernel بهرهمند شوید. علاوه بر این، Semantic Kernel یک اتصالدهنده در AutoGen دارد که استفاده از هر دو چارچوب را با هم آسان میکند.
بیایید تفاوتهای کلیدی را در یک جدول خلاصه کنیم:
چارچوب | تمرکز | مفاهیم اصلی | موارد استفاده |
---|---|---|---|
AutoGen | برنامههای عاملمحور رویدادمحور و توزیعشده | عوامل، شخصیتها، توابع، دادهها | تولید کد، وظایف تحلیل دادهها |
Semantic Kernel | درک و تولید محتوای متنی شبیه انسان | عوامل، اجزای ماژولار، همکاری | درک زبان طبیعی، تولید محتوا |
Azure AI Agent Service | مدلهای انعطافپذیر، امنیت سازمانی، تولید کد، فراخوانی ابزار | ماژولار بودن، همکاری، ارکستراسیون فرآیند | استقرار عوامل هوش مصنوعی امن، مقیاسپذیر و انعطافپذیر |
موارد استفاده ایدهآل برای هر یک از این چارچوبها چیست؟
پاسخ مثبت است، شما میتوانید ابزارهای موجود در اکوسیستم Azure خود را مستقیماً با سرویس Azure AI Agent یکپارچه کنید، بهویژه به این دلیل که این سرویس برای کار بدون مشکل با سایر خدمات Azure ساخته شده است. بهعنوان مثال، میتوانید Bing، Azure AI Search و Azure Functions را یکپارچه کنید. همچنین یکپارچگی عمیق با Azure AI Foundry وجود دارد.
برای AutoGen و Semantic Kernel، شما نیز میتوانید با خدمات Azure یکپارچه شوید، اما ممکن است نیاز باشد که خدمات Azure را از کد خود فراخوانی کنید. روش دیگر برای یکپارچهسازی این است که از SDKهای Azure برای تعامل با خدمات Azure از عوامل خود استفاده کنید. علاوه بر این، همانطور که ذکر شد، میتوانید از سرویس Azure AI Agent بهعنوان یک ارکستراتور برای عوامل ساختهشده در AutoGen یا Semantic Kernel استفاده کنید که دسترسی آسان به اکوسیستم Azure را فراهم میکند.
به Discord Azure AI Foundry بپیوندید تا با سایر یادگیرندگان ملاقات کنید، در ساعات اداری شرکت کنید و سوالات خود درباره عوامل هوش مصنوعی را پاسخ دهید.
مقدمهای بر عوامل هوش مصنوعی و موارد استفاده از عوامل
سلب مسئولیت:
این سند با استفاده از سرویس ترجمه هوش مصنوعی Co-op Translator ترجمه شده است. در حالی که ما برای دقت تلاش میکنیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است شامل خطاها یا نادرستیهایی باشند. سند اصلی به زبان اصلی آن باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حساس، ترجمه حرفهای انسانی توصیه میشود. ما هیچ مسئولیتی در قبال سوءتفاهمها یا تفسیرهای نادرست ناشی از استفاده از این ترجمه نداریم.