(上の画像をクリックすると、このレッスンの動画をご覧いただけます)
ツールは、AIエージェントがより広範な能力を持つことを可能にするため、興味深いものです。エージェントが実行できるアクションが限られている代わりに、ツールを追加することでエージェントはいまや幅広いアクションを実行できます。この章では、AIエージェントが特定のツールを使って目標を達成する方法を説明するツール使用デザインパターンについて見ていきます。
このレッスンでは、以下の質問に答えようとしています:
このレッスンを修了した後、あなたは以下のことができるようになります:
ツール使用デザインパターンは、LLMに外部ツールと連携して特定の目標を達成する能力を持たせることに重点を置いています。ツールは、エージェントがアクションを実行するために呼び出せるコードです。ツールは、計算機のような単純な関数であったり、株価照会や天気予報など第三者サービスへのAPI呼び出しであったりします。AIエージェントの文脈では、ツールはモデル生成の関数呼び出しに応じてエージェントが実行するために設計されています。
AIエージェントはツールを活用して複雑なタスクを完了したり、情報を取得したり、意思決定を行ったりできます。ツール使用デザインパターンは、データベース、ウェブサービス、コードインタープリターなど外部システムと動的に連携する必要があるシナリオでよく利用されます。この能力は以下を含む様々なユースケースに役立ちます:
これらの構成ブロックにより、AIエージェントは幅広いタスクを実行できます。ツール使用デザインパターンを実装するために必要な主要な要素を見てみましょう:
関数/ツールスキーマ:利用可能なツールの詳細定義(関数名、目的、必要なパラメーター、期待される出力)です。これによりLLMは、どのツールが利用可能でどのように有効なリクエストを構築するかを理解できます。
関数実行ロジック:ユーザーの意図や会話コンテキストに基づき、ツールの呼び出し方法とタイミングを管理します。プランナーモジュール、ルーティング機構、条件付きフローなど、動的にツール利用を決定するものが含まれます。
メッセージ処理システム:ユーザー入力、LLM応答、ツール呼び出し、ツール出力の会話フローを管理するコンポーネント。
ツール統合フレームワーク:単純な関数や複雑な外部サービスのいずれであっても、エージェントとツールを接続するインフラストラクチャ。
エラー処理と検証:ツールの実行失敗を処理し、パラメーターの検証や予期しない応答を管理する仕組み。
状態管理:会話コンテキスト、過去のツールインタラクション、永続データを追跡し、複数ターンの対話で一貫性を保証。
次に、関数/ツール呼び出しについて詳細を見ていきましょう。
関数呼び出しは、LLM(大規模言語モデル)にツールと連携する方法を提供する主要な手段です。「関数」と「ツール」はしばしば同義で使われます。なぜなら、「関数」(再利用可能なコードのブロック)はエージェントがタスクを実行するための「ツール」だからです。関数のコードを呼び出すために、LLMはユーザーのリクエストを関数の説明と比較します。そのために、利用可能なすべての関数の説明を含むスキーマをLLMに送ります。LLMはタスクに最も適切な関数を選択し、その名前と引数を返します。選択された関数が呼び出され、その応答がLLMに戻され、LLMはそれを使ってユーザーのリクエストに応答します。
開発者がエージェントのために関数呼び出しを実装するには、以下が必要です:
都市の現在時刻を取得する例を使って説明します:
関数呼び出しをサポートするLLMを初期化:
関数呼び出しをサポートするモデルを使用しているか確認することが重要です。 Azure OpenAI は関数呼び出しをサポートしています。まずAzure OpenAIクライアントを初期化します。
# Azure OpenAI クライアントを初期化する
client = AzureOpenAI(
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
api_version="2024-05-01-preview"
)
関数スキーマを作成:
次に、関数名、関数の説明、パラメーター名および説明を含むJSONスキーマを定義します。 このスキーマを先ほど作成したクライアントに渡し、ユーザーの「サンフランシスコの時間を調べる」リクエストと共に送信します。重要なのは、ツール呼び出しが返されることであり、質問の最終回答ではありません。冒頭で述べたように、LLMはタスクのために選択した関数名とその引数を返します。
# モデルが読むための関数の説明
tools = [
{
"type": "function",
"function": {
"name": "get_current_time",
"description": "Get the current time in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city name, e.g. San Francisco",
},
},
"required": ["location"],
},
}
}
]
# 初期ユーザーメッセージ
messages = [{"role": "user", "content": "What's the current time in San Francisco"}]
# 最初のAPIコール:モデルに関数の使用を依頼
response = client.chat.completions.create(
model=deployment_name,
messages=messages,
tools=tools,
tool_choice="auto",
)
# モデルの応答を処理する
response_message = response.choices[0].message
messages.append(response_message)
print("Model's response:")
print(response_message)
Model's response:
ChatCompletionMessage(content=None, role='assistant', function_call=None, tool_calls=[ChatCompletionMessageToolCall(id='call_pOsKdUlqvdyttYB67MOj434b', function=Function(arguments='{"location":"San Francisco"}', name='get_current_time'), type='function')])
タスクを実行する関数コード:
LLMがどの関数を実行するか選択したので、そのタスクを実行するコードを実装し呼び出す必要があります。 Pythonで現在時刻を取得するコードを実装します。また、レスポンスメッセージから関数名と引数を抽出して最終結果を取得するコードも書きます。
def get_current_time(location):
"""Get the current time for a given location"""
print(f"get_current_time called with location: {location}")
location_lower = location.lower()
for key, timezone in TIMEZONE_DATA.items():
if key in location_lower:
print(f"Timezone found for {key}")
current_time = datetime.now(ZoneInfo(timezone)).strftime("%I:%M %p")
return json.dumps({
"location": location,
"current_time": current_time
})
print(f"No timezone data found for {location_lower}")
return json.dumps({"location": location, "current_time": "unknown"})
# 関数呼び出しを処理する
if response_message.tool_calls:
for tool_call in response_message.tool_calls:
if tool_call.function.name == "get_current_time":
function_args = json.loads(tool_call.function.arguments)
time_response = get_current_time(
location=function_args.get("location")
)
messages.append({
"tool_call_id": tool_call.id,
"role": "tool",
"name": "get_current_time",
"content": time_response,
})
else:
print("No tool calls were made by the model.")
# 2回目のAPI呼び出し:モデルから最終応答を取得する
final_response = client.chat.completions.create(
model=deployment_name,
messages=messages,
)
return final_response.choices[0].message.content
get_current_time called with location: San Francisco
Timezone found for san francisco
The current time in San Francisco is 09:24 AM.
関数呼び出しは、ほとんど(あるいはすべての)エージェントのツール使用デザインの中心です。しかし、ゼロから実装するのは時に困難な場合があります。 レッスン2で学んだように、エージェントフレームワークはツール使用のための事前構築済み構成ブロックを提供しています。
異なるエージェントフレームワークを使用してツール使用デザインパターンを実装する例をいくつか紹介します:
Semantic Kernel は、.NET、Python、Java開発者向けのオープンソースAIフレームワークで、大規模言語モデル(LLM)と連携します。関数の説明とパラメーターを自動的にモデルに伝えるシリアライズを通じて関数呼び出しのプロセスを簡素化し、モデルとコード間のやりとりも扱います。また、Semantic Kernelのようなエージェントフレームワークを使うもう一つの利点は、ファイル検索やコードインタープリターなどの事前構築済みツールにアクセスできることです。
以下の図はSemantic Kernelによる関数呼び出しのプロセスを示しています:

Semantic Kernelでは関数/ツールはプラグインと呼ばれます。先ほどのget_current_time関数を、関数を含むクラスに変えてプラグインに変換できます。さらにkernel_functionデコレーターをインポートして関数説明を渡します。GetCurrentTimePluginでカーネルを作成すると、カーネルは関数とパラメーターを自動的にシリアライズし、LLMに送信するスキーマを作成します。
from semantic_kernel.functions import kernel_function
class GetCurrentTimePlugin:
async def __init__(self, location):
self.location = location
@kernel_function(
description="Get the current time for a given location"
)
def get_current_time(location: str = ""):
...
from semantic_kernel import Kernel
# カーネルを作成する
kernel = Kernel()
# プラグインを作成する
get_current_time_plugin = GetCurrentTimePlugin(location)
# プラグインをカーネルに追加する
kernel.add_plugin(get_current_time_plugin)
Azure AI Agent Service は、開発者が基盤となる計算・ストレージリソースを管理せずに、高品質で拡張性のあるAIエージェントを安全に構築、デプロイ、スケールできるよう設計された新しいエージェントフレームワークです。特に企業向けアプリケーションに有用で、企業レベルのセキュリティを備えた完全マネージドサービスです。
LLM APIを直接使う場合と比べてAzure AI Agent Serviceが提供する利点には以下が含まれます:
Azure AI Agent Serviceのツールは以下の2つのカテゴリに分かれます:
エージェントサービスはこれらのツールをtoolsetとしてまとめて使うことができます。また、特定の会話履歴を管理するthreadsも利用します。
あなたがContoso社の営業担当者で、販売データに関する質問に答えられる会話型エージェントを開発したいと想像してください。
次の画像は、Azure AI Agent Serviceで販売データを分析する方法の例を示しています:

これらのツールをサービスで使うには、クライアントを作成しツールやツールセットを定義します。実際の実装例を以下のPythonコードで示します。LLMはツールセットを見て、ユーザー作成の関数fetch_sales_data_using_sqlite_queryを使うか、組み込みのコードインタープリターを使うか決定します。
import os
from azure.ai.projects import AIProjectClient
from azure.identity import DefaultAzureCredential
from fetch_sales_data_functions import fetch_sales_data_using_sqlite_query # fetch_sales_data_functions.py ファイルにある fetch_sales_data_using_sqlite_query 関数。
from azure.ai.projects.models import ToolSet, FunctionTool, CodeInterpreterTool
project_client = AIProjectClient.from_connection_string(
credential=DefaultAzureCredential(),
conn_str=os.environ["PROJECT_CONNECTION_STRING"],
)
# ツールセットを初期化する
toolset = ToolSet()
# fetch_sales_data_using_sqlite_query 関数で関数呼び出しエージェントを初期化し、ツールセットに追加する
fetch_data_function = FunctionTool(fetch_sales_data_using_sqlite_query)
toolset.add(fetch_data_function)
# コードインタープリター・ツールを初期化し、ツールセットに追加する。
code_interpreter = code_interpreter = CodeInterpreterTool()
toolset.add(code_interpreter)
agent = project_client.agents.create_agent(
model="gpt-4o-mini", name="my-agent", instructions="You are helpful agent",
toolset=toolset
)
LLMが動的に生成するSQLに関してよくある懸念はセキュリティで、特にSQLインジェクションやデータベースの破壊や改ざんといった悪意ある行為のリスクです。これらの懸念は適切なデータベースアクセス権限の設定によって効果的に軽減できます。ほとんどのデータベースでは、データベースを読み取り専用に設定することが関係します。PostgreSQLやAzure SQLのようなデータベースサービスの場合、アプリには読み取り専用(SELECT)ロールを割り当てるべきです。
アプリを安全な環境で実行することも保護を強化します。企業のシナリオでは、データは通常、運用システムから抽出・変換されて、読み取り専用のデータベースまたはデータウェアハウスにユーザーフレンドリーなスキーマで格納されます。このアプローチにより、データは安全で、性能とアクセス性が最適化され、アプリは制限された読み取り専用アクセス権しか持ちません。
Microsoft Foundry Discordに参加して、他の学習者と交流したり、オフィスアワーに参加してAIエージェントに関する質問を解決しましょう。
免責事項:
本書類はAI翻訳サービス「Co-op Translator」(https://github.com/Azure/co-op-translator)を使用して翻訳されました。正確性を期しておりますが、自動翻訳には誤りや不正確な箇所が含まれる可能性があります。原文の言語による文書を正式な情報源としてご参考ください。重要な情報については、専門の人間による翻訳を推奨いたします。本翻訳の使用によって生じたいかなる誤解や解釈の相違についても、一切の責任を負いかねます。