(Κάντε κλικ στην εικόνα παραπάνω για να δείτε το βίντεο αυτού του μαθήματος)
Τα εργαλεία είναι ενδιαφέροντα γιατί επιτρέπουν στους πράκτορες AI να έχουν ένα ευρύτερο φάσμα δυνατοτήτων. Αντί ο πράκτορας να έχει ένα περιορισμένο σύνολο ενεργειών που μπορεί να εκτελέσει, με την προσθήκη ενός εργαλείου, ο πράκτορας μπορεί τώρα να εκτελέσει μια μεγάλη ποικιλία ενεργειών. Σε αυτό το κεφάλαιο, θα εξετάσουμε το Σχέδιο Χρήσης Εργαλείων, το οποίο περιγράφει πώς οι πράκτορες AI μπορούν να χρησιμοποιούν συγκεκριμένα εργαλεία για να επιτύχουν τους στόχους τους.
Σε αυτό το μάθημα, θα προσπαθήσουμε να απαντήσουμε στις παρακάτω ερωτήσεις:
Μετά την ολοκλήρωση αυτού του μαθήματος, θα μπορείτε να:
Το Σχέδιο Χρήσης Εργαλείων επικεντρώνεται στο να δώσει στα LLMs τη δυνατότητα να αλληλεπιδρούν με εξωτερικά εργαλεία για να επιτύχουν συγκεκριμένους στόχους. Τα εργαλεία είναι κώδικας που μπορεί να εκτελεστεί από έναν πράκτορα για να πραγματοποιήσει ενέργειες. Ένα εργαλείο μπορεί να είναι μια απλή λειτουργία, όπως ένας υπολογιστής, ή μια κλήση API σε μια υπηρεσία τρίτου μέρους, όπως η αναζήτηση τιμών μετοχών ή η πρόβλεψη καιρού. Στο πλαίσιο των πρακτόρων AI, τα εργαλεία σχεδιάζονται για να εκτελούνται από πράκτορες ως απάντηση σε κλήσεις λειτουργιών που δημιουργούνται από το μοντέλο.
Οι πράκτορες AI μπορούν να αξιοποιήσουν εργαλεία για να ολοκληρώσουν σύνθετες εργασίες, να ανακτήσουν πληροφορίες ή να λάβουν αποφάσεις. Το σχέδιο χρήσης εργαλείων χρησιμοποιείται συχνά σε σενάρια που απαιτούν δυναμική αλληλεπίδραση με εξωτερικά συστήματα, όπως βάσεις δεδομένων, διαδικτυακές υπηρεσίες ή διερμηνείς κώδικα. Αυτή η δυνατότητα είναι χρήσιμη για διάφορες περιπτώσεις χρήσης, όπως:
Αυτά τα δομικά μέρη επιτρέπουν στον πράκτορα AI να εκτελεί ένα ευρύ φάσμα εργασιών. Ας δούμε τα βασικά στοιχεία που χρειάζονται για την υλοποίηση του Σχεδίου Χρήσης Εργαλείων:
Σχήματα Λειτουργιών/Εργαλείων: Λεπτομερείς ορισμοί των διαθέσιμων εργαλείων, συμπεριλαμβανομένων του ονόματος της λειτουργίας, του σκοπού, των απαιτούμενων παραμέτρων και των αναμενόμενων αποτελεσμάτων. Αυτά τα σχήματα επιτρέπουν στο LLM να κατανοήσει ποια εργαλεία είναι διαθέσιμα και πώς να κατασκευάσει έγκυρα αιτήματα.
Λογική Εκτέλεσης Λειτουργιών: Καθορίζει πώς και πότε καλούνται τα εργαλεία βάσει της πρόθεσης του χρήστη και του πλαισίου της συνομιλίας. Αυτό μπορεί να περιλαμβάνει μονάδες σχεδιασμού, μηχανισμούς δρομολόγησης ή ροές υπό όρους που καθορίζουν τη χρήση εργαλείων δυναμικά.
Σύστημα Διαχείρισης Μηνυμάτων: Συστατικά που διαχειρίζονται τη ροή της συνομιλίας μεταξύ εισόδων χρήστη, απαντήσεων LLM, κλήσεων εργαλείων και εξόδων εργαλείων.
Πλαίσιο Ενσωμάτωσης Εργαλείων: Υποδομή που συνδέει τον πράκτορα με διάφορα εργαλεία, είτε είναι απλές λειτουργίες είτε σύνθετες εξωτερικές υπηρεσίες.
Διαχείριση Σφαλμάτων & Επικύρωση: Μηχανισμοί για τη διαχείριση αποτυχιών στην εκτέλεση εργαλείων, την επικύρωση παραμέτρων και τη διαχείριση απροσδόκητων απαντήσεων.
Διαχείριση Κατάστασης: Παρακολουθεί το πλαίσιο της συνομιλίας, προηγούμενες αλληλεπιδράσεις εργαλείων και επίμονα δεδομένα για να εξασφαλίσει συνέπεια σε πολυγυρισμένες αλληλεπιδράσεις.
Στη συνέχεια, ας δούμε την Κλήση Λειτουργιών/Εργαλείων πιο αναλυτικά.
Η κλήση λειτουργιών είναι ο κύριος τρόπος με τον οποίο επιτρέπουμε στα Μεγάλα Γλωσσικά Μοντέλα (LLMs) να αλληλεπιδρούν με εργαλεία. Συχνά θα δείτε τους όρους ‘Λειτουργία’ και ‘Εργαλείο’ να χρησιμοποιούνται εναλλακτικά, γιατί οι ‘λειτουργίες’ (μπλοκ επαναχρησιμοποιήσιμου κώδικα) είναι τα ‘εργαλεία’ που χρησιμοποιούν οι πράκτορες για να εκτελέσουν εργασίες. Για να εκτελεστεί ο κώδικας μιας λειτουργίας, ένα LLM πρέπει να συγκρίνει το αίτημα του χρήστη με την περιγραφή της λειτουργίας. Για να γίνει αυτό, ένα σχήμα που περιέχει τις περιγραφές όλων των διαθέσιμων λειτουργιών αποστέλλεται στο LLM. Το LLM στη συνέχεια επιλέγει την πιο κατάλληλη λειτουργία για την εργασία και επιστρέφει το όνομά της και τα επιχειρήματα. Η επιλεγμένη λειτουργία εκτελείται, η απάντησή της αποστέλλεται πίσω στο LLM, το οποίο χρησιμοποιεί τις πληροφορίες για να απαντήσει στο αίτημα του χρήστη.
Για να υλοποιήσουν οι προγραμματιστές την κλήση λειτουργιών για πράκτορες, θα χρειαστείτε:
Ας χρησιμοποιήσουμε το παράδειγμα της λήψης της τρέχουσας ώρας σε μια πόλη για να το εικονογραφήσουμε:
Αρχικοποίηση ενός LLM που υποστηρίζει την κλήση λειτουργιών:
Δεν υποστηρίζουν όλα τα μοντέλα την κλήση λειτουργιών, οπότε είναι σημαντικό να ελέγξετε ότι το LLM που χρησιμοποιείτε το κάνει. Azure OpenAI υποστηρίζει την κλήση λειτουργιών. Μπορούμε να ξεκινήσουμε με την αρχικοποίηση του πελάτη Azure OpenAI.
# Initialize the Azure OpenAI client
client = AzureOpenAI(
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"),
api_key=os.getenv("AZURE_OPENAI_API_KEY"),
api_version="2024-05-01-preview"
)
Δημιουργία Σχήματος Λειτουργίας:
Στη συνέχεια, θα ορίσουμε ένα σχήμα JSON που περιέχει το όνομα της λειτουργίας, την περιγραφή του τι κάνει η λειτουργία, και τα ονόματα και τις περιγραφές των παραμέτρων της λειτουργίας. Θα πάρουμε αυτό το σχήμα και θα το περάσουμε στον πελάτη που δημιουργήθηκε προηγουμένως, μαζί με το αίτημα του χρήστη να βρει την ώρα στο Σαν Φρανσίσκο. Αυτό που είναι σημαντικό να σημειωθεί είναι ότι επιστρέφεται μια κλήση εργαλείου, όχι η τελική απάντηση στην ερώτηση. Όπως αναφέρθηκε νωρίτερα, το LLM επιστρέφει το όνομα της λειτουργίας που επέλεξε για την εργασία και τα επιχειρήματα που θα περάσουν σε αυτήν.
# Function description for the model to read
tools = [
{
"type": "function",
"function": {
"name": "get_current_time",
"description": "Get the current time in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city name, e.g. San Francisco",
},
},
"required": ["location"],
},
}
}
]
# Initial user message
messages = [{"role": "user", "content": "What's the current time in San Francisco"}]
# First API call: Ask the model to use the function
response = client.chat.completions.create(
model=deployment_name,
messages=messages,
tools=tools,
tool_choice="auto",
)
# Process the model's response
response_message = response.choices[0].message
messages.append(response_message)
print("Model's response:")
print(response_message)
Model's response:
ChatCompletionMessage(content=None, role='assistant', function_call=None, tool_calls=[ChatCompletionMessageToolCall(id='call_pOsKdUlqvdyttYB67MOj434b', function=Function(arguments='{"location":"San Francisco"}', name='get_current_time'), type='function')])
Ο κώδικας της λειτουργίας που απαιτείται για την εκτέλεση της εργασίας:
Τώρα που το LLM έχει επιλέξει ποια λειτουργία πρέπει να εκτελεστεί, ο κώδικας που πραγματοποιεί την εργασία πρέπει να υλοποιηθεί και να εκτελεστεί. Μπορούμε να υλοποιήσουμε τον κώδικα για να πάρουμε την τρέχουσα ώρα σε Python. Θα χρειαστεί επίσης να γράψουμε τον κώδικα για να εξαγάγουμε το όνομα και τα επιχειρήματα από το response_message για να πάρουμε το τελικό αποτέλεσμα.
def get_current_time(location):
"""Get the current time for a given location"""
print(f"get_current_time called with location: {location}")
location_lower = location.lower()
for key, timezone in TIMEZONE_DATA.items():
if key in location_lower:
print(f"Timezone found for {key}")
current_time = datetime.now(ZoneInfo(timezone)).strftime("%I:%M %p")
return json.dumps({
"location": location,
"current_time": current_time
})
print(f"No timezone data found for {location_lower}")
return json.dumps({"location": location, "current_time": "unknown"})
# Handle function calls
if response_message.tool_calls:
for tool_call in response_message.tool_calls:
if tool_call.function.name == "get_current_time":
function_args = json.loads(tool_call.function.arguments)
time_response = get_current_time(
location=function_args.get("location")
)
messages.append({
"tool_call_id": tool_call.id,
"role": "tool",
"name": "get_current_time",
"content": time_response,
})
else:
print("No tool calls were made by the model.")
# Second API call: Get the final response from the model
final_response = client.chat.completions.create(
model=deployment_name,
messages=messages,
)
return final_response.choices[0].message.content
get_current_time called with location: San Francisco
Timezone found for san francisco
The current time in San Francisco is 09:24 AM.
Η Κλήση Λειτουργιών είναι η καρδιά του περισσότερου, αν όχι όλου, σχεδιασμού χρήσης εργαλείων από πράκτορες, ωστόσο η υλοποίησή της από την αρχή μπορεί μερικές φορές να είναι δύσκολη. Όπως μάθαμε στο Μάθημα 2 τα πλαίσια πρακτόρων μας παρέχουν προκατασκευασμένα δομικά μέρη για την υλοποίηση της χρήσης εργαλείων.
Ακολουθούν μερικά παραδείγματα για το πώς μπορείτε να υλοποιήσετε το Σχέδιο Χρήσης Εργαλείων χρησιμοποιώντας διαφορετικά πλαίσια πρακτόρων:
Semantic Kernel είναι ένα ανοιχτού κώδικα AI πλαίσιο για προγραμματιστές .NET, Python και Java που εργάζονται με Μεγάλα Γλωσσικά Μοντέλα (LLMs). Απλοποιεί τη διαδικασία χρήσης κλήσης λειτουργιών περιγράφοντας αυτόματα τις λειτουργίες σας και τις παραμέτρους τους στο μοντέλο μέσω μιας διαδικασίας που ονομάζεται serialization. Διαχειρίζεται επίσης την επικοινωνία μεταξύ του μοντέλου και του κώδικα σας. Ένα άλλο πλεονέκτημα της χρήσης ενός πλαισίου πρακτόρων όπως το Semantic Kernel είναι ότι σας επιτρέπει να έχετε πρόσβαση σε προκατασκευασμένα εργαλεία όπως File Search και Code Interpreter.
Το παρακάτω διάγραμμα απεικονίζει τη διαδικασία κλήσης λειτουργιών με το Semantic Kernel:

Στο Semantic Kernel οι λειτουργίες/εργαλεία ονομάζονται Plugins. Μπορούμε να μετατρέψουμε τη λειτουργία get_current_time που είδαμε νωρίτερα σε plugin μετατρέποντάς την σε κλάση με τη λειτουργία μέσα σε αυτήν. Μπορούμε επίσης να εισάγουμε τον διακοσμητή kernel_function, ο οποίος λαμβάνει την περιγραφή της λειτουργίας. Όταν στη συνέχεια δημιουργείτε έναν πυρήνα με το GetCurrentTimePlugin, ο πυρήνας θα κάνει αυτόματα serialize τη λειτουργία και τις παραμέτρους της, δημιουργώντας το σχήμα για να το στείλει στο LLM στη διαδικασία.
from semantic_kernel.functions import kernel_function
class GetCurrentTimePlugin:
async def __init__(self, location):
self.location = location
@kernel_function(
description="Get the current time for a given location"
)
def get_current_time(location: str = ""):
...
from semantic_kernel import Kernel
# Create the kernel
kernel = Kernel()
# Create the plugin
get_current_time_plugin = GetCurrentTimePlugin(location)
# Add the plugin to the kernel
kernel.add_plugin(get_current_time_plugin)
Azure AI Agent Service είναι ένα νεότερο πλαίσιο πρακτόρων που έχει σχεδιαστεί για να δίνει τη δυνατότητα στους προγραμματιστές να δημιουργούν, να αναπτύσσουν και να κλιμακώνουν υψηλής ποιότητας και επεκτάσιμους πράκτορες AI με ασφάλεια, χωρίς να χρειάζεται να διαχειρίζονται τους υποκείμενους πόρους υπολογισμού και αποθήκευσης. Είναι ιδιαίτερα χρήσιμο για εφαρμογές επιχειρήσεων, καθώς είναι μια πλήρως διαχειριζόμενη υπηρεσία με ασφάλεια επιπέδου επιχείρησης.
Σε σύγκριση με την ανάπτυξη με το LLM API απευθείας, το Azure AI Agent Service παρέχει ορισμένα πλεονεκτήματα, όπως:
Τα εργαλεία που είναι διαθέσιμα στο Azure AI Agent Service μπορούν να χωριστούν σε δύο κατηγορίες:
Γίνετε μέλος στο Azure AI Foundry Discord για να συναντήσετε άλλους μαθητές, να παρακολουθήσετε ώρες γραφείου και να λάβετε απαντήσεις στις ερωτήσεις σας σχετικά με τους AI Agents.
Κατανόηση Σχεδίων Σχεδίασης Πρακτόρων
Αποποίηση ευθύνης:
Αυτό το έγγραφο έχει μεταφραστεί χρησιμοποιώντας την υπηρεσία αυτόματης μετάφρασης Co-op Translator. Παρόλο που καταβάλλουμε προσπάθειες για ακρίβεια, παρακαλούμε να έχετε υπόψη ότι οι αυτόματες μεταφράσεις ενδέχεται να περιέχουν λάθη ή ανακρίβειες. Το πρωτότυπο έγγραφο στη μητρική του γλώσσα θα πρέπει να θεωρείται η αυθεντική πηγή. Για κρίσιμες πληροφορίες, συνιστάται επαγγελματική ανθρώπινη μετάφραση. Δεν φέρουμε ευθύνη για τυχόν παρεξηγήσεις ή εσφαλμένες ερμηνείες που προκύπτουν από τη χρήση αυτής της μετάφρασης.