
Métadonnées
Les invites utilisent l’appel de fonction script({ ... })
pour configurer le titre et d’autres éléments de l’interface utilisateur.
L’appel à script
est optionnel et peut être omis si vous n’avez pas besoin de configurer l’invite.
Cependant, l’argument script
doit être un littéral JSON5 valide, car le script est analysé et non exécuté lors de l’extraction des métadonnées.
Titre, description, groupe
Section intitulée « Titre, description, groupe »Les champs title
, description
et group
sont (facultatifs) utilisés dans l’interface utilisateur pour afficher l’invite.
script({ title: "Shorten", // displayed in UI // also displayed but grayed out: description: "A prompt that shrinks the size of text without losing meaning", group: "shorten", // see Inline prompts later})
Remplacez les invites système incluses dans le script. L’ensemble par défaut d’invites système est inféré dynamiquement à partir du contenu du script.
script({ ... system: ["system.files"],})
Vous pouvez spécifier l’identifiant du modèle LLM dans le script.
L’IntelliSense fourni par genaiscript.g.ts
vous aidera à découvrir la liste des modèles pris en charge.
Utilisez les alias large
et small
pour sélectionner les modèles par défaut, quelle que soit la configuration.
script({ ..., model: "openai:gpt-4o",})
maxTokens
Section intitulée « maxTokens »Vous pouvez spécifier le nombre maximum de tokens de complétion LLM dans le script. La valeur par défaut n’est pas spécifiée.
script({ ..., maxTokens: 2000,})
maxToolCalls
Section intitulée « maxToolCalls »Limite le nombre d’appels de fonction/outils autorisés pendant une génération. Cela est utile pour prévenir les boucles infinies.
script({ ..., maxToolCalls: 100,})
température
Section intitulée « température »Vous pouvez spécifier la température
LLM dans le script, entre 0
et 2
. La valeur par défaut est 0,8
.
script({ ..., temperature: 0.8,})
Vous pouvez spécifier le paramètre top_p
LLM dans le script. La valeur par défaut n’est pas spécifiée.
script({ ..., top_p: 0.5,})
Pour certains modèles, vous pouvez spécifier la graine
LLM dans le script, pour les modèles qui la prennent en charge. La valeur par défaut n’est pas spécifiée.
script({ ..., seed: 12345678,})
métadonnées
Section intitulée « métadonnées »Vous pouvez spécifier un ensemble de paires clé-valeur de métadonnées dans le script. Cela activera les complétions enregistrées dans OpenAI et Azure OpenAI. Cela est utilisé à des fins de distillation et d’évaluation.
script({ ..., metadata: { name: "my_script", }})
Autres paramètres
Section intitulée « Autres paramètres »unlisted: true
, ne pas l’afficher dans les listes pour l’utilisateur. Les modèlessystem.*
sont automatiquement masqués.
Voir genaiscript.d.ts
dans les sources pour plus de détails.
env.meta
Section intitulée « env.meta »Vous pouvez consulter les métadonnées du script de niveau supérieur dans l’objet env.meta
.
const { model } = env.meta
Résolution du modèle
Section intitulée « Résolution du modèle »Utilisez la fonction host.resolveModel
pour résoudre un nom ou un alias de modèle vers son fournisseur et son nom de modèle.
const info = await host.resolveModel("large")console.log(info)
{ "provider": "openai", "model": "gpt-4o"}