Métadonnées
Les invites utilisent l’appel de fonction script({ ... })
pour configurer le titre et d’autres éléments de l’interface utilisateur.
L’appel à script est optionnel et peut être omis si vous n’avez pas besoin de configurer l’invite.
Cependant, l’argument script doit être un littéral JSON5 valide, car le script est analysé et non exécuté lors de l’extraction des métadonnées.
Titre, description, groupe
Section intitulée « Titre, description, groupe »Les champs title, description et group sont (facultatifs) utilisés dans l’interface utilisateur pour afficher l’invite.
script({ title: "Shorten", // displayed in UI // also displayed but grayed out: description: "A prompt that shrinks the size of text without losing meaning", group: "shorten", // see Inline prompts later})Remplacez les invites système incluses dans le script. L’ensemble par défaut d’invites système est inféré dynamiquement à partir du contenu du script.
script({ ... system: ["system.files"],})Vous pouvez spécifier l’identifiant du modèle LLM dans le script.
L’IntelliSense fourni par genaiscript.g.ts vous aidera à découvrir la liste des modèles pris en charge.
Utilisez les alias large et small pour sélectionner les modèles par défaut, quelle que soit la configuration.
script({ ..., model: "openai:gpt-4o",})maxTokens
Section intitulée « maxTokens »Vous pouvez spécifier le nombre maximum de tokens de complétion LLM dans le script. La valeur par défaut n’est pas spécifiée.
script({ ..., maxTokens: 2000,})maxToolCalls
Section intitulée « maxToolCalls »Limite le nombre d’appels de fonction/outils autorisés pendant une génération. Cela est utile pour prévenir les boucles infinies.
script({ ..., maxToolCalls: 100,})température
Section intitulée « température »Vous pouvez spécifier la température LLM dans le script, entre 0 et 2. La valeur par défaut est 0,8.
script({ ..., temperature: 0.8,})Vous pouvez spécifier le paramètre top_p LLM dans le script. La valeur par défaut n’est pas spécifiée.
script({ ..., top_p: 0.5,})Pour certains modèles, vous pouvez spécifier la graine LLM dans le script, pour les modèles qui la prennent en charge. La valeur par défaut n’est pas spécifiée.
script({ ..., seed: 12345678,})métadonnées
Section intitulée « métadonnées »Vous pouvez spécifier un ensemble de paires clé-valeur de métadonnées dans le script. Cela activera les complétions enregistrées dans OpenAI et Azure OpenAI. Cela est utilisé à des fins de distillation et d’évaluation.
script({ ..., metadata: { name: "my_script", }})Autres paramètres
Section intitulée « Autres paramètres »unlisted: true, ne pas l’afficher dans les listes pour l’utilisateur. Les modèlessystem.*sont automatiquement masqués.
Voir genaiscript.d.ts dans les sources pour plus de détails.
env.meta
Section intitulée « env.meta »Vous pouvez consulter les métadonnées du script de niveau supérieur dans l’objet env.meta.
const { model } = env.metaRésolution du modèle
Section intitulée « Résolution du modèle »Utilisez la fonction host.resolveModel pour résoudre un nom ou un alias de modèle vers son fournisseur et son nom de modèle.
const info = await host.resolveModel("large")console.log(info){ "provider": "openai", "model": "gpt-4o"}