Aller au contenu
The image is a simple 2D geometric illustration featuring two icon-like servers or databases facing each other. The left server blends OpenAI and Azure OpenAI logos into one shape, while the right server displays a basic version of the Anthropic logo. Each server has a small hourglass or clock icon above it. Arrows move between the servers, suggesting data transfer, and abstract shapes surround them to symbolize swift data flow. The design uses five flat, 8-bit style corporate colors, avoiding any people, text, backgrounds, shadows, or gradients, and the whole scene is arranged within a 128x128 pixel square.

Mise en cache des invites

AI generated translation.

La mise en cache des invites est une fonctionnalité qui peut réduire le temps de traitement et les coûts pour les invites répétitives. Elle est prise en charge par divers fournisseurs de LLM, mais l’implémentation peut varier.

Vous pouvez marquer la section def ou la fonction $ avec cacheControl défini comme "éphémère" pour activer l’optimisation de la mise en cache des invites. Cela signifie essentiellement qu’il est acceptable pour le fournisseur LLM de mettre en cache l’invite pendant une courte période.

def("FILE", env.files, { cacheControl: "ephemeral" })
$`Some very cool prompt`.cacheControl("ephemeral")

Dans la plupart des cas, l’indication éphémère est ignorée par les fournisseurs de LLM. Cependant, les cas suivants sont pris en charge :

La mise en cache des invites du préfixe de l’invite est automatiquement activée par OpenAI. Toutes les annotations éphémères sont supprimées.

L’annotation éphémère est convertie en un champ 'cache-control': { ... } dans l’objet message.

Notez que la mise en cache des invites est toujours marquée comme bêta et n’est pas prise en charge dans tous les modèles (en particulier les plus anciens).