Aller au contenu
A simple 8-bit icon displays a gray folder marked as ".genaiscript," holding two rectangular file icons, one blue labeled "chat.jsonl" and one yellow labeled "summary.jsonl." The design uses flat, geometric shapes in gray, blue, yellow, black, and white, focusing solely on the folder and files to visually represent software caching, with no background or additional elements.

Cache

AI generated translation.

Par défaut, les requêtes LLM ne sont PAS mises en cache. Cependant, vous pouvez activer la mise en cache des requêtes LLM à partir des métadonnées de script ou des arguments de la CLI.

script({
...,
cache: true
})

ou

Fenêtre de terminal
npx genaiscript run ... --cache

Le cache est stocké dans le fichier .genaiscript/cache/chat.jsonl. Vous pouvez supprimer ce fichier pour vider le cache. Ce fichier est exclu de git par défaut.

  • Répertoire.genaiscript
    • Répertoirecache
      • chat.jsonl

Utilisez l’option cacheName pour spécifier un nom de fichier de cache personnalisé. Ce nom sera utilisé pour créer un fichier dans le répertoire .genaiscript/cache.

script({
...,
cache: "summary"
})

Ou en utilisant l’option --cache-name dans la CLI.

Fenêtre de terminal
npx genaiscript run .... --cache-name summary
  • Répertoire.genaiscript
    • Répertoirecache
      • summary.jsonl

Vous pouvez instancier un objet de cache personnalisé pour gérer le cache de manière programmatique.

const cache = await workspace.cache("custom")
// write entries
await cache.set("file.txt", "...")
// read value
const content = await cache.get("file.txt")
// list values
const values = await cache.values()