
Cache
Par défaut, les requêtes LLM ne sont PAS mises en cache. Cependant, vous pouvez activer la mise en cache des requêtes LLM à partir des métadonnées de script
ou des arguments de la CLI.
script({ ..., cache: true})
ou
npx genaiscript run ... --cache
Le cache est stocké dans le fichier .genaiscript/cache/chat.jsonl
. Vous pouvez supprimer ce fichier pour vider le cache. Ce fichier est exclu de git par défaut.
Répertoire.genaiscript
Répertoirecache
- chat.jsonl
Fichier de cache personnalisé
Section intitulée « Fichier de cache personnalisé »Utilisez l’option cacheName
pour spécifier un nom de fichier de cache personnalisé. Ce nom sera utilisé pour créer un fichier dans le répertoire .genaiscript/cache
.
script({ ..., cache: "summary"})
Ou en utilisant l’option --cache-name
dans la CLI.
npx genaiscript run .... --cache-name summary
Répertoire.genaiscript
Répertoirecache
- summary.jsonl
Cache programmatique
Section intitulée « Cache programmatique »Vous pouvez instancier un objet de cache personnalisé pour gérer le cache de manière programmatique.
const cache = await workspace.cache("custom")// write entriesawait cache.set("file.txt", "...")// read valueconst content = await cache.get("file.txt")// list valuesconst values = await cache.values()