
Serve
Lancez un serveur web local utilisé pour exécuter le playground ou Visual Studio Code.
Exécutez depuis la racine de l’espace de travail :
npx genaiscript serve
Le port par défaut est 8003
. Vous pouvez spécifier le port en utilisant le drapeau --port
.
npx genaiscript serve --port 8004
La clé API est utilisée pour authentifier les requêtes vers le serveur. Vous pouvez spécifier une clé API en définissant le drapeau --api-key
ou la variable d’environnement GENAISCRIPT_API_KEY
.
npx genaiscript serve --api-key my-api-key
ou
GENAISCRIPT_API_KEY=my-api-key
La clé API peut être définie dans l’en-tête Authorization
d’une requête ou dans le paramètre de requête URL api-key
(http://localhost:8003/#api-key=my-api-key
)
Vous pouvez activer le Cross Origin Shared Resource en utilisant le drapeau --cors
ou en définissant la variable d’environnement GENAISCRIPT_CORS_ORIGIN
.
npx genaiscript serve --cors contoso.com
Vous pouvez lier le serveur à 0.0.0.0
et le rendre accessible depuis le réseau en utilisant le drapeau --network
. Ce drapeau est nécessaire pour rendre le serveur accessible depuis un conteneur.
npx genaiscript serve --network
Nous recommandons vivement de définir la clé API lors de l’exécution du serveur sur le réseau.
Dockerisé
Section intitulée « Dockerisé »Pour exécuter une image docker minimale avec le serveur, commencez par créer une image docker avec genaiscript et tout outil requis.
docker build -t genaiscript -<<EOFFROM node:alpineRUN apk add --no-cache git && npm install -g genaiscriptEOF
Cela crée localement une image genaiscript
que vous pouvez utiliser pour lancer le serveur.
docker run --env GITHUB_TOKEN --env-file .env --name genaiscript --rm -it --expose 8003 -p 8003:8003 -v ${PWD}:/workspace -w /workspace genaiscript genaiscript serve --network
puis ouvrez http://localhost:8003
dans votre navigateur.
Points de terminaison API OpenAI
Section intitulée « Points de terminaison API OpenAI »Le serveur implémente divers points de terminaison compatibles avec l’API OpenAI. Vous pouvez utiliser le serveur comme proxy vers l’API OpenAI en activant le drapeau --openai
. Les routes peuvent être utilisées pour fournir un accès stable aux LLM configurés à d’autres outils tels que promptfoo.
npx genaiscript serve --openai
Cela activera les routes suivantes :
/v1/chat/completions
Section intitulée « /v1/chat/completions »Principalement compatible avec l’API de complétions de chat d’OpenAI. Le serveur transmettra les requêtes à l’API OpenAI et retournera la réponse.
stream
n’est pas pris en charge.
/v1/models
Section intitulée « /v1/models »Renvoie la liste des modèles et alias disponibles sur le serveur.