Serve
Lancez un serveur web local utilisé pour exécuter le playground ou Visual Studio Code.
Exécutez depuis la racine de l’espace de travail :
npx genaiscript serveLe port par défaut est 8003. Vous pouvez spécifier le port en utilisant le drapeau --port.
npx genaiscript serve --port 8004La clé API est utilisée pour authentifier les requêtes vers le serveur. Vous pouvez spécifier une clé API en définissant le drapeau --api-key ou la variable d’environnement GENAISCRIPT_API_KEY.
npx genaiscript serve --api-key my-api-keyou
GENAISCRIPT_API_KEY=my-api-keyLa clé API peut être définie dans l’en-tête Authorization d’une requête ou dans le paramètre de requête URL api-key (http://localhost:8003/#api-key=my-api-key)
Vous pouvez activer le Cross Origin Shared Resource en utilisant le drapeau --cors ou en définissant la variable d’environnement GENAISCRIPT_CORS_ORIGIN.
npx genaiscript serve --cors contoso.comVous pouvez lier le serveur à 0.0.0.0 et le rendre accessible depuis le réseau en utilisant le drapeau --network. Ce drapeau est nécessaire pour rendre le serveur accessible depuis un conteneur.
npx genaiscript serve --networkNous recommandons vivement de définir la clé API lors de l’exécution du serveur sur le réseau.
Dockerisé
Section intitulée « Dockerisé »Pour exécuter une image docker minimale avec le serveur, commencez par créer une image docker avec genaiscript et tout outil requis.
docker build -t genaiscript -<<EOFFROM node:alpineRUN apk add --no-cache git && npm install -g genaiscriptEOFCela crée localement une image genaiscript que vous pouvez utiliser pour lancer le serveur.
docker run --env GITHUB_TOKEN --env-file .env --name genaiscript --rm -it --expose 8003 -p 8003:8003 -v ${PWD}:/workspace -w /workspace genaiscript genaiscript serve --networkpuis ouvrez http://localhost:8003 dans votre navigateur.
Points de terminaison API OpenAI
Section intitulée « Points de terminaison API OpenAI »Le serveur implémente divers points de terminaison compatibles avec l’API OpenAI. Vous pouvez utiliser le serveur comme proxy vers l’API OpenAI en activant le drapeau --openai. Les routes peuvent être utilisées pour fournir un accès stable aux LLM configurés à d’autres outils tels que promptfoo.
npx genaiscript serve --openaiCela activera les routes suivantes :
/v1/chat/completions
Section intitulée « /v1/chat/completions »Principalement compatible avec l’API de complétions de chat d’OpenAI. Le serveur transmettra les requêtes à l’API OpenAI et retournera la réponse.
streamn’est pas pris en charge.
/v1/models
Section intitulée « /v1/models »Renvoie la liste des modèles et alias disponibles sur le serveur.