Aller au contenu

Le fournisseur GitHub Models, github, permet d’exécuter des modèles via le GitHub Marketplace.
Ce fournisseur est utile pour le prototypage et est soumis à des limites de taux
selon votre abonnement.

script({ model: "github:openai/gpt-4o" });

Si vous utilisez un GitHub Codespace, le token est déjà configuré pour vous…
Ça fonctionne simplement.

Depuis avril 2025,
vous pouvez utiliser le token GitHub Actions (GITHUB_TOKEN) pour appeler des modèles d’IA directement dans vos workflows.

  1. Assurez-vous que la permission models est activée dans la configuration de votre workflow.

    genai.yml
    permissions:
    models: read
  2. Passez le GITHUB_TOKEN lors de l’exécution de genaiscript

    genai.yml
    run: npx -y genaiscript run ...
    env:
    GITHUB_TOKEN: ${{ secrets.GITHUB_TOKEN }}

Pour en savoir plus, consultez la Documentation GitHub

Si vous n’utilisez pas GitHub Actions ou Codespaces, vous pouvez utiliser votre propre token pour accéder aux modèles.

  1. Créez un token d’accès personnel GitHub.
    Le token ne doit pas avoir de scopes ou permissions.

  2. Mettez à jour le fichier .env avec le token.

    .env
    GITHUB_TOKEN=...

Pour configurer un modèle spécifique,

  1. Ouvrez le GitHub Marketplace et trouvez le modèle que vous souhaitez utiliser.

  2. Copiez le nom du modèle à partir des exemples Javascript/Python

    const modelName = "microsoft/Phi-3-mini-4k-instruct";

    pour configurer votre script.

    script({
    model: "github:microsoft/Phi-3-mini-4k-instruct",
    });

Si vous utilisez déjà la variable GITHUB_TOKEN dans votre script et avez besoin d’un token différent
pour GitHub Models, vous pouvez utiliser la variable GITHUB_MODELS_TOKEN à la place.

Actuellement, ces modèles ne supportent pas le streaming ni les invites système.
GenAIScript gère cela en interne.

script({
model: "github:openai/o1-mini",
});

Aliases

The following model aliases are attempted by default in GenAIScript.

AliasModel identifier
largeopenai/gpt-4.1
smallopenai/gpt-4.1-mini
tinyopenai/gpt-4.1-nano
visionopenai/gpt-4.1
reasoningopenai/o3
reasoning_smallopenai/o3-mini
embeddingsopenai/text-embedding-3-small

Limitations

  • Smaller context windows, and rate limiting in free tier. See https://docs.github.com/en/github-models/use-github-models/prototyping-with-ai-models.
  • listModels
  • logprobs (and top logprobs) ignored
  • Ignore prediction of output tokens
  • topLogprobs