Aller au contenu

Le fournisseur lmstudio se connecte au serveur sans interface LMStudio et permet de faire fonctionner des LLM locaux.

  1. Installez LMStudio (v0.3.5+)

  2. Ouvrez LMStudio

  3. Ouvrez le Catalogue de modèles, sélectionnez votre modèle et chargez-le au moins une fois afin qu’il soit téléchargé localement.

  4. Ouvrez les paramètres (icône roue dentée) et activez Activer le service LLM local.

  5. GenAIScript suppose que le serveur local est par défaut à l’adresse http://localhost:1234/v1. Ajoutez une variable d’environnement LMSTUDIO_API_BASE pour changer l’URL du serveur.

    .env
    LMSTUDIO_API_BASE=http://localhost:2345/v1

Trouvez l’identifiant API du modèle dans la fenêtre des modèles chargés, puis utilisez cet identifiant dans votre script :

script({
model: "lmstudio:llama-3.2-1b-instruct",
});
  • GenAIScript utilise la CLI LMStudio pour télécharger les modèles à la demande.
  • La spécification de la quantification n’est actuellement pas prise en charge.

Aliases

The following model aliases are attempted by default in GenAIScript.

AliasModel identifier
embeddingstext-embedding-nomic-embed-text-v1.5

Limitations

  • Ignore prediction of output tokens

Suivez ce guide pour charger des modèles Hugging Face dans LMStudio.

Le fournisseur jan se connecte au serveur local Jan.

  1. Jan

  2. Ouvrez Jan et téléchargez les modèles que vous envisagez d’utiliser. Vous trouverez l’identifiant du modèle dans la page de description du modèle.

  3. Cliquez sur l’icône Serveur API Local (en bas à gauche), puis sur Démarrer le serveur.

    Laissez l’application de bureau ouverte !

Pour utiliser les modèles Jan, employez la syntaxe jan:modelid. Si vous changez l’URL par défaut du serveur, vous pouvez définir la variable d’environnement JAN_API_BASE.

.env
JAN_API_BASE=http://localhost:1234/v1

Limitations

  • Ignore prediction of output tokens
  • top_p ignored