Aller au contenu

La passerelle proxy LiteLLM fournit une API compatible OpenAI pour exécuter des modèles localement. Configurez les clés LITELLM_... pour définir la clé et, éventuellement, l’URL de base.

Utilisez le fournisseur litellm.

.env
LITELLM_API_KEY="..."
#LITELLM_API_BASE="..."