LiteLLM
La passerelle proxy LiteLLM fournit une API compatible OpenAI pour exécuter des modèles localement.
Configurez les clés LITELLM_...
pour définir la clé et, éventuellement, l’URL de base.
Utilisez le fournisseur litellm
.
LITELLM_API_KEY="..."#LITELLM_API_BASE="..."