LLaMA.cpp
LLaMA.cpp permet également d’exécuter des modèles localement ou d’interfacer avec d’autres fournisseurs de LLM.
Mettez à jour le fichier
.env
avec les informations du serveur local..env OPENAI_API_BASE=http://localhost:...
LLaMA.cpp permet également d’exécuter des modèles localement ou d’interfacer avec d’autres fournisseurs de LLM.
Mettez à jour le fichier .env
avec les informations du serveur local.
OPENAI_API_BASE=http://localhost:...