Aller au contenu

LLaMA.cpp permet également d’exécuter des modèles localement ou d’interfacer avec d’autres fournisseurs de LLM.

  1. Mettez à jour le fichier .env avec les informations du serveur local.

    .env
    OPENAI_API_BASE=http://localhost:...