Aller au contenu

Azure AI Foundry

AI generated translation.

Azure AI Foundry fournit un accès à des modèles sans serveur et déployés, tant pour OpenAI que pour d’autres fournisseurs. Plusieurs moyens d’accéder à ces serveurs sont pris en charge dans GenAIScript :

Vous pouvez déployer des modèles “sans serveur” via Azure AI Foundry et payer à l’usage par jeton. Vous pouvez parcourir le catalogue des modèles Azure AI Foundry et utiliser le filtre Serverless API pour voir les modèles disponibles.

Il existe deux types de déploiements sans serveur qui nécessitent des configurations différentes : les modèles OpenAI et tous les autres modèles. Les modèles OpenAI, comme gpt-4o, sont déployés sur des points de terminaison .openai.azure.com, tandis que les modèles Azure AI, comme Meta-Llama-3.1-405B-Instruct, sont déployés sur des points de terminaison .models.ai.azure.com.

Ils sont configurés de manière légèrement différente.

L’API Azure AI Model Inference fournit un point de terminaison unique pour accéder à plusieurs LLM. C’est une excellente façon d’expérimenter car il n’est pas nécessaire de créer des déploiements pour accéder aux modèles. Elle prend en charge l’authentification Entra ID et par clé.

script({ model: "azure_ai_inference:gpt-4o" });
Play
  1. Suivez attentivement ces étapes pour configurer les rôles nécessaires pour votre utilisateur.

  2. Ouvrez https://ai.azure.com/ et ouvrez votre projet

  3. Configurez l’URL cible du point de terminaison en tant que AZURE_AI_INFERENCE_API_ENDPOINT.

    .env
    AZURE_AI_INFERENCE_API_ENDPOINT=https://<resource-name>.services.ai.azure.com/models
  4. Trouvez le nom du modèle dans le catalogue avec le filtre Options de déploiement = Serverless API et utilisez-le dans votre script, model: "azure_id_inference:model-id".

    script({ model: "azure_ai_inference:model-id" });
  1. Ouvrez https://ai.azure.com/, ouvrez votre projet et allez à la page Présentation.

  2. Configurez l’URL cible du point de terminaison en tant que variable AZURE_AI_INFERENCE_API_ENDPOINT et la clé dans AZURE_AI_INFERENCE_API_KEY dans le fichier .env**.**

    .env
    AZURE_AI_INFERENCE_API_ENDPOINT=https://<resourcename>.services.ai.azure.com/models
    AZURE_AI_INFERENCE_API_KEY=...
  3. Trouvez le nom du modèle dans le catalogue avec le filtre Options de déploiement = Serverless API et utilisez-le dans votre script, model: "azure_id_inference:model-id".

    script({ model: "azure_ai_inference:model-id" });

La version API par défaut pour Azure AI Inference est 2025-03-01-preview. Vous pouvez la modifier en définissant la variable d’environnement AZURE_AI_INFERENCE_API_VERSION (voir la documentation Azure AI)

.env
AZURE_AI_INFERENCE_API_VERSION=2025-01-01-preview

Aliases

The following model aliases are attempted by default in GenAIScript.

AliasModel identifier
largegpt-4o
smallgpt-4o-mini
visiongpt-4o
vision_smallgpt-4o-mini
reasoningo1
reasoning_smallo1-mini
embeddingstext-embedding-3-small

Limitations

  • listModels
  • logprobs (and top logprobs) ignored
  • Ignore prediction of output tokens
  • topLogprobs

Le fournisseur azure_serverless prend en charge les modèles OpenAI déployés via les déploiements sans serveur Azure AI Foundry. Il supporte l’authentification Entra ID ainsi que par clé.

script({ model: "azure_serverless:deployment-id" });
  1. Ouvrez https://ai.azure.com/, ouvrez votre projet et allez à la page Déploiements.

  2. Déployez un modèle de base depuis le catalogue. Vous pouvez utiliser l’option Options de déploiement -> Serverless API pour déployer un modèle en tant qu’API sans serveur.

  3. Déployez un modèle de base OpenAI. Cela créera également une nouvelle ressource Azure OpenAI dans votre abonnement (qui peut être invisible pour vous, plus d’informations plus tard).

  4. Mettez à jour le fichier .env avec le point de terminaison du déploiement dans la variable AZURE_SERVERLESS_OPENAI_API_ENDPOINT.

    .env
    AZURE_SERVERLESS_OPENAI_API_ENDPOINT=https://....openai.azure.com
  5. Retournez à l’onglet Présentation dans votre projet Azure AI Foundry et cliquez sur Ouvrir dans le centre de gestion.

  6. Cliquez sur la ressource Azure OpenAI Service, puis cliquez sur le lien externe Ressource qui vous ramènera vers le service Azure OpenAI (sous-jacent) dans le portail Azure.

  7. Naviguez vers Contrôle d’accès (IAM), puis Afficher mon accès. Assurez-vous que votre utilisateur ou principal de service dispose du rôle Cognitive Services OpenAI User/Contributor. Si vous obtenez une erreur 401, cliquez sur Ajouter, Ajouter une attribution de rôle et ajoutez le rôle Cognitive Services OpenAI User à votre utilisateur.

À ce stade, vous êtes prêt à vous connecter avec Azure CLI et à utiliser l’identité managée.

  1. Installez l’Azure CLI.

  2. Ouvrez un terminal et connectez-vous

    Fenêtre de terminal
    az login
  1. Ouvrez votre ressource Azure OpenAI et naviguez vers Gestion des ressources, puis Clés et point de terminaison.

  2. Mettez à jour le fichier .env avec le point de terminaison et la clé secrète (Clé 1 ou Clé 2) ainsi que le point de terminaison.

    .env
    AZURE_SERVERLESS_OPENAI_API_ENDPOINT=https://....openai.azure.com
    AZURE_SERVERLESS_OPENAI_API_KEY=...

Aliases

The following model aliases are attempted by default in GenAIScript.

AliasModel identifier
largegpt-4o
smallgpt-4o-mini
visiongpt-4o
vision_smallgpt-4o-mini
reasoningo1
reasoning_smallo1-mini
embeddingstext-embedding-3-small

Limitations

  • listModels
  • Ignore prediction of output tokens

Le fournisseur azure_serverless_models prend en charge les modèles non-OpenAI, tels que DeepSeek R1/v3, déployés via les déploiements sans serveur Azure AI Foundry.

script({ model: "azure_serverless_models:deployment-id" });
  1. Ouvrez votre ressource Projet Azure AI dans le portail Azure

  2. Naviguez vers Contrôle d’accès (IAM), puis Voir mes accès. Assurez-vous que votre utilisateur ou principal de service dispose du rôle Développeur Azure AI. Si vous recevez une erreur 401, cliquez sur Ajouter, Ajouter une attribution de rôle et ajoutez le rôle Développeur Azure AI à votre utilisateur.

  3. Configurez l’URL cible du point de terminaison en tant que AZURE_SERVERLESS_MODELS_API_ENDPOINT.

    .env
    AZURE_SERVERLESS_MODELS_API_ENDPOINT=https://...models.ai.azure.com
  4. Naviguez vers déploiements et assurez-vous que votre LLM est déployé, puis copiez le nom des informations de déploiement, vous en aurez besoin dans le script.

  5. Mettez à jour le champ model dans la fonction script pour correspondre au nom du modèle déployé dans votre ressource Azure.

    script({
    model: "azure_serverless:deployment-info-name",
    ...
    })
  1. Ouvrez https://ai.azure.com/ et ouvrez la page Déploiements.

  2. Déployez un modèle de base depuis le catalogue. Vous pouvez utiliser l’option Options de déploiement -> Serverless API pour déployer un modèle en tant qu’API sans serveur.

  3. Configurez l’URL cible du point de terminaison en tant que variable AZURE_SERVERLESS_MODELS_API_ENDPOINT et la clé dans AZURE_SERVERLESS_MODELS_API_KEY dans le fichier .env**.**

    .env
    AZURE_SERVERLESS_MODELS_API_ENDPOINT=https://...models.ai.azure.com
    AZURE_SERVERLESS_MODELS_API_KEY=...
  4. Trouvez le nom du déploiement et utilisez-le dans votre script, model: "azure_serverless_models:deployment-id".

Prise en charge de plusieurs déploiements d’inférence

Section intitulée « Prise en charge de plusieurs déploiements d’inférence »

Vous pouvez mettre à jour la variable AZURE_SERVERLESS_MODELS_API_KEY avec une liste de paires deploymentid=key pour prendre en charge plusieurs déploiements (chaque déploiement ayant une clé différente).

.env
AZURE_SERVERLESS_MODELS_API_KEY="
model1=key1
model2=key2
model3=key3
"

Limitations

  • listModels
  • Ignore prediction of output tokens