Partager via


Déployer un flux sur un point de terminaison en ligne pour l’inférence en temps réel avec l’interface CLI

Dans cet article, vous allez apprendre à déployer votre flux sur un point de terminaison en ligne managé ou un point de terminaison en ligne Kubernetes pour une utilisation en temps réel de l’inférence avec l’interface CLI Azure Machine Learning v2.

Avant de commencer, assurez-vous que vous avez correctement testé votre flux et qu’il est prêt à être déployé en production. Pour en savoir plus sur le test de votre flux, consultez Tester votre flux. Après avoir testé votre flux, vous allez apprendre à créer un point de terminaison et un déploiement en ligne managés, et à utiliser le point de terminaison pour l’inférence en temps réel.

  • Cet article explique comment utiliser l’expérience CLI.
  • Le Kit de développement logiciel (SDK) Python n’est pas abordé dans cet article. Consultez l’exemple de notebook GitHub à la place. Pour utiliser le SDK Python, vous devez disposer du SDK Python v2 pour Azure Machine Learning. Pour en savoir plus, consultez Installer le SDK Python v2 pour Azure Machine Learning.

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. La préversion est fournie sans contrat de niveau de service et n’est pas recommandée pour les charges de travail en production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Prérequis

  • Azure CLI et l’extension Azure Machine Learning pour Azure CLI. Pour plus d’informations, consultez Installer, configurer et utiliser l’interface CLI (v2).
  • Un espace de travail Azure Machine Learning. Si vous n’en avez pas, procédez comme suit dans le Guide de démarrage rapide : Créer des ressources d’espace de travail pour en créer un.
  • Les contrôles d’accès en fonction du rôle Azure (Azure RBAC) sont utilisés pour accorder l’accès aux opérations dans Azure Machine Learning. Pour que vous puissiez effectuer les étapes décrites dans cet article, votre compte d’utilisateur doit avoir le rôle propriétaire ou contributeur sur l’espace de travail Azure Machine Learning ou un rôle personnalisé autorisant « Microsoft.MachineLearningServices/workspaces/onlineEndpoints/ ». Si vous utilisez Studio pour créer/gérer des points de terminaison/déploiements en ligne, le propriétaire du groupe de ressources devra vous assigner une autorisation « Microsoft.Resources/deployments/write » supplémentaire. Pour plus d’informations, consultez Gérer l’accès à un espace de travail Azure Machine Learning.

Remarque

Le point de terminaison en ligne managé prend uniquement en charge le réseau virtuel managé. Si votre espace de travail se trouve dans un réseau virtuel personnalisé, vous pouvez déployer sur un point de terminaison Kubernetes en ligne ou déployer sur d’autres plateformes comme Docker.

Allocation de quota du nombre de machines virtuelles pour le déploiement

Pour les points de terminaison en ligne managés, Azure Machine Learning réserve 20 % de vos ressources de calcul aux mises à niveau. Par conséquent, si vous demandez un nombre donné d’instances dans un déploiement, vous devez disposer d’un quota de ceil(1.2 * number of instances requested for deployment) * number of cores for the VM SKU pour éviter d’obtenir une erreur. Par exemple, si vous demandez 10 instances d’une machine virtuelle Standard_DS3_v2 (fournie avec quatre cœurs) dans un déploiement, vous devez disposer d’un quota de 48 cœurs (12 instances de quatre cœurs) disponibles. Pour afficher votre utilisation et demander des augmentations de quota, consultez Afficher votre utilisation et vos quotas dans le Portail Azure.

Préparer le flux pour le déploiement

Chaque flux aura un dossier qui contient les codes/invites, la définition et d’autres artefacts du flux. Si vous avez développé votre flux avec l’interface utilisateur, vous pouvez télécharger le dossier de flux à partir de la page de détails du flux. Si vous avez développé votre flux avec l’interface CLI ou le SDK, vous devez déjà disposer du dossier de flux.

Cet article utilise l’exemple de flux « basic-chat » comme exemple de déploiement sur le point de terminaison en ligne managé Azure Machine Learning.

Important

Si vous avez utilisé additional_includes dans votre flux, vous devez d’abord utiliser pf flow build --source <path-to-flow> --output <output-path> --format docker pour obtenir une version corrigée du dossier de flux.

Définir l'espace de travail par défaut

Utilisez les commandes suivantes pour définir l’espace de travail et le groupe de ressources par défaut pour l’interface CLI.

az account set --subscription <subscription ID>
az configure --defaults workspace=<Azure Machine Learning workspace name> group=<resource group>

Enregistrer le flux en tant que modèle (facultatif)

Dans le déploiement en ligne, vous pouvez soit faire référence à un modèle inscrit, soit spécifier le chemin du modèle (où charger les fichiers de modèle) inline. Il est recommandé d’enregistrer le modèle et de spécifier le nom et la version du modèle dans la définition de déploiement. Utilisez le formulaire model:<model_name>:<version>.

Voici un exemple de définition de modèle pour un flux de conversation.

Remarque

Si votre flux n’est pas un flux de conversation, vous n’avez pas besoin d’ajouter ces properties.

$schema: https://azuremlschemas.azureedge.net/latest/model.schema.json
name: basic-chat-model
path: ../../../../examples/flows/chat/basic-chat
description: register basic chat flow folder as a custom model
properties:
  # In AuzreML studio UI, endpoint detail UI Test tab needs this property to know it's from prompt flow
  azureml.promptflow.source_flow_id: basic-chat
  
  # Following are properties only for chat flow 
  # endpoint detail UI Test tab needs this property to know it's a chat flow
  azureml.promptflow.mode: chat
  # endpoint detail UI Test tab needs this property to know which is the input column for chat flow
  azureml.promptflow.chat_input: question
  # endpoint detail UI Test tab needs this property to know which is the output column for chat flow
  azureml.promptflow.chat_output: answer

Utilisez az ml model create --file model.yaml pour enregistrer le modèle dans votre espace de travail.

Définir le point de terminaison

Pour définir un point de terminaison, vous devez spécifier :

  • Nom du point de terminaison : Nom du point de terminaison. Il doit être unique au sein de la région Azure. Pour plus d’informations sur les règles de nommage, consultez limites de point de terminaison.
  • Mode d’authentification : méthode d’authentification pour le point de terminaison. Choisissez entre l’authentification basée sur une clé et celle basée sur un jeton Azure Machine Learning. Une clé n’expire pas, mais un jeton expire bien. Pour plus d’informations sur l’authentification, consultez S’authentifier auprès d’un point de terminaison en ligne. Vous pouvez éventuellement ajouter une description et des étiquettes à votre point de terminaison.
  • Vous pouvez éventuellement ajouter une description et des étiquettes à votre point de terminaison.
  • Si vous souhaitez déployer sur un cluster Kubernetes (cluster AKS ou Arc) qui est attaché à votre espace de travail, vous pouvez déployer le flux en tant que point de terminaison en ligne Kubernetes.

Voici un exemple de définition de point de terminaison qui utilise par défaut une identité affectée par le système.

$schema: https://azuremlschemas.azureedge.net/latest/managedOnlineEndpoint.schema.json
name: basic-chat-endpoint
auth_mode: key
properties:
# this property only works for system-assigned identity.
# if the deploy user has access to connection secrets, 
# the endpoint system-assigned identity will be auto-assigned connection secrets reader role as well
  enforce_access_to_default_secret_stores: enabled
Clé Description
$schema (Facultatif) Schéma YAML. Pour voir toutes les options disponibles dans le fichier YAML, vous pouvez consulter le schéma dans l’extrait de code précédent avec un navigateur.
name Nom du point de terminaison.
auth_mode Utilisez key pour l’authentification basée sur les clés. Utilisez aml_token pour l’authentification Azure Machine Learning basée sur les jetons. Utilisez la commande az ml online-endpoint get-credentials pour récupérer le jeton le plus récent.
property: enforce_access_to_default_secret_stores (préversion) - Par défaut, le point de terminaison utilise une identité affectée par le système. Cette propriété fonctionne uniquement pour les identités affectées par le système.
- Cette propriété signifie que si vous disposez de l’autorisation de lecteur des secrets de connexion, l’identité affectée par le système du point de terminaison est affectée automatiquement au rôle Lecteur des secrets de connexion de l’espace de travail Azure Machine Learning, afin que le point de terminaison puisse accéder correctement aux connexions lors de l’inférence.
- Par défaut, cette propriété est désactivée.

Si vous créez un point de terminaison en ligne Kubernetes, vous devez spécifier les attributs supplémentaires suivants :

Clé Description
compute Cible de calcul Kubernetes sur laquelle déployer le point de terminaison.

Pour plus de configurations de point de terminaison, consultez Schéma de point de terminaison en ligne managé.

Important

Si votre flux utilise des connexions d’authentification basées sur Microsoft Entra ID, que vous utilisiez une identité attribuée par le système ou par l’utilisateur, vous devez toujours accorder à l’identité managée les rôles appropriés sur les ressources correspondantes afin qu’elle puisse effectuer des appels d’API vers cette ressource. Par exemple, si votre connexion Azure OpenAI utilise l’authentification basée sur Microsoft Entra ID, vous devez accorder votre identité managée de point de terminaison rôle Utilisateur OpenAI Cognitive Services ou Contributeur OpenAI Cognitive Services des ressources Azure OpenAI correspondantes.

Utiliser une identité attribuée par l’utilisateur

Par défaut, lorsque vous créez un point de terminaison en ligne, une identité managée affectée par le système est automatiquement générée pour vous. Vous pouvez également spécifier une identité managée affectée par l’utilisateur existante pour le point de terminaison.

Si vous souhaitez utiliser une identité attribuée par l’utilisateur, vous pouvez spécifier les attributs supplémentaires suivants dans le endpoint.yaml :

identity:
  type: user_assigned
  user_assigned_identities:
    - resource_id: user_identity_ARM_id_place_holder

En outre, vous devez également spécifier la valeur Client ID de l’identité attribuée par l’utilisateur sous environment_variables et deployment.yaml comme indiqué ci-après. Vous pouvez trouver le Client ID du Overview de l’identité managée dans le Portail Azure.

environment_variables:
  AZURE_CLIENT_ID: <client_id_of_your_user_assigned_identity>

Important

Vous devez accorder les autorisations suivantes à l’identité affectée par l’utilisateur avant de créer le point de terminaison, afin qu’il puisse accéder aux ressources Azure pour effectuer l’inférence. En savoir plus sur l’octroi d’autorisations à l’identité de votre point de terminaison.

Étendue Rôle Pourquoi il est nécessaire
Espace de travail Azure Machine Learning Rôle Lecteur de secrets de connexion de l’espace de travail Azure Machine Learning OU un rôle personnalisé avec « Microsoft.MachineLearningServices/workspaces/connections/listsecrets/action » Obtenir des connexions à l’espace de travail
Registre de conteneurs d’espace de travail ACR pull Tirage (pull) d’image de conteneur
Stockage par défaut de l’espace de travail Lecteur des données blob du stockage Charger le modèle à partir du stockage
(Facultatif) Espace de travail Azure Machine Learning Enregistreur de métriques d’espace de travail Après avoir déployé le point de terminaison, si vous souhaitez surveiller les métriques liées au point de terminaison telles que l’utilisation du processeur/GPU/disque/mémoire, vous devez accorder cette autorisation à l’identité.

Définir le déploiement

Un déploiement est un ensemble de ressources nécessaires pour héberger le modèle qui effectue l’inférence réelle.

Voici un exemple de définition de déploiement dans lequel la section model fait référence au modèle de flux inscrit. Vous pouvez également spécifier le chemin du modèle de flux en ligne.

$schema: https://azuremlschemas.azureedge.net/latest/managedOnlineDeployment.schema.json
name: blue
endpoint_name: basic-chat-endpoint
model: azureml:basic-chat-model:1
  # You can also specify model files path inline
  # path: examples/flows/chat/basic-chat
environment: 
  image: mcr.microsoft.com/azureml/promptflow/promptflow-runtime:latest
  # inference config is used to build a serving container for online deployments
  inference_config:
    liveness_route:
      path: /health
      port: 8080
    readiness_route:
      path: /health
      port: 8080
    scoring_route:
      path: /score
      port: 8080
instance_type: Standard_E16s_v3
instance_count: 1
environment_variables:
  # for pulling connections from workspace
  PRT_CONFIG_OVERRIDE: deployment.subscription_id=<subscription_id>,deployment.resource_group=<resource_group>,deployment.workspace_name=<workspace_name>,deployment.endpoint_name=<endpoint_name>,deployment.deployment_name=<deployment_name>

  # (Optional) When there are multiple fields in the response, using this env variable will filter the fields to expose in the response.
  # For example, if there are 2 flow outputs: "answer", "context", and I only want to have "answer" in the endpoint response, I can set this env variable to '["answer"]'.
  # If you don't set this environment, by default all flow outputs will be included in the endpoint response.
  # PROMPTFLOW_RESPONSE_INCLUDED_FIELDS: '["category", "evidence"]'
Attribut Description
Nom Le nom du déploiement.
Nom du point de terminaison Nom du point de terminaison sous lequel créer le déploiement.
Modèle Modèle à utiliser pour le déploiement. Cette valeur peut être une référence à un modèle versionné existant dans l’espace de travail ou une spécification de modèle inline.
Environment L’environnement pour héberger le modèle et le code. Il contient :
- image
- inference_config: est utilisé pour générer un conteneur de service pour les déploiements en ligne, notamment liveness route, readiness_route et scoring_route .
Type d’instance Taille de machine virtuelle à utiliser pour le déploiement. Pour obtenir la liste des tailles prises en charge, consultez la liste des références SKU des points de terminaison en ligne managés.
Nombre d’instances Nombre d’instances à utiliser pour le déploiement. Basez la valeur sur la charge de travail que vous attendez. Pour une haute disponibilité, nous vous recommandons de définir la valeur sur au moins 3. Nous réservons 20 % en plus pour effectuer des mises à niveau. Pour plus d’informations, consultez limites pour les points de terminaison en ligne.
Variables d’environnement Les variables d’environnement suivantes doivent être définies pour les points de terminaison déployés à partir d’un flux :
– (obligatoire) PRT_CONFIG_OVERRIDE : pour extraire des connexions à partir de l’espace de travail
- (facultatif) PROMPTFLOW_RESPONSE_INCLUDED_FIELDS: : lorsqu’il y a plusieurs champs dans la réponse, l’utilisation de cette variable env filtre les champs à exposer dans la réponse.
Par exemple, s’il existe deux sorties de flux : « answer », « context » et si vous souhaitez uniquement avoir « answer » dans la réponse du point de terminaison, vous pouvez définir cette variable env sur « ["answer"] ».

Important

Si votre dossier de flux comporte un fichier requirements.txt qui contient les dépendances nécessaires à l’exécution du flux, vous devez suivre déployer avec des étapes d’environnement personnalisées pour générer l’environnement personnalisé, y compris les dépendances.

Si vous créez un déploiement en ligne Kubernetes, vous devez spécifier les attributs supplémentaires suivants :

Attribut Description
Type Type du déploiement. Définissez la valeur sur kubernetes.
Type d’instance Le type instance que vous avez créé dans votre cluster Kubernetes à utiliser pour le déploiement, ce qui représente la ressource de calcul de demande/limite du déploiement. Pour plus d’informations, consultez Créer et gérer types d’instances.

Déployer votre point de terminaison en ligne dans Azure

Pour créer le point de terminaison dans le cloud, exécutez le code suivant :

az ml online-endpoint create --file endpoint.yml

Pour créer le déploiement nommé blue sous le point de terminaison, exécutez le code suivant :

az ml online-deployment create --file blue-deployment.yml --all-traffic

Remarque

Ce déploiement risque de prendre plus de 15 minutes.

Conseil

Si vous préférez ne pas bloquer votre console CLI, vous pouvez ajouter l’indicateur --no-wait à la commande. Toutefois, cela arrêtera l’affichage interactif de l’état du déploiement.

Important

L’indicateur --all-traffic dans la commande az ml online-deployment create ci-dessus alloue 100 % du trafic du point de terminaison au déploiement bleu nouvellement créé. Bien que cela soit utile à des fins de développement et de test, pour la production, vous souhaiterez peut-être ouvrir le trafic vers le nouveau déploiement via une commande explicite. Par exemple : az ml online-endpoint update -n $ENDPOINT_NAME --traffic "blue=100".

Vérification de l’état du point de terminaison et du déploiement

Pour vérifier l’état du point de terminaison, exécutez le code suivant :

az ml online-endpoint show -n basic-chat-endpoint

Pour vérifier l’état du déploiement, exécutez le code suivant :

az ml online-deployment get-logs --name blue --endpoint basic-chat-endpoint

Appeler le point de terminaison pour effectuer la notation des données avec votre modèle

Vous pouvez créer un fichier sample-request.json comme suit :

{
  "question": "What is Azure Machine Learning?",
  "chat_history":  []
}
az ml online-endpoint invoke --name basic-chat-endpoint --request-file sample-request.json

Vous pouvez également l’appeler avec un client HTTP, par exemple avec curl :

ENDPOINT_KEY=<your-endpoint-key>
ENDPOINT_URI=<your-endpoint-uri>

curl --request POST "$ENDPOINT_URI" --header "Authorization: Bearer $ENDPOINT_KEY" --header 'Content-Type: application/json' --data '{"question": "What is Azure Machine Learning?", "chat_history":  []}'

Vous pouvez obtenir votre clé de point de terminaison et votre URI de point de terminaison à partir de l’espace de travail Azure Machine Learning dans points de terminaison>Consommer>informations de consommation de base.

Configurations avancées

Déployer avec des connexions autres que celles du développement du flux

Vous voudrez probablement remplacer les connexions du flux pendant le déploiement.

Par exemple, si votre fichier flow.dag.yaml utilise une connexion appelée my_connection, vous pouvez la remplacer en ajoutant des variables d’environnement du yaml de déploiement comme suit :

Option 1 : remplacer le nom de la connexion

environment_variables:
  my_connection: <override_connection_name>

Si vous souhaitez remplacer un champ spécifique de la connexion, vous pouvez le remplacer en ajoutant des variables d’environnement avec le modèle d’affectation de noms <connection_name>_<field_name>. Par exemple, si votre flux utilise une connexion nommée my_connection avec une clé de configuration appelée chat_deployment_name, le back-end de service tentera de récupérer chat_deployment_name à partir de la variable d’environnement « MY_CONNECTION_CHAT_DEPLOYMENT_NAME » par défaut. Si la variable d’environnement n’est pas définie, il utilisera la valeur d’origine de la définition de flux.

Option 2 : remplacer en faisant référence à la ressource

environment_variables:
  my_connection: ${{azureml://connections/<override_connection_name>}}

Remarque

Vous ne pouvez faire référence qu’à une connexion au sein du même espace de travail.

Déployer avec un environnement personnalisé

Cette section vous montre comment utiliser un contexte docker build pour spécifier l’environnement de votre déploiement, en supposant que vous connaissez Docker et les environnements Azure Machine Learning.

  1. Dans votre environnement local, créez un dossier appelé image_build_with_reqirements qui contient les fichiers suivants :

    |--image_build_with_reqirements
    |  |--requirements.txt
    |  |--Dockerfile
    
    • requirements.txt doit être hérité du dossier de flux, qui a été utilisé pour suivre les dépendances du flux.

    • Le contenu Dockerfile est le suivant :

      FROM mcr.microsoft.com/azureml/promptflow/promptflow-runtime:latest
      COPY ./requirements.txt .
      RUN pip install -r requirements.txt
      
  2. Remplacez la section environnement du fichier yaml de définition de déploiement par le contenu suivant :

    environment: 
      build:
        path: image_build_with_reqirements
        dockerfile_path: Dockerfile
      # deploy prompt flow is BYOC, so we need to specify the inference config
      inference_config:
        liveness_route:
          path: /health
          port: 8080
        readiness_route:
          path: /health
          port: 8080
        scoring_route:
          path: /score
          port: 8080
    

Utiliser le moteur de service FastAPI (préversion)

Par défaut, le service de flux d’invite utilise le moteur de service FLASK. À partir du Kit de développement logiciel (SDK) de flux d’invite version 1.10.0, le moteur de service basé sur FastAPI est pris en charge. Vous pouvez utiliser le fastapi moteur de service en spécifiant une variable d’environnement PROMPTFLOW_SERVING_ENGINE.

environment_variables:
  PROMPTFLOW_SERVING_ENGINE=fastapi

Configurer l’accès concurrentiel pour le déploiement

Lors du déploiement de votre flux vers un déploiement en ligne, vous devez configurer deux variables d’environnement pour l’accès concurrentiel : PROMPTFLOW_WORKER_NUM et PROMPTFLOW_WORKER_THREADS. En outre, vous allez également devoir définir le paramètre max_concurrent_requests_per_instance.

Voici un exemple de configuration du fichier deployment.yaml.

request_settings:
  max_concurrent_requests_per_instance: 10
environment_variables:
  PROMPTFLOW_WORKER_NUM: 4
  PROMPTFLOW_WORKER_THREADS: 1
  • PROMPTFLOW_WORKER_NUM : ce paramètre détermine le nombre de Workers (processus) qui va être démarré dans un conteneur. La valeur par défaut est égale au nombre de cœurs de processeur, tandis que la valeur maximale est le double du nombre de cœurs de processeur.

  • PROMPTFLOW_WORKER_THREADS : ce paramètre détermine le nombre de threads qui va être démarré dans un Worker. La valeur par défaut est 1.

    Remarque

    Lorsque vous définissez PROMPTFLOW_WORKER_THREADS sur une valeur supérieure à 1, assurez-vous que le code de votre flux est thread-safe.

  • max_concurrent_requests_per_instance : le nombre maximal de demandes simultanées par instance autorisées pour le déploiement. La valeur par défaut est 10.

    La valeur suggérée de max_concurrent_requests_per_instance dépend de la durée de votre requête :

    • Si la durée de votre requête est supérieure à 200 ms, définissez la valeur de max_concurrent_requests_per_instance sur PROMPTFLOW_WORKER_NUM * PROMPTFLOW_WORKER_THREADS.
    • Si la durée de votre requête est inférieure à 200 ms, définissez la valeur de max_concurrent_requests_per_instance sur (1.5-2) * PROMPTFLOW_WORKER_NUM * PROMPTFLOW_WORKER_THREADS. Cela peut améliorer le débit total, en permettant la miss en file d’attente côté serveur de certaines requêtes.
    • Si vous envoyez des requêtes interrégions, vous pouvez modifier le seuil de 200 ms à 1 s.

Lors du réglage des paramètres ci-dessus, vous devez surveiller les métriques suivantes pour garantir des niveaux de performance et une stabilité optimales :

  • Utilisation du processeur/de la mémoire par l’instance de ce déploiement
  • Réponses autres que 200 (4xx, 5xx)
    • Si vous recevez une réponse 429, cela indique généralement que vous devez procéder à un réajustement de vos paramètres d’accès concurrentiel en suivant le guide ci-dessus ou mettre à l’échelle votre déploiement.
  • État de la limitation Azure OpenAI

Surveiller les points de terminaison

Collecter des métriques générales

Vous pouvez afficher les métriques générales du déploiement en ligne (numéros de requête, latence de requête, octets réseau, utilisation du processeur/GPU/disque/mémoire, etc.).

Collecter les données de suivi et les métriques système pendant le temps d’inférence

Vous pouvez également collecter des données de suivi et des métriques spécifiques au déploiement de flux d’invite (consommation de jetons, latence de flux, etc.) pendant l’inférence à l’espace de travail lié à Application Insights en ajoutant une propriété app_insights_enabled: true dans le fichier yaml de déploiement. En savoir plus sur trace et les métriques du déploiement de flux d’invite.

Les métriques et les traces spécifiques au flux d'invite peuvent être spécifiées à d'autres Application Insights que celui lié à l'espace de travail. Vous pouvez spécifier une variable d’environnement dans le fichier yaml de déploiement comme suit. Vous pouvez trouver la chaîne de connexion de votre Application Insights dans la page Présentation du Portail Microsoft Azure.

environment_variables:
  APPLICATIONINSIGHTS_CONNECTION_STRING: <connection_string>

Remarque

Si vous définissez uniquement app_insights_enabled: true, mais que votre espace de travail ne comporte pas de ressource Application Insights liée, votre déploiement n’échoue pas, mais aucune donnée n’est collectée. Si vous spécifiez à la fois app_insights_enabled: true et la variable d’environnement ci-dessus, les données et les métriques de traçage sont envoyées à la ressource Application Insights liée à l’espace de travail. Par conséquent, si vous souhaitez spécifier un autre Application Insights, vous devez uniquement conserver la variable d’environnement.

Erreurs courantes

Problème de délai d’expiration de la demande en amont lors de la consommation du point de terminaison

Cette erreur est généralement due au délai d’expiration. Par défaut, le request_timeout_ms est 5000. Vous pouvez spécifier au maximum 5 minutes, soit 300 000 ms. Voici un exemple montrant comment spécifier le délai d’expiration de la requête dans le fichier yaml de déploiement. En savoir plus sur le schéma de déploiement ici.

request_settings:
  request_timeout_ms: 300000

Remarque

Le délai d’expiration de 300 000 ms fonctionne uniquement pour les déploiements en ligne gérés à partir du flux d’invite. Vous devez vous assurer d’avoir ajouté des propriétés pour votre modèle comme indiqué ci-dessous (yaml de spécification de modèle inline dans le déploiement ou yaml de spécification de modèle autonome) pour indiquer qu’il s’agit d’un déploiement à partir du flux d’invite.

properties:
  # indicate a deployment from prompt flow
  azureml.promptflow.source_flow_id: <value>

Étapes suivantes