Schedule Classe
Définit une planification de soumission d’un pipeline.
Une fois qu’un pipeline est publié, vous pouvez utiliser une planification pour soumettre le pipeline à un intervalle spécifique, ou quand des changements liés à un emplacement du service Stockage Blob sont détectés.
Initialisez la planification.
- Héritage
-
builtins.objectSchedule
Constructeur
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Objet d’espace de travail auquel cette planification appartient. |
id
Obligatoire
|
ID de la planification. |
name
Obligatoire
|
Nom de la planification. |
description
Obligatoire
|
Description de la planification. |
pipeline_id
Obligatoire
|
ID du pipeline à soumettre par la planification. |
status
Obligatoire
|
État de la planification, « Actif » ou « Désactivé ». |
recurrence
Obligatoire
|
Périodicité de la planification du pipeline. |
datastore_name
Obligatoire
|
Nom du magasin de données pour lequel un monitoring doit être effectué sur les objets blob modifiés/ajoutés. Remarque : 1) Les magasins de données de réseau virtuel ne sont pas pris en charge. 2) Le type d’authentification du magasin de données doit être défini sur « Clé de compte ». |
polling_interval
Obligatoire
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. |
data_path_parameter_name
Obligatoire
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. |
continue_on_step_failure
Obligatoire
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. Si ce paramètre est fourni, il remplace le paramètre continue_on_step_failure du pipeline. |
path_on_datastore
Obligatoire
|
facultatif. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : Dans la mesure où path_on_datastore se trouve sous le conteneur du magasin de données, le chemin réel faisant l’objet d’un monitoring par la planification est container/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications effectués dans un sous-dossier de path_on_datastore ne font pas l’objet d’un monitoring. Prise en charge limitée aux planifications de magasin de données. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Fournisseur de planification. Valeur par défaut: None
|
workspace
Obligatoire
|
Objet d’espace de travail auquel cette planification appartient. |
id
Obligatoire
|
ID de la planification. |
name
Obligatoire
|
Nom de la planification. |
description
Obligatoire
|
Description de la planification. |
pipeline_id
Obligatoire
|
ID du pipeline à soumettre par la planification. |
status
Obligatoire
|
État de la planification, « Actif » ou « Désactivé ». |
recurrence
Obligatoire
|
Périodicité de la planification du pipeline. |
datastore_name
Obligatoire
|
Nom du magasin de données pour lequel un monitoring doit être effectué sur les objets blob modifiés/ajoutés. Remarque : Les magasins de données VNet ne sont pas pris en charge. |
polling_interval
Obligatoire
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. |
data_path_parameter_name
Obligatoire
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. |
continue_on_step_failure
Obligatoire
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. Si ce paramètre est fourni, il remplace le paramètre continue_on_step_failure du pipeline. |
path_on_datastore
Obligatoire
|
facultatif. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : Dans la mesure où path_on_datastore se trouve sous le conteneur du magasin de données, le chemin réel faisant l’objet d’un monitoring par la planification est container/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications effectués dans un sous-dossier de path_on_datastore ne font pas l’objet d’un monitoring. Prise en charge limitée aux planifications de magasin de données. |
_schedule_provider
Obligatoire
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Fournisseur de planification. |
pipeline_endpoint_id
|
ID du point de terminaison de pipeline à soumettre par la planification. Valeur par défaut: None
|
Remarques
Deux types de planification sont pris en charge. Le premier utilise la périodicité pour soumettre un pipeline selon une planification donnée. Le deuxième effectue un monitoring de AzureBlobDatastore à la recherche d’objets blob ajoutés ou modifiés, puis soumet un pipeline quand des changements sont détectés.
Pour créer une planification qui soumet un pipeline selon une périodicité, utilisez ScheduleRecurrence au moment de la création de la planification.
ScheduleRecurrence est utilisé au moment de la création d’une planification pour un pipeline de la manière suivante :
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Cette planification soumet le PublishedPipeline fourni toutes les 12 heures. Le pipeline soumis est créé dans l’expérience avec le nom « helloworld ».
Pour créer une planification qui déclenche PipelineRuns en cas de modification d’un emplacement du service Stockage Blob, spécifiez un magasin de données ainsi que les informations de données associées au moment de la création de la planification.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Notez que les paramètres polling_interval et path_on_datastore sont facultatifs. Le paramètre polling_interval spécifie la fréquence d’interrogation des modifications apportées au magasin de données. La valeur par défaut est de 5 minutes. path_on_datastore permet de spécifier le dossier de magasin de données sur lequel un monitoring doit être effectué pour détecter les changements apportés. Si None est spécifié, le conteneur du magasin de données fait l’objet d’un monitoring. Remarque : Les ajouts/modifications d’objets blob dans les sous-dossiers de path_on_datastore ou du conteneur de magasin de données (si path_on_datastore n’est pas spécifié) ne sont pas détectés.
De plus, si le pipeline a été construit pour utiliser DataPathPipelineParameter afin de décrire une entrée d’étape, utilisez le paramètre data_path_parameter_name au moment de la création d’une planification déclenchée par le magasin de données. Cela permet de définir l’entrée en fonction du fichier ayant fait l’objet de changements quand PipelineRun est soumis par la planification.
Dans l’exemple suivant, quand la planification déclenche PipelineRun, la valeur de PipelineParameter pour « input_data » correspond au fichier modifié/ajouté :
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Pour plus d’informations sur les planifications, consultez : https://aka.ms/pl-schedule.
Méthodes
create |
Permet de créer une planification pour un pipeline. Spécifiez la périodicité d’une planification sur une base temporelle, ou spécifiez un magasin de données, polling_interval (facultatif), data_path_parameter_name (facultatif) pour créer une planification qui effectue le monitoring de l’emplacement du magasin de données à la recherche de modifications/d’ajouts. |
create_for_pipeline_endpoint |
Crée une planification pour un point de terminaison de pipeline. Spécifiez la périodicité d’une planification sur une base temporelle, ou spécifiez un magasin de données, polling_interval (facultatif), data_path_parameter_name (facultatif) pour créer une planification qui effectue le monitoring de l’emplacement du magasin de données à la recherche de modifications/d’ajouts. |
disable |
Permet de définir la planification à l’état « Désactivé » pour l’empêcher de s’exécuter. |
enable |
Permet de définir la planification à l’état « Actif » pour lui permettre de s’exécuter. |
get |
Permet d’obtenir la planification ayant l’ID donné. |
get_all |
Permet d’obtenir toutes les planifications de l’espace de travail actuel. DÉPRÉCIÉE : Cette méthode est dépréciée en faveur de la méthode list. |
get_last_pipeline_run |
Permet de récupérer la dernière exécution de pipeline soumise par la planification. Retourne None si aucune exécution n’a été soumise. |
get_pipeline_runs |
Permet de récupérer les exécutions de pipeline générées à partir de la planification. |
get_schedules_for_pipeline_endpoint_id |
Permet d’obtenir toutes les planifications correspondant à l’ID de point de terminaison de pipeline donné. |
get_schedules_for_pipeline_id |
Permet d’obtenir toutes les planifications correspondant à l’ID de pipeline donné. |
list |
Permet d’obtenir toutes les planifications de l’espace de travail actuel. |
load_yaml |
Permet de charger et de lire le fichier YAML pour obtenir les paramètres de planification. Le fichier YAML est un moyen supplémentaire de passer les paramètres de Schedule pour créer une planification. |
update |
Permet de mettre à jour la planification. |
create
Permet de créer une planification pour un pipeline.
Spécifiez la périodicité d’une planification sur une base temporelle, ou spécifiez un magasin de données, polling_interval (facultatif), data_path_parameter_name (facultatif) pour créer une planification qui effectue le monitoring de l’emplacement du magasin de données à la recherche de modifications/d’ajouts.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Objet d’espace de travail auquel cette planification appartient. |
name
Obligatoire
|
Nom de la planification. |
pipeline_id
Obligatoire
|
ID du pipeline à soumettre par la planification. |
experiment_name
Obligatoire
|
Nom de l’expérience à laquelle la planification va soumettre les tests. |
recurrence
|
Périodicité de la planification du pipeline. Valeur par défaut: None
|
description
|
Description de la planification. Valeur par défaut: None
|
pipeline_parameters
|
Dictionnaire de paramètres pour affecter de nouvelles valeurs {nom du paramètre, valeur du paramètre} Valeur par défaut: None
|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai. Valeur par défaut: 3600
|
datastore
|
Magasin de données pour lequel un monitoring doit être effectué sur les objets blob modifiés/ajoutés. Remarque : Les magasins de données VNet ne sont pas pris en charge. Non utilisable avec une périodicité. Valeur par défaut: None
|
polling_interval
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes. Prise en charge limitée aux planifications de magasin de données. Valeur par défaut: 5
|
data_path_parameter_name
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. Prise en charge limitée aux planifications de magasin de données. Valeur par défaut: None
|
continue_on_step_failure
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. Si ce paramètre est fourni, il remplace le paramètre continue_on_step_failure du pipeline. Valeur par défaut: None
|
path_on_datastore
|
facultatif. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : Dans la mesure où path_on_datastore se trouve sous le conteneur du magasin de données, le chemin réel faisant l’objet d’un monitoring par la planification est container/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications effectués dans un sous-dossier de path_on_datastore ne font pas l’objet d’un monitoring. Prise en charge limitée aux planifications de magasin de données. Valeur par défaut: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de workflow. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison du service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Planification créée. |
create_for_pipeline_endpoint
Crée une planification pour un point de terminaison de pipeline.
Spécifiez la périodicité d’une planification sur une base temporelle, ou spécifiez un magasin de données, polling_interval (facultatif), data_path_parameter_name (facultatif) pour créer une planification qui effectue le monitoring de l’emplacement du magasin de données à la recherche de modifications/d’ajouts.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Objet d’espace de travail auquel cette planification appartient. |
name
Obligatoire
|
Nom de la planification. |
pipeline_endpoint_id
Obligatoire
|
ID du point de terminaison de pipeline à soumettre par la planification. |
experiment_name
Obligatoire
|
Nom de l’expérience à laquelle la planification va soumettre les tests. |
recurrence
|
Périodicité de la planification du pipeline. Valeur par défaut: None
|
description
|
Description de la planification. Valeur par défaut: None
|
pipeline_parameters
|
Dictionnaire de paramètres pour affecter de nouvelles valeurs {nom du paramètre, valeur du paramètre} Valeur par défaut: None
|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai. Valeur par défaut: 3600
|
datastore
|
Magasin de données pour lequel un monitoring doit être effectué sur les objets blob modifiés/ajoutés. Remarque : Les magasins de données VNet ne sont pas pris en charge. Non utilisable avec une périodicité. Valeur par défaut: None
|
polling_interval
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes. Prise en charge limitée aux planifications de magasin de données. Valeur par défaut: 5
|
data_path_parameter_name
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. Prise en charge limitée aux planifications de magasin de données. Valeur par défaut: None
|
continue_on_step_failure
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. Si ce paramètre est fourni, il remplace le paramètre continue_on_step_failure du pipeline. Valeur par défaut: None
|
path_on_datastore
|
facultatif. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : Dans la mesure où path_on_datastore se trouve sous le conteneur du magasin de données, le chemin réel faisant l’objet d’un monitoring par la planification est container/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications effectués dans un sous-dossier de path_on_datastore ne font pas l’objet d’un monitoring. Prise en charge limitée aux planifications de magasin de données. Valeur par défaut: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de workflow. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison du service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Planification créée. |
disable
Permet de définir la planification à l’état « Désactivé » pour l’empêcher de s’exécuter.
disable(wait_for_provisioning=False, wait_timeout=3600)
Paramètres
Nom | Description |
---|---|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai d’attente. Valeur par défaut: 3600
|
enable
Permet de définir la planification à l’état « Actif » pour lui permettre de s’exécuter.
enable(wait_for_provisioning=False, wait_timeout=3600)
Paramètres
Nom | Description |
---|---|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai d’attente. Valeur par défaut: 3600
|
get
Permet d’obtenir la planification ayant l’ID donné.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail dans lequel la planification a été créée. |
id
Obligatoire
|
ID de la planification. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de workflow. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison du service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Objet de planification |
get_all
Permet d’obtenir toutes les planifications de l’espace de travail actuel.
DÉPRÉCIÉE : Cette méthode est dépréciée en faveur de la méthode list.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
active_only
|
Si la valeur est true, retourne uniquement les planifications actives. S’applique uniquement si aucun ID de pipeline n’est fourni. Valeur par défaut: True
|
pipeline_id
|
Si ce paramètre est fourni, seules les planifications du pipeline ayant l’ID donné sont retournées. Valeur par défaut: None
|
pipeline_endpoint_id
|
Si ce paramètre est fourni, seules les planifications du point de terminaison de pipeline ayant l’ID donné sont retournées. Valeur par défaut: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de workflow. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison du service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Liste de Schedule. |
get_last_pipeline_run
Permet de récupérer la dernière exécution de pipeline soumise par la planification. Retourne None si aucune exécution n’a été soumise.
get_last_pipeline_run()
Retours
Type | Description |
---|---|
Dernière exécution de pipeline. |
get_pipeline_runs
Permet de récupérer les exécutions de pipeline générées à partir de la planification.
get_pipeline_runs()
Retours
Type | Description |
---|---|
Liste de PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Permet d’obtenir toutes les planifications correspondant à l’ID de point de terminaison de pipeline donné.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
pipeline_endpoint_id
Obligatoire
|
ID de point de terminaison de pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de workflow. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison du service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Liste de Schedule. |
get_schedules_for_pipeline_id
Permet d’obtenir toutes les planifications correspondant à l’ID de pipeline donné.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
pipeline_id
Obligatoire
|
ID de pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de workflow. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison du service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Liste de Schedule. |
list
Permet d’obtenir toutes les planifications de l’espace de travail actuel.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
active_only
|
Si la valeur est true, retourne uniquement les planifications actives. S’applique uniquement si aucun ID de pipeline n’est fourni. Valeur par défaut: True
|
pipeline_id
|
Si ce paramètre est fourni, seules les planifications du pipeline ayant l’ID donné sont retournées. Valeur par défaut: None
|
pipeline_endpoint_id
|
Si ce paramètre est fourni, seules les planifications du point de terminaison de pipeline ayant l’ID donné sont retournées. Valeur par défaut: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de workflow. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison du service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Liste de Schedule. |
load_yaml
Permet de charger et de lire le fichier YAML pour obtenir les paramètres de planification.
Le fichier YAML est un moyen supplémentaire de passer les paramètres de Schedule pour créer une planification.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Paramètres
Nom | Description |
---|---|
workspace
Obligatoire
|
Espace de travail. |
filename
Obligatoire
|
Nom de fichier YAML avec l’emplacement. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Fournisseur de workflow. Valeur par défaut: None
|
_service_endpoint
|
Point de terminaison du service. Valeur par défaut: None
|
Retours
Type | Description |
---|---|
Dictionnaire de paramètres et de valeurs de Schedule. |
Remarques
Deux types de fichier YAML sont pris en charge pour les planifications. Le premier lit et charge les informations de périodicité pour permettre la création de la planification et le déclenchement du pipeline. Le deuxième lit et charge les informations du magasin de données pour permettre la création de la planification et le déclenchement du pipeline.
Exemple de création d’une planification qui soumet un pipeline en fonction d’une périodicité :
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Exemple de fichier YAML test_schedule_with_recurrence.yaml :
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Exemple de création d’une planification qui soumet un pipeline en fonction d’un magasin de données :
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Permet de mettre à jour la planification.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Paramètres
Nom | Description |
---|---|
name
|
Nouveau nom de la planification. Valeur par défaut: None
|
recurrence
|
Nouvelle périodicité de planification du pipeline. Valeur par défaut: None
|
description
|
Nouvelle description de la planification. Valeur par défaut: None
|
pipeline_parameters
|
Dictionnaire de paramètres pour affecter de nouvelles valeurs {nom du paramètre, valeur du paramètre}. Valeur par défaut: None
|
status
|
Nouvel état de la planification : « Actif » ou « Désactivé ». Valeur par défaut: None
|
wait_for_provisioning
|
Indique s’il faut attendre la fin de l’approvisionnement de la planification. Valeur par défaut: False
|
wait_timeout
|
Nombre de secondes à attendre avant l’expiration du délai. Valeur par défaut: 3600
|
datastore
|
Magasin de données pour lequel un monitoring doit être effectué sur les objets blob modifiés/ajoutés. Remarque : Les magasins de données VNet ne sont pas pris en charge. Valeur par défaut: None
|
polling_interval
|
Durée (en minutes) entre l’interrogation des blobs modifiés/ajoutés. La valeur par défaut est de 5 minutes. Valeur par défaut: None
|
data_path_parameter_name
|
Nom du paramètre de pipeline relatif au chemin d’accès des données à définir avec le chemin d’accès des blobs modifiés. Valeur par défaut: None
|
continue_on_step_failure
|
Indique s’il faut poursuivre l’exécution des autres étapes du PipelineRun envoyé si une étape échoue. Si ce paramètre est fourni, il remplace le paramètre continue_on_step_failure du pipeline. Valeur par défaut: None
|
path_on_datastore
|
facultatif. Chemin d’accès sur le magasin de données à surveiller pour les blobs modifiés/ajoutés. Remarque : Dans la mesure où path_on_datastore se trouve sous le conteneur du magasin de données, le chemin réel faisant l’objet d’un monitoring par la planification est container/path_on_datastore. S’il n’y en a aucun, le conteneur du magasin de données est surveillé. Les ajouts/modifications effectués dans un sous-dossier de path_on_datastore ne font pas l’objet d’un monitoring. Prise en charge limitée aux planifications de magasin de données. Valeur par défaut: None
|
Attributs
continue_on_step_failure
Permet d’obtenir la valeur du paramètre continue_on_step_failure
.
Retours
Type | Description |
---|---|
Valeur du paramètre |
data_path_parameter_name
Permet d’obtenir le nom du paramètre de pipeline relatif au chemin de données à définir avec le chemin d’objet blob changé.
Retours
Type | Description |
---|---|
Nom du paramètre de chemin des données. |
datastore_name
Permet d’obtenir le nom du magasin de données utilisé pour la planification.
Retours
Type | Description |
---|---|
Nom du magasin de données. |
description
Permet d’obtenir la description de la planification.
Retours
Type | Description |
---|---|
Description de la planification. |
id
name
path_on_datastore
Permet d’obtenir le chemin au sein du magasin de données faisant l’objet d’un monitoring par la planification.
Retours
Type | Description |
---|---|
Chemin dans le magasin de données. |
pipeline_endpoint_id
Obtient l’ID du point de terminaison de pipeline soumis par la planification.
Retours
Type | Description |
---|---|
ID. |
pipeline_id
polling_interval
Permet d’obtenir le délai, en minutes, qui s’écoule entre les interrogations des objets blob modifiés/ajoutés.
Retours
Type | Description |
---|---|
Intervalle d’interrogation. |
recurrence
Permet d’obtenir la périodicité de la planification.
Retours
Type | Description |
---|---|
Périodicité de la planification. |