Schedule Classe
Define uma agenda para submeter um pipeline.
Após a publicação de um Pipeline, pode ser utilizada uma Agenda para submeter o Pipeline num intervalo especificado ou quando são detetadas alterações a uma localização de armazenamento de Blobs.
Inicializar Agenda.
- Herança
-
builtins.objectSchedule
Construtor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
O objeto de área de trabalho a que esta Agenda pertencerá. |
id
Necessário
|
O ID da Agenda. |
name
Necessário
|
O nome da Agenda. |
description
Necessário
|
A descrição da agenda. |
pipeline_id
Necessário
|
O ID do pipeline que a agenda irá submeter. |
status
Necessário
|
O estado da agenda, "Ativo" ou "Desativado". |
recurrence
Necessário
|
A periodicidade da agenda para o pipeline. |
datastore_name
Necessário
|
O nome do arquivo de dados a monitorizar para blobs modificados/adicionados. Nota: 1) Os Arquivos de Dados da VNET não são suportados. 2) O tipo de autenticação do arquivo de dados deve ser definido como "Chave de conta". |
polling_interval
Necessário
|
Quanto tempo, em minutos, entre a consulta para blobs modificados/adicionados. |
data_path_parameter_name
Necessário
|
O nome do parâmetro do pipeline do caminho de dados a definir com o caminho do blob alterado. |
continue_on_step_failure
Necessário
|
Se pretende continuar a execução de outros passos no PipelineRun submetido se um passo falhar. Se for fornecido, esta ação substituirá a definição de continue_on_step_failure do Pipeline. |
path_on_datastore
Necessário
|
Opcional. O caminho no arquivo de dados a monitorizar para blobs modificados/adicionados. Nota: o path_on_datastore estará no contentor do arquivo de dados, pelo que o caminho real que a agenda irá monitorizar será contentor/path_on_datastore. Se nenhum, o contentor do arquivo de dados é monitorizado. As adições/modificações efetuadas numa subpasta do path_on_datastore não são monitorizadas. Apenas suportado para agendamentos do DataStore. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
O fornecedor de agendamento. Default value: None
|
workspace
Necessário
|
O objeto de área de trabalho a que esta Agenda pertencerá. |
id
Necessário
|
O ID da Agenda. |
name
Necessário
|
O nome da Agenda. |
description
Necessário
|
A descrição da agenda. |
pipeline_id
Necessário
|
O ID do pipeline que a agenda irá submeter. |
status
Necessário
|
O estado da agenda, "Ativo" ou "Desativado". |
recurrence
Necessário
|
A periodicidade da agenda do pipeline. |
datastore_name
Necessário
|
O nome do arquivo de dados a monitorizar para blobs modificados/adicionados. Nota: os Arquivos de Dados da VNET não são suportados. |
polling_interval
Necessário
|
Quanto tempo, em minutos, entre a consulta para blobs modificados/adicionados. |
data_path_parameter_name
Necessário
|
O nome do parâmetro do pipeline do caminho de dados a definir com o caminho do blob alterado. |
continue_on_step_failure
Necessário
|
Se pretende continuar a execução de outros passos no PipelineRun submetido se um passo falhar. Se for fornecido, esta ação substituirá a definição de continue_on_step_failure do Pipeline. |
path_on_datastore
Necessário
|
Opcional. O caminho no arquivo de dados a monitorizar para blobs modificados/adicionados. Nota: o path_on_datastore estará no contentor do arquivo de dados, pelo que o caminho real que a agenda irá monitorizar será contentor/path_on_datastore. Se nenhum, o contentor do arquivo de dados é monitorizado. As adições/modificações efetuadas numa subpasta do path_on_datastore não são monitorizadas. Apenas suportado para agendamentos do DataStore. |
_schedule_provider
Necessário
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
O fornecedor de agendamento. |
pipeline_endpoint_id
|
O ID do ponto final do pipeline que a agenda irá submeter. Default value: None
|
Observações
São suportados dois tipos de agendamentos. A primeira utiliza a periodicidade de tempo para submeter um Pipeline com base numa determinada agenda. O segundo monitoriza um AzureBlobDatastore para blobs adicionados ou modificados e submete um Pipeline quando são detetadas alterações.
Para criar uma Agenda que submeterá um Pipeline com base numa agenda periódica, utilize o ScheduleRecurrence ao criar a Agenda.
É utilizada uma ScheduleRecurrence ao criar uma Agenda para um Pipeline da seguinte forma:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Esta Agenda submeterá o fornecido PublishedPipeline a cada 12 horas. O Pipeline submetido será criado na Experimentação com o nome "helloworld".
Para criar uma Agenda que irá acionar PipelineRuns em modificações a uma localização de armazenamento de Blobs, especifique um Arquivo de dados e informações de dados relacionadas ao criar a Agenda.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Tenha em atenção que os parâmetros polling_interval e path_on_datastore são opcionais. O polling_interval especifica a frequência com que pretende consultar as modificações ao Arquivo de Dados e, por predefinição, são 5 minutos. path_on_datastore pode ser utilizado para especificar a pasta no Arquivo de Dados para monitorizar as alterações. Se Não, o contentor do Arquivo de Dados é monitorizado. Nota: não são detetadas adições/modificações de blobs em subpastas do path_on_datastore ou do contentor do Arquivo de Dados (se não for especificado nenhum path_on_datastore).
Além disso, se o Pipeline tiver sido construído para utilizar um DataPathPipelineParameter para descrever uma entrada de passo, utilize o parâmetro data_path_parameter_name ao criar uma Agenda acionada por Arquivo de Dados para definir a entrada para o ficheiro alterado quando uma PipelineRun for submetida pela Agenda.
No exemplo seguinte, quando a Agenda aciona PipelineRun, o valor do PipelineParameter "input_data" será definido como o ficheiro que foi modificado/adicionado:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Para obter mais informações sobre agendamentos, consulte: https://aka.ms/pl-schedule.
Métodos
create |
Crie uma agenda para um pipeline. Especifique periodicidade para uma agenda baseada no tempo ou especifique um Arquivo de Dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar uma agenda que irá monitorizar a localização do Arquivo de Dados para modificações/adições. |
create_for_pipeline_endpoint |
Crie uma agenda para um ponto final de pipeline. Especifique periodicidade para uma agenda baseada no tempo ou especifique um Arquivo de Dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar uma agenda que irá monitorizar a localização do Arquivo de Dados para modificações/adições. |
disable |
Defina o agendamento como "Desativado" e indisponível para execução. |
enable |
Defina o agendamento como "Ativo" e disponível para execução. |
get |
Obtenha a agenda com o ID especificado. |
get_all |
Obtenha todos os horários na área de trabalho atual. PRETERIDO: este método está a ser preterido a favor do list método. |
get_last_pipeline_run |
Obtenha a última execução do pipeline submetida pela agenda. Devolve Nenhuma se não tiverem sido submetidas execuções. |
get_pipeline_runs |
Obtenha as execuções de pipeline que foram geradas a partir da agenda. |
get_schedules_for_pipeline_endpoint_id |
Obtenha todas as agendas para o ID de ponto final do pipeline especificado. |
get_schedules_for_pipeline_id |
Obtenha todas as agendas para o ID do pipeline especificado. |
list |
Obtenha todos os horários na área de trabalho atual. |
load_yaml |
Carregue e leia o ficheiro YAML para obter os parâmetros de agendamento. O ficheiro YAML é mais uma forma de transmitir parâmetros de Agenda para criar agenda. |
update |
Atualize a agenda. |
create
Crie uma agenda para um pipeline.
Especifique periodicidade para uma agenda baseada no tempo ou especifique um Arquivo de Dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar uma agenda que irá monitorizar a localização do Arquivo de Dados para modificações/adições.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
O objeto de área de trabalho a que esta Agenda pertencerá. |
name
Necessário
|
O nome da Agenda. |
pipeline_id
Necessário
|
O ID do pipeline que a agenda irá submeter. |
experiment_name
Necessário
|
O nome da experimentação em que a agenda será apresentada é executado. |
recurrence
|
A periodicidade da agenda do pipeline. Default value: None
|
description
|
A descrição da agenda. Default value: None
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro} Default value: None
|
wait_for_provisioning
|
Se pretende aguardar pela conclusão do aprovisionamento da agenda. Default value: False
|
wait_timeout
|
O número de segundos a aguardar antes de exceder o tempo limite. Default value: 3600
|
datastore
|
O Arquivo de Dados a monitorizar para blobs modificados/adicionados. Nota: os Arquivos de Dados da VNET não são suportados. Não é possível utilizar com uma Periodicidade. Default value: None
|
polling_interval
|
Quanto tempo, em minutos, entre a consulta para blobs modificados/adicionados. A predefinição é 5 minutos. Apenas suportado para agendamentos do DataStore. Default value: 5
|
data_path_parameter_name
|
O nome do parâmetro do pipeline do caminho de dados a definir com o caminho do blob alterado. Apenas suportado para agendamentos do DataStore. Default value: None
|
continue_on_step_failure
|
Se pretende continuar a execução de outros passos no PipelineRun submetido se um passo falhar. Se for fornecido, esta ação substituirá a definição de continue_on_step_failure do Pipeline. Default value: None
|
path_on_datastore
|
Opcional. O caminho no arquivo de dados a monitorizar para blobs modificados/adicionados. Nota: o path_on_datastore estará no contentor do arquivo de dados, pelo que o caminho real que a agenda irá monitorizar será contentor/path_on_datastore. Se nenhum, o contentor do arquivo de dados é monitorizado. As adições/modificações efetuadas numa subpasta do path_on_datastore não são monitorizadas. Apenas suportado para agendamentos do DataStore. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O fornecedor de fluxo de trabalho. Default value: None
|
_service_endpoint
|
O ponto final de serviço. Default value: None
|
Devoluções
Tipo | Description |
---|---|
A agenda criada. |
create_for_pipeline_endpoint
Crie uma agenda para um ponto final de pipeline.
Especifique periodicidade para uma agenda baseada no tempo ou especifique um Arquivo de Dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar uma agenda que irá monitorizar a localização do Arquivo de Dados para modificações/adições.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
O objeto de área de trabalho a que esta Agenda pertencerá. |
name
Necessário
|
O nome da Agenda. |
pipeline_endpoint_id
Necessário
|
O ID do ponto final do pipeline que a agenda irá submeter. |
experiment_name
Necessário
|
O nome da experimentação em que a agenda será apresentada é executado. |
recurrence
|
A periodicidade da agenda do pipeline. Default value: None
|
description
|
A descrição da agenda. Default value: None
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro} Default value: None
|
wait_for_provisioning
|
Se pretende aguardar pela conclusão do aprovisionamento da agenda. Default value: False
|
wait_timeout
|
O número de segundos a aguardar antes de exceder o tempo limite. Default value: 3600
|
datastore
|
O Arquivo de Dados a monitorizar para blobs modificados/adicionados. Nota: os Arquivos de Dados da VNET não são suportados. Não é possível utilizar com uma Periodicidade. Default value: None
|
polling_interval
|
Quanto tempo, em minutos, entre a consulta para blobs modificados/adicionados. A predefinição é 5 minutos. Apenas suportado para agendamentos do DataStore. Default value: 5
|
data_path_parameter_name
|
O nome do parâmetro do pipeline do caminho de dados a definir com o caminho do blob alterado. Apenas suportado para agendamentos do DataStore. Default value: None
|
continue_on_step_failure
|
Se pretende continuar a execução de outros passos no PipelineRun submetido se um passo falhar. Se for fornecido, esta ação substituirá a definição de continue_on_step_failure do Pipeline. Default value: None
|
path_on_datastore
|
Opcional. O caminho no arquivo de dados a monitorizar para blobs modificados/adicionados. Nota: o path_on_datastore estará no contentor do arquivo de dados, pelo que o caminho real que a agenda irá monitorizar será contentor/path_on_datastore. Se nenhum, o contentor do arquivo de dados é monitorizado. As adições/modificações efetuadas numa subpasta do path_on_datastore não são monitorizadas. Apenas suportado para agendamentos do DataStore. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O fornecedor de fluxo de trabalho. Default value: None
|
_service_endpoint
|
O ponto final de serviço. Default value: None
|
Devoluções
Tipo | Description |
---|---|
A agenda criada. |
disable
Defina o agendamento como "Desativado" e indisponível para execução.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parâmetros
Name | Description |
---|---|
wait_for_provisioning
|
Se pretende aguardar pela conclusão do aprovisionamento da agenda. Default value: False
|
wait_timeout
|
Número de segundos a aguardar antes de exceder o tempo limite. Default value: 3600
|
enable
Defina o agendamento como "Ativo" e disponível para execução.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parâmetros
Name | Description |
---|---|
wait_for_provisioning
|
Se pretende aguardar pela conclusão do aprovisionamento da agenda. Default value: False
|
wait_timeout
|
Número de segundos a aguardar antes de exceder o tempo limite. Default value: 3600
|
get
Obtenha a agenda com o ID especificado.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
A área de trabalho em que a agenda foi criada. |
id
Necessário
|
ID da agenda. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O fornecedor de fluxo de trabalho. Default value: None
|
_service_endpoint
|
O ponto final de serviço. Default value: None
|
Devoluções
Tipo | Description |
---|---|
Objeto da agenda |
get_all
Obtenha todos os horários na área de trabalho atual.
PRETERIDO: este método está a ser preterido a favor do list método.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
A área de trabalho. |
active_only
|
Se for verdade, só devolve agendas que estão atualmente ativas. Aplica-se apenas se não for fornecido nenhum ID de pipeline. Default value: True
|
pipeline_id
|
Se for fornecido, só devolve agendas para o pipeline com o ID especificado. Default value: None
|
pipeline_endpoint_id
|
Se for fornecido, só devolve agendamentos para o ponto final do pipeline com o ID especificado. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O fornecedor de fluxo de trabalho. Default value: None
|
_service_endpoint
|
O ponto final de serviço. Default value: None
|
Devoluções
Tipo | Description |
---|---|
Uma lista de Schedule. |
get_last_pipeline_run
Obtenha a última execução do pipeline submetida pela agenda. Devolve Nenhuma se não tiverem sido submetidas execuções.
get_last_pipeline_run()
Devoluções
Tipo | Description |
---|---|
A última execução do pipeline. |
get_pipeline_runs
Obtenha as execuções de pipeline que foram geradas a partir da agenda.
get_pipeline_runs()
Devoluções
Tipo | Description |
---|---|
Uma lista de PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Obtenha todas as agendas para o ID de ponto final do pipeline especificado.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
A área de trabalho. |
pipeline_endpoint_id
Necessário
|
O ID do ponto final do pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O fornecedor de fluxo de trabalho. Default value: None
|
_service_endpoint
|
O ponto final de serviço. Default value: None
|
Devoluções
Tipo | Description |
---|---|
Uma lista de Schedule. |
get_schedules_for_pipeline_id
Obtenha todas as agendas para o ID do pipeline especificado.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
A área de trabalho. |
pipeline_id
Necessário
|
O ID do pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O fornecedor de fluxo de trabalho. Default value: None
|
_service_endpoint
|
O ponto final de serviço. Default value: None
|
Devoluções
Tipo | Description |
---|---|
Uma lista de Schedule. |
list
Obtenha todos os horários na área de trabalho atual.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
A área de trabalho. |
active_only
|
Se for verdade, só devolve agendas que estão atualmente ativas. Aplica-se apenas se não for fornecido nenhum ID de pipeline. Default value: True
|
pipeline_id
|
Se for fornecido, só devolve agendas para o pipeline com o ID especificado. Default value: None
|
pipeline_endpoint_id
|
Se for fornecido, só devolve agendamentos para o ponto final do pipeline com o ID especificado. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O fornecedor de fluxo de trabalho. Default value: None
|
_service_endpoint
|
O ponto final de serviço. Default value: None
|
Devoluções
Tipo | Description |
---|---|
Uma lista de Schedule. |
load_yaml
Carregue e leia o ficheiro YAML para obter os parâmetros de agendamento.
O ficheiro YAML é mais uma forma de transmitir parâmetros de Agenda para criar agenda.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Name | Description |
---|---|
workspace
Necessário
|
A área de trabalho. |
filename
Necessário
|
O nome de ficheiro YAML com localização. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O fornecedor de fluxo de trabalho. Default value: None
|
_service_endpoint
|
O ponto final de serviço. Default value: None
|
Devoluções
Tipo | Description |
---|---|
Um dicionário de Schedule parâmetros e valores. |
Observações
São suportados dois tipos de YAML para Agendas. As primeiras leituras e carregamentos de informações de periodicidade para agendar criar para acionar o pipeline. A segunda lê e carrega as informações do arquivo de dados para agendar a criação para acionar o pipeline.
Exemplo para criar uma Agenda que submeterá um Pipeline numa periodicidade, da seguinte forma:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Ficheiro YAML de exemplo test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Exemplo para criar uma Agenda que submeterá um Pipeline num arquivo de dados, da seguinte forma:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Atualize a agenda.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parâmetros
Name | Description |
---|---|
name
|
O novo nome da Agenda. Default value: None
|
recurrence
|
A nova periodicidade da agenda do pipeline. Default value: None
|
description
|
A nova descrição da agenda. Default value: None
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro}. Default value: None
|
status
|
O novo estado da agenda: "Ativo" ou "Desativado". Default value: None
|
wait_for_provisioning
|
Se pretende aguardar pela conclusão do aprovisionamento da agenda. Default value: False
|
wait_timeout
|
O número de segundos a aguardar antes de exceder o tempo limite. Default value: 3600
|
datastore
|
O Arquivo de Dados a monitorizar para blobs modificados/adicionados. Nota: os Arquivos de dados da VNET não são suportados. Default value: None
|
polling_interval
|
Quanto tempo, em minutos, entre a consulta para blobs modificados/adicionados. A predefinição é 5 minutos. Default value: None
|
data_path_parameter_name
|
O nome do parâmetro do pipeline do caminho de dados a definir com o caminho do blob alterado. Default value: None
|
continue_on_step_failure
|
Se pretende continuar a execução de outros passos no Pipeline submetidoExecutar se um passo falhar. Se for fornecido, esta ação substituirá a definição de continue_on_step_failure do Pipeline. Default value: None
|
path_on_datastore
|
Opcional. O caminho no arquivo de dados a monitorizar para blobs modificados/adicionados. Nota: o path_on_datastore estará no contentor do arquivo de dados, pelo que o caminho real que a agenda irá monitorizar será contentor/path_on_datastore. Se não for nenhum, o contentor do arquivo de dados é monitorizado. As adições/modificações feitas numa subpasta do path_on_datastore não são monitorizadas. Apenas suportado para agendamentos do DataStore. Default value: None
|
Atributos
continue_on_step_failure
Obtenha o valor da continue_on_step_failure
definição.
Devoluções
Tipo | Description |
---|---|
O valor da |
data_path_parameter_name
Obtenha o nome do parâmetro do pipeline do caminho de dados para definir com o caminho do blob alterado.
Devoluções
Tipo | Description |
---|---|
O nome do parâmetro do caminho de dados. |
datastore_name
Obtenha o nome do Arquivo de Dados utilizado para a agenda.
Devoluções
Tipo | Description |
---|---|
O nome do Arquivo de Dados. |
description
id
name
path_on_datastore
Obtenha o caminho no arquivo de dados que a agenda monitoriza.
Devoluções
Tipo | Description |
---|---|
O caminho no arquivo de dados. |
pipeline_endpoint_id
pipeline_id
polling_interval
Obtenha o tempo, em minutos, entre a consulta para blobs modificados/adicionados.
Devoluções
Tipo | Description |
---|---|
O intervalo de consulta. |
recurrence
Obter a periodicidade da agenda.
Devoluções
Tipo | Description |
---|---|
A periodicidade da agenda. |