data_transfer Pacote
Classes
DataTransferCopy |
Observação Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações. Classe base para o nó de cópia de transferência de dados. Você não deve instanciar essa classe diretamente. Em vez disso, você deve criar com base na função de construtor: copy_data. |
DataTransferCopyComponent |
Observação Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações. Versão do componente de cópia do DataTransfer, usada para definir um componente de cópia de transferência de dados. |
DataTransferExport |
Observação Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações. Classe base para o nó de exportação de transferência de dados. Você não deve instanciar essa classe diretamente. Em vez disso, você deve criar com base na função de construtor: export_data. |
DataTransferExportComponent |
Observação Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações. Versão do componente de exportação DataTransfer, usada para definir um componente de exportação de transferência de dados. |
DataTransferImport |
Observação Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações. Classe base para o nó de importação de transferência de dados. Você não deve instanciar essa classe diretamente. Em vez disso, você deve criar com base na função de construtor: import_data. |
DataTransferImportComponent |
Observação Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações. Versão do componente de importação DataTransfer, usada para definir um componente de importação de transferência de dados. |
Database |
Defina uma classe de banco de dados para um componente ou trabalho DataTransfer. |
FileSystem |
Defina uma classe de sistema de arquivos de um componente ou trabalho DataTransfer. por exemplo, source_s3 = FileSystem(path='s3://my_bucket/my_folder', connection='azureml:my_s3_connection') |
Funções
copy_data
Observação
Esse é um método experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.
Crie um objeto DataTransferCopy que pode ser usado dentro de dsl.pipeline como uma função.
copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy
Parâmetros somente de palavra-chave
Nome | Description |
---|---|
name
|
O nome do trabalho. |
description
|
Descrição do trabalho. |
tags
|
Dicionário de marcas. As marcas podem ser adicionadas, removidas e atualizadas. |
display_name
|
Nome de exibição do trabalho. |
experiment_name
|
Nome do experimento em que o trabalho será criado. |
compute
|
O recurso de computação em que o trabalho é executado. |
inputs
|
Mapeamento de associações de dados de entradas usadas no trabalho. |
outputs
|
Mapeamento de saídas de associações de dados usadas no trabalho. |
is_deterministic
|
Especifique se o comando retornará a mesma saída dada a mesma entrada. Se um comando (componente) for determinístico, ao usá-lo como um nó/etapa em um pipeline, ele reutilizará os resultados de um trabalho enviado anteriormente no workspace atual que tem as mesmas entradas e configurações. Nesse caso, esta etapa não usará nenhum recurso de computação. O padrão é True, especifique is_deterministic=False se quiser evitar esse comportamento de reutilização. |
data_copy_mode
|
modo de cópia de dados na tarefa de cópia, o valor possível é "merge_with_overwrite", "fail_if_conflict". |
Retornos
Tipo | Description |
---|---|
Um objeto DataTransferCopy. |
export_data
Observação
Esse é um método experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.
Crie um objeto DataTransferExport que pode ser usado dentro de dsl.pipeline.
export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport
Parâmetros somente de palavra-chave
Nome | Description |
---|---|
name
|
O nome do trabalho. |
description
|
Descrição do trabalho. |
tags
|
Dicionário de marcas. As marcas podem ser adicionadas, removidas e atualizadas. |
display_name
|
Nome de exibição do trabalho. |
experiment_name
|
Nome do experimento em que o trabalho será criado. |
compute
|
O recurso de computação em que o trabalho é executado. |
sink
|
O coletor de dados e bancos de dados externos. |
inputs
|
Mapeamento de associações de dados de entradas usadas no trabalho. |
Retornos
Tipo | Description |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>
|
Um objeto DataTransferExport. |
Exceções
Tipo | Description |
---|---|
Se o coletor não for fornecido ou não houver suporte para a exportação do sistema de arquivos. |
import_data
Observação
Esse é um método experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.
Crie um objeto DataTransferImport que pode ser usado dentro de dsl.pipeline.
import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport
Parâmetros somente de palavra-chave
Nome | Description |
---|---|
name
|
O nome do trabalho. |
description
|
Descrição do trabalho. |
tags
|
Dicionário de marcas. As marcas podem ser adicionadas, removidas e atualizadas. |
display_name
|
Nome de exibição do trabalho. |
experiment_name
|
Nome do experimento em que o trabalho será criado. |
compute
|
O recurso de computação em que o trabalho é executado. |
source
|
A fonte de dados do sistema de arquivos ou do banco de dados. |
outputs
|
Mapeamento de saídas de associações de dados usadas no trabalho. O padrão será uma porta de saída com a chave "sink" e o tipo "mltable". |
Retornos
Tipo | Description |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>
|
Um objeto DataTransferImport. |
Azure SDK for Python