Compartilhar via


data_transfer Pacote

Classes

DataTransferCopy

Observação

Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Classe base para o nó de cópia de transferência de dados.

Você não deve instanciar essa classe diretamente. Em vez disso, você deve criar com base na função de construtor: copy_data.

DataTransferCopyComponent

Observação

Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Versão do componente de cópia do DataTransfer, usada para definir um componente de cópia de transferência de dados.

DataTransferExport

Observação

Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Classe base para o nó de exportação de transferência de dados.

Você não deve instanciar essa classe diretamente. Em vez disso, você deve criar com base na função de construtor: export_data.

DataTransferExportComponent

Observação

Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Versão do componente de exportação DataTransfer, usada para definir um componente de exportação de transferência de dados.

DataTransferImport

Observação

Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Classe base para o nó de importação de transferência de dados.

Você não deve instanciar essa classe diretamente. Em vez disso, você deve criar com base na função de construtor: import_data.

DataTransferImportComponent

Observação

Essa é uma classe experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Versão do componente de importação DataTransfer, usada para definir um componente de importação de transferência de dados.

Database

Defina uma classe de banco de dados para um componente ou trabalho DataTransfer.

FileSystem

Defina uma classe de sistema de arquivos de um componente ou trabalho DataTransfer.

por exemplo, source_s3 = FileSystem(path='s3://my_bucket/my_folder', connection='azureml:my_s3_connection')

Funções

copy_data

Observação

Esse é um método experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Crie um objeto DataTransferCopy que pode ser usado dentro de dsl.pipeline como uma função.

copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy

Parâmetros somente de palavra-chave

Nome Description
name
str

O nome do trabalho.

description
str

Descrição do trabalho.

tags

Dicionário de marcas. As marcas podem ser adicionadas, removidas e atualizadas.

display_name
str

Nome de exibição do trabalho.

experiment_name
str

Nome do experimento em que o trabalho será criado.

compute
str

O recurso de computação em que o trabalho é executado.

inputs

Mapeamento de associações de dados de entradas usadas no trabalho.

outputs

Mapeamento de saídas de associações de dados usadas no trabalho.

is_deterministic

Especifique se o comando retornará a mesma saída dada a mesma entrada. Se um comando (componente) for determinístico, ao usá-lo como um nó/etapa em um pipeline, ele reutilizará os resultados de um trabalho enviado anteriormente no workspace atual que tem as mesmas entradas e configurações. Nesse caso, esta etapa não usará nenhum recurso de computação. O padrão é True, especifique is_deterministic=False se quiser evitar esse comportamento de reutilização.

data_copy_mode
str

modo de cópia de dados na tarefa de cópia, o valor possível é "merge_with_overwrite", "fail_if_conflict".

Retornos

Tipo Description

Um objeto DataTransferCopy.

export_data

Observação

Esse é um método experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Crie um objeto DataTransferExport que pode ser usado dentro de dsl.pipeline.

export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport

Parâmetros somente de palavra-chave

Nome Description
name
str

O nome do trabalho.

description
str

Descrição do trabalho.

tags

Dicionário de marcas. As marcas podem ser adicionadas, removidas e atualizadas.

display_name
str

Nome de exibição do trabalho.

experiment_name
str

Nome do experimento em que o trabalho será criado.

compute
str

O recurso de computação em que o trabalho é executado.

sink

O coletor de dados e bancos de dados externos.

inputs

Mapeamento de associações de dados de entradas usadas no trabalho.

Retornos

Tipo Description
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>

Um objeto DataTransferExport.

Exceções

Tipo Description

Se o coletor não for fornecido ou não houver suporte para a exportação do sistema de arquivos.

import_data

Observação

Esse é um método experimental e pode mudar a qualquer momento. Consulte https://aka.ms/azuremlexperimental para obter mais informações.

Crie um objeto DataTransferImport que pode ser usado dentro de dsl.pipeline.

import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport

Parâmetros somente de palavra-chave

Nome Description
name
str

O nome do trabalho.

description
str

Descrição do trabalho.

tags

Dicionário de marcas. As marcas podem ser adicionadas, removidas e atualizadas.

display_name
str

Nome de exibição do trabalho.

experiment_name
str

Nome do experimento em que o trabalho será criado.

compute
str

O recurso de computação em que o trabalho é executado.

source

A fonte de dados do sistema de arquivos ou do banco de dados.

outputs

Mapeamento de saídas de associações de dados usadas no trabalho. O padrão será uma porta de saída com a chave "sink" e o tipo "mltable".

Retornos

Tipo Description
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>

Um objeto DataTransferImport.