RegressionJob Classe
Configuração do Trabalho de Regressão de AutoML.
Inicialize uma nova tarefa de Regressão de AutoML.
- Herança
-
azure.ai.ml.entities._job.automl.tabular.automl_tabular.AutoMLTabularRegressionJob
Construtor
RegressionJob(*, primary_metric: str | None = None, **kwargs)
Parâmetros
Métodos
dump |
Despeja o conteúdo do trabalho em um arquivo no formato YAML. |
set_data |
Definir configuração de dados. |
set_featurization |
Definir a configuração de engenharia de recursos. |
set_limits |
Defina limites para o trabalho. |
set_training |
O método para definir as configurações relacionadas ao treinamento. |
dump
Despeja o conteúdo do trabalho em um arquivo no formato YAML.
dump(dest: str | PathLike | IO, **kwargs) -> None
Parâmetros
O caminho local ou fluxo de arquivos para o qual gravar o conteúdo YAML. Se dest for um caminho de arquivo, um novo arquivo será criado. Se dest for um arquivo aberto, o arquivo será gravado diretamente.
- kwargs
- dict
Argumentos adicionais a serem passados para o serializador YAML.
Exceções
Gerado se dest for um caminho de arquivo e o arquivo já existir.
Gerado se dest for um arquivo aberto e o arquivo não for gravável.
set_data
Definir configuração de dados.
set_data(*, training_data: Input, target_column_name: str, weight_column_name: str | None = None, validation_data: Input | None = None, validation_data_size: float | None = None, n_cross_validations: str | int | None = None, cv_split_column_names: List[str] | None = None, test_data: Input | None = None, test_data_size: float | None = None) -> None
Parâmetros
- training_data
- Input
Dados de treinamento.
- target_column_name
- str
Nome da coluna de destino.
Exceções
Gerado se dest for um caminho de arquivo e o arquivo já existir.
Gerado se dest for um arquivo aberto e o arquivo não for gravável.
set_featurization
Definir a configuração de engenharia de recursos.
set_featurization(*, blocked_transformers: List[BlockedTransformers | str] | None = None, column_name_and_types: Dict[str, str] | None = None, dataset_language: str | None = None, transformer_params: Dict[str, List[ColumnTransformer]] | None = None, mode: str | None = None, enable_dnn_featurization: bool | None = None) -> None
Parâmetros
- blocked_transformers
- Optional[List[Union[BlockedTransformers, str]]]
Uma lista de nomes de transformador a serem bloqueados durante a apresentação, o padrão é None
Um dicionário de nomes de coluna e tipos de recursos usados para atualizar a finalidade da coluna , usa como padrão Nenhum
Código ISO 639-3 de três caracteres para os idiomas contidos no conjunto de dados. Há suporte para idiomas diferentes do inglês se você usar a computação habilitada para GPU. O language_code 'mul' deve ser usado se o conjunto de dados contiver vários idiomas. Para localizar códigos ISO 639-3 para idiomas diferentes, consulte https://en.wikipedia.org/wiki/List_of_ISO_639-3_codes, padrões como Nenhum
- transformer_params
- Optional[Dict[str, List[ColumnTransformer]]]
Um dicionário de transformador e parâmetros de personalização correspondentes , usa como padrão Nenhum
Se deve incluir métodos de engenharia de recursos baseados em DNN, o padrão é None
Exceções
Gerado se dest for um caminho de arquivo e o arquivo já existir.
Gerado se dest for um arquivo aberto e o arquivo não for gravável.
set_limits
Defina limites para o trabalho.
set_limits(*, enable_early_termination: bool | None = None, exit_score: float | None = None, max_concurrent_trials: int | None = None, max_cores_per_trial: int | None = None, max_nodes: int | None = None, max_trials: int | None = None, timeout_minutes: int | None = None, trial_timeout_minutes: int | None = None) -> None
Parâmetros
Se deseja habilitar o encerramento antecipado se a pontuação não estiver melhorando no curto prazo, o padrão será None.
Lógica de parada antecipada:
Nenhuma parada antecipada para as primeiras 20 iterações (marcos).
A janela de parada antecipada começa na parte 21 da iteração e procura iterações early_stopping_n_iters
(definido atualmente como 10). Isso significa que a primeira iteração em que a interrupção pode ocorrer é na parte 31.
O AutoML ainda agenda duas iterações de conjunto após a parada antecipada, o que pode resultar em pontuações mais altas.
A interrupção antecipada será disparada se o valor absoluto da melhor pontuação calculada for o mesmo para as últimas
iterações early_stopping_n_iters, ou seja, se não houver nenhuma melhoria na pontuação das iterações early_stopping_n_iters.
Pontuação de destino para o experimento. O experimento termina depois que essa pontuação é atingida. Se não for especificado (nenhum critério), o experimento será executado até que nenhum outro progresso seja feito na métrica primária. Para obter mais informações sobre critérios de saída, consulte este artigo , padrão como Nenhum
Esse é o número máximo de iterações que seriam executadas em paralelo. O valor padrão é 1.
- Os clusters AmlCompute dão suporte a uma iteração em execução por nó.
Para várias execuções pai do experimento de AutoML em paralelo em um único cluster AmlCompute, a soma dos valores de max_concurrent_trials
para todos os experimentos deve ser menor ou igual ao número máximo de nós. Caso contrário, as execuções serão enfileiradas até que os nós estejam disponíveis.
- O DSVM dá suporte a várias iterações por nó.
max_concurrent_trials
Deve
ser menor ou igual ao número de núcleos na DSVM. Para várias execuções do experimento em paralelo em um único DSVM, a soma dos valores de max_concurrent_trials
para todos os experimentos deve ser menor ou igual ao número máximo de nós.
- Databricks –
max_concurrent_trials
deve ser menor ou igual ao número de
nós de trabalho no Databricks.
max_concurrent_trials
não se aplica a execuções locais. Anteriormente, esse parâmetro foi nomeado como concurrent_iterations
.
O número máximo de threads a serem usados para uma determinada iteração de treinamento. Valores aceitáveis:
Maior que 1 e menor ou igual ao número máximo de núcleos no destino de computação.
Igual a -1, o que significa usar todos os núcleos possíveis por iteração e por execução filho.
Igual a 1, o padrão.
[Experimental] O número máximo de nós a serem usados para treinamento distribuído.
Para previsão, cada modelo é treinado usando nós max(2, int(max_nodes/max_concurrent_trials)).
Para classificação/regressão, cada modelo é treinado usando nós max_nodes.
Observação- Esse parâmetro está em versão prévia pública e pode mudar no futuro.
O número total de combinações diferentes de algoritmo e parâmetro a serem testadas durante um experimento do ML automatizado. Se não for especificado, o padrão será 1000 iterações.
Quantidade máxima de tempo em minutos que todas as iterações combinadas podem levar antes que o experimento seja encerrado. Se não for especificado, o tempo limite do experimento padrão será de 6 dias. Para especificar um tempo limite menor ou igual a 1 hora, verifique se o tamanho do conjunto de dados não é maior do que 10.000.000 (coluna de linhas vezes) ou um resultado de erro, o padrão é Nenhum
Tempo máximo em minutos em que cada iteração pode ser executada antes de ser terminada. Se não for especificado, um valor de 1 mês ou 43200 minutos será usado, o padrão será None
Exceções
Gerado se dest for um caminho de arquivo e o arquivo já existir.
Gerado se dest for um arquivo aberto e o arquivo não for gravável.
set_training
O método para definir as configurações relacionadas ao treinamento.
set_training(*, enable_onnx_compatible_models: bool | None = None, enable_dnn_training: bool | None = None, enable_model_explainability: bool | None = None, enable_stack_ensemble: bool | None = None, enable_vote_ensemble: bool | None = None, stack_ensemble_settings: StackEnsembleSettings | None = None, ensemble_model_download_timeout: int | None = None, allowed_training_algorithms: List[str] | None = None, blocked_training_algorithms: List[str] | None = None, training_mode: str | TrainingMode | None = None) -> None
Parâmetros
Se deve habilitar ou desabilitar a imposição de modelos compatíveis com ONNX. O padrão é False. Para obter mais informações sobre o ONNX (Open Neural Network Exchange) e o Azure Machine Learning, consulte este artigo.
Se deve incluir modelos baseados em DNN durante a seleção do modelo. No entanto, o padrão é True para tarefas do DNN NLP e False para todas as outras tarefas do AutoML.
Se deve habilitar a explicação do melhor modelo do AutoML no final de todas as iterações de treinamento do AutoML. Para obter mais informações, consulte Interpretabilidade: explicações de modelo no machine learning automatizado. , usa como padrão Nenhum
Se deve habilitar/desabilitar a iteração StackEnsemble. Se o sinalizador enable_onnx_compatible_models estiver sendo definido, a iteração StackEnsemble será desabilitada. Da mesma forma, para tarefas da série temporal, a iteração StackEnsemble será desabilitada por padrão, para evitar riscos de sobreajuste devido a um pequeno conjunto de treinamento usado para ajustar o aprendiz meta. Para obter mais informações sobre conjuntos, consulte Configuração do Ensemble , padrões para Nenhum
Se deve habilitar/desabilitar a iteração VotingEnsemble. Para obter mais informações sobre conjuntos, consulte Configuração do Ensemble , padrões para Nenhum
- stack_ensemble_settings
- Optional[StackEnsembleSettings]
Configurações para iteração StackEnsemble, o padrão é None
Durante a geração de modelo VotingEnsemble e StackEnsemble, vários modelos ajustados das execuções filho anteriores são baixados. Configure esse parâmetro com um valor superior a 300 segundos, se for necessário mais tempo, o padrão será None
Uma lista de nomes de modelos para pesquisar um experimento. Se não for especificado, todos os modelos com suporte para a tarefa serão usados menos qualquer especificado em blocked_training_algorithms
modelos tensorFlow preteridos ou especificados, o padrão é Nenhum
Uma lista de algoritmos a serem ignorados para um experimento, o padrão é None
- training_mode
- Optional[Union[str, TabularTrainingMode]]
[Experimental] O modo de treinamento a ser usado. Os valores possíveis são:
distributed- habilita o treinamento distribuído para algoritmos com suporte.
non_distributed- desabilita o treinamento distribuído.
auto– Atualmente, é o mesmo que non_distributed. No futuro, isso pode mudar.
Observação: esse parâmetro está em versão prévia pública e pode mudar no futuro.
Exceções
Gerado se dest for um caminho de arquivo e o arquivo já existir.
Gerado se dest for um arquivo aberto e o arquivo não for gravável.
Atributos
base_path
creation_context
O contexto de criação do recurso.
Retornos
Os metadados de criação do recurso.
Tipo de retorno
featurization
Obtenha as configurações de definição de recursos tabulares para o trabalho de AutoML.
Retornos
Configurações de recursos tabulares para o trabalho de AutoML
Tipo de retorno
id
A ID do recurso.
Retornos
A ID global do recurso, uma ID do ARM (Resource Manager do Azure).
Tipo de retorno
inputs
limits
Obtenha os limites tabulares para o trabalho de AutoML.
Retornos
Limites tabulares para o trabalho do AutoML
Tipo de retorno
log_files
Arquivos de saída do trabalho.
Retornos
O dicionário de nomes de log e URLs.
Tipo de retorno
log_verbosity
Obtenha a verbosidade de log para o trabalho autoML.
Retornos
verbosity de log para o trabalho autoML
Tipo de retorno
outputs
primary_metric
status
O status do trabalho.
Os valores comuns retornados incluem "Running", "Completed" e "Failed". Todos os valores possíveis são:
NotStarted - Esse é um estado temporário em que os objetos Run do lado do cliente estão antes do envio na nuvem.
Starting – A Execução começou a ser processada na nuvem. O chamador tem uma ID de execução neste ponto.
Provisionamento – a computação sob demanda está sendo criada para um determinado envio de trabalho.
Preparação – o ambiente de execução está sendo preparado e está em um dos dois estágios:
Build de imagem do Docker
conda environment setup
Enfileirado – o trabalho está na fila no destino de computação. Por exemplo, no BatchAI, o trabalho está em um estado enfileirado
enquanto aguarda que todos os nós solicitados estejam prontos.
Em execução – o trabalho começou a ser executado no destino de computação.
Finalização – a execução do código do usuário foi concluída e a execução está em estágios pós-processamento.
CancelRequested – O cancelamento foi solicitado para o trabalho.
Concluído – a execução foi concluída com êxito. Isso inclui a execução e a execução do código do usuário
estágios de pós-processamento.
Failed – A execução falhou. Normalmente, a propriedade de Erro em uma execução fornecerá detalhes sobre o motivo.
Canceled – Segue uma solicitação de cancelamento e indica que a execução foi cancelada com êxito.
NotResponding – Para execuções que têm Pulsações habilitadas, nenhuma pulsação foi enviada recentemente.
Retornos
Status do trabalho.
Tipo de retorno
studio_url
Ponto de extremidade do estúdio do Azure ML.
Retornos
A URL para a página de detalhes do trabalho.
Tipo de retorno
task_type
Obter tipo de tarefa.
Retornos
O tipo de tarefa a ser executado. Os valores possíveis incluem: "classificação", "regressão", "previsão".
Tipo de retorno
test_data
training
training_data
type
validation_data
Azure SDK for Python