Condividi tramite


AutoMLExperiment Classe

Definizione

Classe per l'esperimento AutoML

public class AutoMLExperiment
type AutoMLExperiment = class
Public Class AutoMLExperiment
Ereditarietà
AutoMLExperiment

Esempio

using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using Microsoft.ML.Data;

namespace Microsoft.ML.AutoML.Samples
{
    public static class AutoMLExperiment
    {
        public static async Task RunAsync()
        {
            var seed = 0;

            // Create a new context for ML.NET operations. It can be used for
            // exception tracking and logging, as a catalog of available operations
            // and as the source of randomness. Setting the seed to a fixed number
            // in this example to make outputs deterministic.
            var context = new MLContext(seed);

            // Create a list of training data points and convert it to IDataView.
            var data = GenerateRandomBinaryClassificationDataPoints(100, seed);
            var dataView = context.Data.LoadFromEnumerable(data);

            var trainTestSplit = context.Data.TrainTestSplit(dataView);

            // Define the sweepable pipeline using predefined binary trainers and search space.
            var pipeline = context.Auto().BinaryClassification(labelColumnName: "Label", featureColumnName: "Features");

            // Create an AutoML experiment
            var experiment = context.Auto().CreateExperiment();

            // Redirect AutoML log to console
            context.Log += (object o, LoggingEventArgs e) =>
            {
                if (e.Source == nameof(AutoMLExperiment) && e.Kind > Runtime.ChannelMessageKind.Trace)
                {
                    Console.WriteLine(e.RawMessage);
                }
            };

            // Config experiment to optimize "Accuracy" metric on given dataset.
            // This experiment will run hyper-parameter optimization on given pipeline
            experiment.SetPipeline(pipeline)
                      .SetDataset(trainTestSplit.TrainSet, fold: 5) // use 5-fold cross validation to evaluate each trial
                      .SetBinaryClassificationMetric(BinaryClassificationMetric.Accuracy, "Label")
                      .SetMaxModelToExplore(100); // explore 100 trials

            // start automl experiment
            var result = await experiment.RunAsync();

            // Expected output samples during training:
            //      Update Running Trial - Id: 0
            //      Update Completed Trial - Id: 0 - Metric: 0.5536912515402218 - Pipeline: FastTreeBinary - Duration: 595 - Peak CPU: 0.00 % -Peak Memory in MB: 35.81
            //      Update Best Trial - Id: 0 - Metric: 0.5536912515402218 - Pipeline: FastTreeBinary

            // evaluate test dataset on best model.
            var bestModel = result.Model;
            var eval = bestModel.Transform(trainTestSplit.TestSet);
            var metrics = context.BinaryClassification.Evaluate(eval);

            PrintMetrics(metrics);

            // Expected output:
            //  Accuracy: 0.67
            //  AUC: 0.75
            //  F1 Score: 0.33
            //  Negative Precision: 0.88
            //  Negative Recall: 0.70
            //  Positive Precision: 0.25
            //  Positive Recall: 0.50

            //  TEST POSITIVE RATIO: 0.1667(2.0 / (2.0 + 10.0))
            //  Confusion table
            //            ||======================
            //  PREDICTED || positive | negative | Recall
            //  TRUTH     ||======================
            //   positive || 1 | 1 | 0.5000
            //   negative || 3 | 7 | 0.7000
            //            ||======================
            //  Precision || 0.2500 | 0.8750 |
        }

        private static IEnumerable<BinaryClassificationDataPoint> GenerateRandomBinaryClassificationDataPoints(int count,
            int seed = 0)

        {
            var random = new Random(seed);
            float randomFloat() => (float)random.NextDouble();
            for (int i = 0; i < count; i++)
            {
                var label = randomFloat() > 0.5f;
                yield return new BinaryClassificationDataPoint
                {
                    Label = label,
                    // Create random features that are correlated with the label.
                    // For data points with false label, the feature values are
                    // slightly increased by adding a constant.
                    Features = Enumerable.Repeat(label, 50)
                        .Select(x => x ? randomFloat() : randomFloat() +
                        0.1f).ToArray()

                };
            }
        }

        // Example with label and 50 feature values. A data set is a collection of
        // such examples.
        private class BinaryClassificationDataPoint
        {
            public bool Label { get; set; }

            [VectorType(50)]
            public float[] Features { get; set; }
        }

        // Class used to capture predictions.
        private class Prediction
        {
            // Original label.
            public bool Label { get; set; }
            // Predicted label from the trainer.
            public bool PredictedLabel { get; set; }
        }

        // Pretty-print BinaryClassificationMetrics objects.
        private static void PrintMetrics(BinaryClassificationMetrics metrics)
        {
            Console.WriteLine($"Accuracy: {metrics.Accuracy:F2}");
            Console.WriteLine($"AUC: {metrics.AreaUnderRocCurve:F2}");
            Console.WriteLine($"F1 Score: {metrics.F1Score:F2}");
            Console.WriteLine($"Negative Precision: " +
                $"{metrics.NegativePrecision:F2}");

            Console.WriteLine($"Negative Recall: {metrics.NegativeRecall:F2}");
            Console.WriteLine($"Positive Precision: " +
                $"{metrics.PositivePrecision:F2}");

            Console.WriteLine($"Positive Recall: {metrics.PositiveRecall:F2}\n");
            Console.WriteLine(metrics.ConfusionMatrix.GetFormattedConfusionTable());
        }
    }
}

Costruttori

AutoMLExperiment(MLContext, AutoMLExperiment+AutoMLExperimentSettings)

Classe per l'esperimento AutoML

Metodi

AddSearchSpace(String, SearchSpace)

Classe per l'esperimento AutoML

Run()

Eseguire l'esperimento e restituire il risultato della versione di valutazione migliore in modo sincronizzato.

RunAsync(CancellationToken)

Eseguire l'esperimento e restituire il risultato di valutazione migliore in modo asincronizzato. L'esperimento restituisce il risultato della versione di valutazione migliore corrente se è stata completata una versione di valutazione quando ct viene annullata e genera TimeoutException il messaggio "Ora di training completata senza completare un'esecuzione di valutazione" quando non è stata completata alcuna versione di valutazione. Un altro aspetto da notare è che questa funzione non verrà restituita immediatamente dopo ct l'annullamento. Verrà invece chiamato Microsoft.ML.MLContext.CancelExecution per annullare tutto il processo di training e attendere che tutte le versioni di valutazione in esecuzione vengano annullate o completate.

SetMaximumMemoryUsageInMegaByte(Double)

Classe per l'esperimento AutoML

SetMaxModelToExplore(Int32)

Classe per l'esperimento AutoML

SetMonitor<TMonitor>()

Classe per l'esperimento AutoML

SetMonitor<TMonitor>(Func<IServiceProvider,TMonitor>)

Classe per l'esperimento AutoML

SetMonitor<TMonitor>(TMonitor)

Classe per l'esperimento AutoML

SetTrainingTimeInSeconds(UInt32)

Classe per l'esperimento AutoML

SetTrialRunner<TTrialRunner>()

Classe per l'esperimento AutoML

SetTrialRunner<TTrialRunner>(Func<IServiceProvider,TTrialRunner>)

Classe per l'esperimento AutoML

SetTrialRunner<TTrialRunner>(TTrialRunner)

Classe per l'esperimento AutoML

SetTuner<TTuner>()

Classe per l'esperimento AutoML

SetTuner<TTuner>(Func<IServiceProvider,TTuner>)

Classe per l'esperimento AutoML

SetTuner<TTuner>(TTuner)

Classe per l'esperimento AutoML

Metodi di estensione

SetBinaryClassificationMetric(AutoMLExperiment, BinaryClassificationMetric, String, String)

Impostare Microsoft.ML.AutoML.BinaryMetricManager come gestore di valutazione per AutoMLExperiment. AutoMLExperiment Verranno usati metric come metrica di valutazione.

SetCheckpoint(AutoMLExperiment, String)

Impostare la cartella checkpoint per AutoMLExperiment. La cartella checkpoint verrà usata per salvare l'output temporaneo, la cronologia di esecuzione e molte altre cose che verranno usate per ripristinare il processo di training dall'ultimo checkpoint e continuare il training.

SetCostFrugalTuner(AutoMLExperiment)

Impostare Microsoft.ML.AutoML.CostFrugalTuner come tuner per l'ottimizzazione dei parametri hyper-parameter.

SetDataset(AutoMLExperiment, DataOperationsCatalog+TrainTestData)

Impostare il set di dati di training e convalida per AutoMLExperiment. Verrà usato AutoMLExperimentTrainSet da trainValidationSplit per eseguire il training di un modello e usarlo TestSet per trainValidationSplit valutare il modello.

SetDataset(AutoMLExperiment, IDataView, IDataView, Boolean)

Impostare il set di dati di training e convalida per AutoMLExperiment. Verranno usati AutoMLExperimenttrain per eseguire il training di un modello e usarlo validation per valutare il modello.

SetDataset(AutoMLExperiment, IDataView, Int32, String)

Impostare il set di dati di convalida incrociata per AutoMLExperiment. In questo modo AutoMLExperiment verrà usata la divisione di convalida incrociata n=fold per dataset eseguire il training e la valutazione di un modello.

SetEciCostFrugalTuner(AutoMLExperiment)

impostato Microsoft.ML.AutoML.EciCostFrugalTuner come tuner per l'ottimizzazione dei parametri hyper-parameter. Questa tuner funziona solo con lo spazio di ricerca da SweepablePipeline.

SetGridSearchTuner(AutoMLExperiment, Int32)

impostato Microsoft.ML.AutoML.GridSearchTuner come tuner per l'ottimizzazione dei parametri hyper.

SetMulticlassClassificationMetric(AutoMLExperiment, MulticlassClassificationMetric, String, String)

Impostare Microsoft.ML.AutoML.MultiClassMetricManager come gestore di valutazione per AutoMLExperiment. AutoMLExperiment Verranno usati metric come metrica di valutazione.

SetPerformanceMonitor(AutoMLExperiment, Int32)

Impostare DefaultPerformanceMonitor come IPerformanceMonitor per AutoMLExperiment.

SetPerformanceMonitor<TPerformanceMonitor>(AutoMLExperiment, Func<IServiceProvider,TPerformanceMonitor>)

Impostare un monitoraggio delle prestazioni personalizzato come IPerformanceMonitor per AutoMLExperiment.

SetPerformanceMonitor<TPerformanceMonitor>(AutoMLExperiment)

Impostare un monitoraggio delle prestazioni personalizzato come IPerformanceMonitor per AutoMLExperiment.

SetPipeline(AutoMLExperiment, SweepablePipeline)

Impostare pipeline per il training. In questo modo AutoMLExperiment vengono usati Microsoft.ML.AutoML.SweepablePipelineRunner anche , Microsoft.ML.AutoML.MLContextMonitor e Microsoft.ML.AutoML.EciCostFrugalTuner anche per il training automl.

SetRandomSearchTuner(AutoMLExperiment, Nullable<Int32>)

impostato Microsoft.ML.AutoML.RandomSearchTuner come tuner per l'ottimizzazione dei parametri hyper. Se seed viene specificato, userà tale valore di inizializzazione per inizializzare Microsoft.ML.AutoML.RandomSearchTuner. In caso contrario, Seed verrà usato .

SetRegressionMetric(AutoMLExperiment, RegressionMetric, String, String)

Impostare Microsoft.ML.AutoML.RegressionMetricManager come gestore di valutazione per AutoMLExperiment. AutoMLExperiment Verranno usati metric come metrica di valutazione.

SetSmacTuner(AutoMLExperiment, Int32, Int32, Int32, Int32, Single, Int32, Int32, Double, Int32)

Impostare Microsoft.ML.AutoML.SmacTuner come tuner per l'ottimizzazione dei parametri hyper-parameter. Le prestazioni di smac si trovano in un'estensione di grandi dimensioni determinata da numberOfTreesnMinForSpit e splitRatio, che vengono usati per adattare il regressore interno di smac.

Si applica a