AutoMLExperiment Classe
Definizione
Importante
Alcune informazioni sono relative alla release non definitiva del prodotto, che potrebbe subire modifiche significative prima della release definitiva. Microsoft non riconosce alcuna garanzia, espressa o implicita, in merito alle informazioni qui fornite.
Classe per l'esperimento AutoML
public class AutoMLExperiment
type AutoMLExperiment = class
Public Class AutoMLExperiment
- Ereditarietà
-
AutoMLExperiment
Esempio
using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks;
using Microsoft.ML.Data;
namespace Microsoft.ML.AutoML.Samples
{
public static class AutoMLExperiment
{
public static async Task RunAsync()
{
var seed = 0;
// Create a new context for ML.NET operations. It can be used for
// exception tracking and logging, as a catalog of available operations
// and as the source of randomness. Setting the seed to a fixed number
// in this example to make outputs deterministic.
var context = new MLContext(seed);
// Create a list of training data points and convert it to IDataView.
var data = GenerateRandomBinaryClassificationDataPoints(100, seed);
var dataView = context.Data.LoadFromEnumerable(data);
var trainTestSplit = context.Data.TrainTestSplit(dataView);
// Define the sweepable pipeline using predefined binary trainers and search space.
var pipeline = context.Auto().BinaryClassification(labelColumnName: "Label", featureColumnName: "Features");
// Create an AutoML experiment
var experiment = context.Auto().CreateExperiment();
// Redirect AutoML log to console
context.Log += (object o, LoggingEventArgs e) =>
{
if (e.Source == nameof(AutoMLExperiment) && e.Kind > Runtime.ChannelMessageKind.Trace)
{
Console.WriteLine(e.RawMessage);
}
};
// Config experiment to optimize "Accuracy" metric on given dataset.
// This experiment will run hyper-parameter optimization on given pipeline
experiment.SetPipeline(pipeline)
.SetDataset(trainTestSplit.TrainSet, fold: 5) // use 5-fold cross validation to evaluate each trial
.SetBinaryClassificationMetric(BinaryClassificationMetric.Accuracy, "Label")
.SetMaxModelToExplore(100); // explore 100 trials
// start automl experiment
var result = await experiment.RunAsync();
// Expected output samples during training:
// Update Running Trial - Id: 0
// Update Completed Trial - Id: 0 - Metric: 0.5536912515402218 - Pipeline: FastTreeBinary - Duration: 595 - Peak CPU: 0.00 % -Peak Memory in MB: 35.81
// Update Best Trial - Id: 0 - Metric: 0.5536912515402218 - Pipeline: FastTreeBinary
// evaluate test dataset on best model.
var bestModel = result.Model;
var eval = bestModel.Transform(trainTestSplit.TestSet);
var metrics = context.BinaryClassification.Evaluate(eval);
PrintMetrics(metrics);
// Expected output:
// Accuracy: 0.67
// AUC: 0.75
// F1 Score: 0.33
// Negative Precision: 0.88
// Negative Recall: 0.70
// Positive Precision: 0.25
// Positive Recall: 0.50
// TEST POSITIVE RATIO: 0.1667(2.0 / (2.0 + 10.0))
// Confusion table
// ||======================
// PREDICTED || positive | negative | Recall
// TRUTH ||======================
// positive || 1 | 1 | 0.5000
// negative || 3 | 7 | 0.7000
// ||======================
// Precision || 0.2500 | 0.8750 |
}
private static IEnumerable<BinaryClassificationDataPoint> GenerateRandomBinaryClassificationDataPoints(int count,
int seed = 0)
{
var random = new Random(seed);
float randomFloat() => (float)random.NextDouble();
for (int i = 0; i < count; i++)
{
var label = randomFloat() > 0.5f;
yield return new BinaryClassificationDataPoint
{
Label = label,
// Create random features that are correlated with the label.
// For data points with false label, the feature values are
// slightly increased by adding a constant.
Features = Enumerable.Repeat(label, 50)
.Select(x => x ? randomFloat() : randomFloat() +
0.1f).ToArray()
};
}
}
// Example with label and 50 feature values. A data set is a collection of
// such examples.
private class BinaryClassificationDataPoint
{
public bool Label { get; set; }
[VectorType(50)]
public float[] Features { get; set; }
}
// Class used to capture predictions.
private class Prediction
{
// Original label.
public bool Label { get; set; }
// Predicted label from the trainer.
public bool PredictedLabel { get; set; }
}
// Pretty-print BinaryClassificationMetrics objects.
private static void PrintMetrics(BinaryClassificationMetrics metrics)
{
Console.WriteLine($"Accuracy: {metrics.Accuracy:F2}");
Console.WriteLine($"AUC: {metrics.AreaUnderRocCurve:F2}");
Console.WriteLine($"F1 Score: {metrics.F1Score:F2}");
Console.WriteLine($"Negative Precision: " +
$"{metrics.NegativePrecision:F2}");
Console.WriteLine($"Negative Recall: {metrics.NegativeRecall:F2}");
Console.WriteLine($"Positive Precision: " +
$"{metrics.PositivePrecision:F2}");
Console.WriteLine($"Positive Recall: {metrics.PositiveRecall:F2}\n");
Console.WriteLine(metrics.ConfusionMatrix.GetFormattedConfusionTable());
}
}
}
Costruttori
AutoMLExperiment(MLContext, AutoMLExperiment+AutoMLExperimentSettings) |
Classe per l'esperimento AutoML |
Metodi
AddSearchSpace(String, SearchSpace) |
Classe per l'esperimento AutoML |
Run() |
Eseguire l'esperimento e restituire il risultato della versione di valutazione migliore in modo sincronizzato. |
RunAsync(CancellationToken) |
Eseguire l'esperimento e restituire il risultato di valutazione migliore in modo asincronizzato. L'esperimento restituisce il risultato della versione di valutazione migliore corrente se è stata completata una versione di valutazione quando |
SetMaximumMemoryUsageInMegaByte(Double) |
Classe per l'esperimento AutoML |
SetMaxModelToExplore(Int32) |
Classe per l'esperimento AutoML |
SetMonitor<TMonitor>() |
Classe per l'esperimento AutoML |
SetMonitor<TMonitor>(Func<IServiceProvider,TMonitor>) |
Classe per l'esperimento AutoML |
SetMonitor<TMonitor>(TMonitor) |
Classe per l'esperimento AutoML |
SetTrainingTimeInSeconds(UInt32) |
Classe per l'esperimento AutoML |
SetTrialRunner<TTrialRunner>() |
Classe per l'esperimento AutoML |
SetTrialRunner<TTrialRunner>(Func<IServiceProvider,TTrialRunner>) |
Classe per l'esperimento AutoML |
SetTrialRunner<TTrialRunner>(TTrialRunner) |
Classe per l'esperimento AutoML |
SetTuner<TTuner>() |
Classe per l'esperimento AutoML |
SetTuner<TTuner>(Func<IServiceProvider,TTuner>) |
Classe per l'esperimento AutoML |
SetTuner<TTuner>(TTuner) |
Classe per l'esperimento AutoML |
Metodi di estensione
SetBinaryClassificationMetric(AutoMLExperiment, BinaryClassificationMetric, String, String) |
Impostare Microsoft.ML.AutoML.BinaryMetricManager come gestore di valutazione per AutoMLExperiment.
AutoMLExperiment Verranno usati |
SetCheckpoint(AutoMLExperiment, String) |
Impostare la cartella checkpoint per AutoMLExperiment. La cartella checkpoint verrà usata per salvare l'output temporaneo, la cronologia di esecuzione e molte altre cose che verranno usate per ripristinare il processo di training dall'ultimo checkpoint e continuare il training. |
SetCostFrugalTuner(AutoMLExperiment) |
Impostare Microsoft.ML.AutoML.CostFrugalTuner come tuner per l'ottimizzazione dei parametri hyper-parameter. |
SetDataset(AutoMLExperiment, DataOperationsCatalog+TrainTestData) |
Impostare il set di dati di training e convalida per AutoMLExperiment. Verrà usato AutoMLExperimentTrainSet da |
SetDataset(AutoMLExperiment, IDataView, IDataView, Boolean) |
Impostare il set di dati di training e convalida per AutoMLExperiment. Verranno usati AutoMLExperiment |
SetDataset(AutoMLExperiment, IDataView, Int32, String) |
Impostare il set di dati di convalida incrociata per AutoMLExperiment. In questo modo AutoMLExperiment verrà usata la divisione di convalida incrociata n= |
SetEciCostFrugalTuner(AutoMLExperiment) |
impostato Microsoft.ML.AutoML.EciCostFrugalTuner come tuner per l'ottimizzazione dei parametri hyper-parameter. Questa tuner funziona solo con lo spazio di ricerca da SweepablePipeline. |
SetGridSearchTuner(AutoMLExperiment, Int32) |
impostato Microsoft.ML.AutoML.GridSearchTuner come tuner per l'ottimizzazione dei parametri hyper. |
SetMulticlassClassificationMetric(AutoMLExperiment, MulticlassClassificationMetric, String, String) |
Impostare Microsoft.ML.AutoML.MultiClassMetricManager come gestore di valutazione per AutoMLExperiment.
AutoMLExperiment Verranno usati |
SetPerformanceMonitor(AutoMLExperiment, Int32) |
Impostare DefaultPerformanceMonitor come IPerformanceMonitor per AutoMLExperiment. |
SetPerformanceMonitor<TPerformanceMonitor>(AutoMLExperiment, Func<IServiceProvider,TPerformanceMonitor>) |
Impostare un monitoraggio delle prestazioni personalizzato come IPerformanceMonitor per AutoMLExperiment. |
SetPerformanceMonitor<TPerformanceMonitor>(AutoMLExperiment) |
Impostare un monitoraggio delle prestazioni personalizzato come IPerformanceMonitor per AutoMLExperiment. |
SetPipeline(AutoMLExperiment, SweepablePipeline) |
Impostare |
SetRandomSearchTuner(AutoMLExperiment, Nullable<Int32>) |
impostato Microsoft.ML.AutoML.RandomSearchTuner come tuner per l'ottimizzazione dei parametri hyper. Se |
SetRegressionMetric(AutoMLExperiment, RegressionMetric, String, String) |
Impostare Microsoft.ML.AutoML.RegressionMetricManager come gestore di valutazione per AutoMLExperiment.
AutoMLExperiment Verranno usati |
SetSmacTuner(AutoMLExperiment, Int32, Int32, Int32, Int32, Single, Int32, Int32, Double, Int32) |
Impostare Microsoft.ML.AutoML.SmacTuner come tuner per l'ottimizzazione dei parametri hyper-parameter. Le prestazioni di smac si trovano in un'estensione di grandi dimensioni determinata da |