AutoMLRun Klasse
Stellt eine Ausführung des automatisierten maschinellen Lernens in Azure Machine Learning dar.
Mit der AutoMLRun-Klasse können Sie eine Ausführung verwalten, den Ausführungsstatus überprüfen und Ausführungsdetails abrufen, nachdem eine AutoML-Ausführung übermittelt wurde. Weitere Informationen zum Arbeiten mit Experimentausführungen finden Sie in der Run-Klasse.
Initialisieren sie eine AutoML-Ausführung.
- Vererbung
-
AutoMLRun
Konstruktor
AutoMLRun(experiment, run_id, **kwargs)
Parameter
Name | Beschreibung |
---|---|
experiment
Erforderlich
|
Das Experiment, das der Ausführung zugeordnet ist |
run_id
Erforderlich
|
Die ID der Ausführung. |
experiment
Erforderlich
|
Das Experiment, das der Ausführung zugeordnet ist |
run_id
Erforderlich
|
Die ID der Ausführung. |
Hinweise
Ein AutoMLRun-Objekt wird zurückgegeben, wenn Sie die submit-Methode eines Experiments verwenden.
Verwenden Sie den folgenden Code, um eine bereits gestartete Ausführung abzurufen:
from azureml.train.automl.run import AutoMLRun
ws = Workspace.from_config()
experiment = ws.experiments['my-experiment-name']
automl_run = AutoMLRun(experiment, run_id = 'AutoML_9fe201fe-89fd-41cc-905f-2f41a5a98883')
Methoden
cancel |
Brechen Sie eine AutoML-Ausführung ab. Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich abgebrochen wurde. |
cancel_iteration |
Brechen Sie eine bestimmte untergeordnete Ausführung ab. |
complete |
Schließen Sie eine AutoML-Ausführung ab. |
continue_experiment |
Setzen Sie ein vorhandenes AutoML-Experiment fort. |
fail |
Lassen Sie eine AutoML-Ausführung fehlschlagen. Legen Sie optional die Fehlereigenschaft der Ausführung mit einer Meldung oder Ausnahme fest, die an |
get_best_child |
Geben Sie die untergeordnete Ausführung mit der besten Bewertung für diese AutoML-Ausführung zurück. |
get_guardrails |
Ausgeben und Zurückgeben detaillierter Ergebnisse der Ausführung der Guardrail-Verifizierung. |
get_output |
Geben Sie die Ausführung mit der entsprechenden besten Pipeline zurück, die bereits getestet wurde.
|
get_run_sdk_dependencies |
Rufen Sie die SDK-Ausführungsabhängigkeiten für eine bestimmte Ausführung ab. |
pause |
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich pausiert wurde. Diese Methode ist nicht implementiert. |
register_model |
Registrieren Sie das Modell beim AzureML ACI-Dienst. |
resume |
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich fortgesetzt wurde. Diese Methode ist nicht implementiert. |
retry |
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich erneut versucht wurde. Diese Methode ist nicht implementiert. |
summary |
Rufen Sie eine Tabelle ab, die eine Zusammenfassung der versuchten Algorithmen und deren Scores enthält. |
wait_for_completion |
Auf den Abschluss dieser Ausführung warten. Gibt das Statusobjekt nach dem Wartezustand zurück. |
cancel
Brechen Sie eine AutoML-Ausführung ab.
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich abgebrochen wurde.
cancel()
Gibt zurück
Typ | Beschreibung |
---|---|
Keine |
cancel_iteration
Brechen Sie eine bestimmte untergeordnete Ausführung ab.
cancel_iteration(iteration)
Parameter
Name | Beschreibung |
---|---|
iteration
Erforderlich
|
Die abzubrechende Iteration. |
Gibt zurück
Typ | Beschreibung |
---|---|
Keine |
complete
Schließen Sie eine AutoML-Ausführung ab.
complete(**kwargs)
Gibt zurück
Typ | Beschreibung |
---|---|
Keine |
continue_experiment
Setzen Sie ein vorhandenes AutoML-Experiment fort.
continue_experiment(X=None, y=None, sample_weight=None, X_valid=None, y_valid=None, sample_weight_valid=None, data=None, label=None, columns=None, cv_splits_indices=None, spark_context=None, experiment_timeout_hours=None, experiment_exit_score=None, iterations=None, show_output=False, training_data=None, validation_data=None, **kwargs)
Parameter
Name | Beschreibung |
---|---|
X
|
Trainingsfeatures. Standardwert: None
|
y
|
Trainingsbezeichnungen. Standardwert: None
|
sample_weight
|
Beispielgewichtungen für Trainingsdaten. Standardwert: None
|
X_valid
|
Validierungsfeatures. Standardwert: None
|
y_valid
|
Validierungsbezeichnungen. Standardwert: None
|
sample_weight_valid
|
Stichprobengewichtungen für Validierungssets. Standardwert: None
|
data
|
Trainingsfeatures und Bezeichnung. Standardwert: None
|
label
|
Bezeichnungsspalte in Daten. Standardwert: None
|
columns
|
Eine Liste der zulässigen Spalten in den Daten, die als Features verwendet werden sollen. Standardwert: None
|
cv_splits_indices
|
Indizes, die angeben, wo Trainingsdaten für die Kreuzvalidierung aufgeteilt werden sollen. Jede Zeile ist ein separater Kreuzfold. Stellen Sie innerhalb jedes Kreuzfolds zwei Arrays bereit: das erste mit den Indizes für Stichproben, die für Trainingsdaten verwendet werden sollen, und das zweite mit den Indizes, die für Validierungsdaten verwendet werden sollen. Also [[t1, v1], [t2, v2], ...], wobei „t1“ die Trainingsindizes für den ersten Kreuzfold und „v1“ die Validierungsindizes für den ersten Kreuzfold sind. Standardwert: None
|
spark_context
|
<xref:SparkContext>
Spark-Kontext – nur anwendbar bei Verwendung in einer Azure Databricks-/Spark-Umgebung. Standardwert: None
|
experiment_timeout_hours
|
Gibt an, für wie viele zusätzliche Stunden dieses Experiment ausgeführt werden soll. Standardwert: None
|
experiment_exit_score
|
Gibt (wenn vorhanden) an, dass das Experiment beendet wird, wenn dieser Wert erreicht wird. Standardwert: None
|
iterations
|
Gibt an, wie viele zusätzliche Iterationen für dieses Experiment ausgeführt werden sollen. Standardwert: None
|
show_output
|
Flag, das angibt, ob die Ausgabe in der Konsole ausgegeben werden soll. Standardwert: False
|
training_data
|
<xref:azureml.dataprep.Dataflow> oder
DataFrame
Eingabetrainingsdaten. Standardwert: None
|
validation_data
|
<xref:azureml.dataprep.Dataflow> oder
DataFrame
Validierungsdaten. Standardwert: None
|
Gibt zurück
Typ | Beschreibung |
---|---|
Die übergeordnete AutoML-Ausführung. |
Ausnahmen
Typ | Beschreibung |
---|---|
fail
Lassen Sie eine AutoML-Ausführung fehlschlagen.
Legen Sie optional die Fehlereigenschaft der Ausführung mit einer Meldung oder Ausnahme fest, die an error_details
übergeben wird.
fail(error_details=None, error_code=None, _set_status=True, **kwargs)
Parameter
Name | Beschreibung |
---|---|
error_details
|
str oder
BaseException
Optionale Details des Fehlers. Standardwert: None
|
error_code
|
Optionaler Fehlercode des Fehlers für die Fehlerklassifizierung. Standardwert: None
|
_set_status
|
Gibt an, ob das Statusereignis zur Nachverfolgung gesendet werden soll. Standardwert: True
|
get_best_child
Geben Sie die untergeordnete Ausführung mit der besten Bewertung für diese AutoML-Ausführung zurück.
get_best_child(metric: str | None = None, onnx_compatible: bool = False, **kwargs: Any) -> Run
Parameter
Name | Beschreibung |
---|---|
metric
|
Die Metrik, die beim Auswählen der besten Ausführung verwendet werden soll. Standardmäßig wird die primäre Metrik verwendet. Standardwert: None
|
onnx_compatible
|
Gibt an, ob nur Ausführungen zurückgegeben werden sollen, die ONNX-Modelle generiert haben. Standardwert: False
|
kwargs
Erforderlich
|
|
Gibt zurück
Typ | Beschreibung |
---|---|
Untergeordnete AutoML-Ausführung. |
get_guardrails
Ausgeben und Zurückgeben detaillierter Ergebnisse der Ausführung der Guardrail-Verifizierung.
get_guardrails(to_console: bool = True) -> Dict[str, Any]
Parameter
Name | Beschreibung |
---|---|
to_console
|
Gibt an, ob die Verifizierungsergebnisse in der Konsole ausgegeben werden sollen. Standardwert: True
|
Gibt zurück
Typ | Beschreibung |
---|---|
Ein Wörterbuch mit Verifizierungsergebnissen. |
Ausnahmen
Typ | Beschreibung |
---|---|
get_output
Geben Sie die Ausführung mit der entsprechenden besten Pipeline zurück, die bereits getestet wurde.
get_output
gibt die beste Pipeline gemäß der primären Metrik zurück, wenn keine Eingabeparameter bereitgestellt werden. Alternativ können Sie entweder den Parameter iteration
oder metric
verwenden, um eine bestimmte Iteration oder die beste Ausführung pro bereitgestellter Metrik abzurufen.
get_output(iteration: int | None = None, metric: str | None = None, return_onnx_model: bool = False, return_split_onnx_model: SplitOnnxModelName | None = None, **kwargs: Any) -> Tuple[Run, Any]
Parameter
Name | Beschreibung |
---|---|
iteration
|
Die Iterationsnummer der entsprechenden Ausführung und des angepassten Modells, das zurückgegeben werden soll. Standardwert: None
|
metric
|
Die Metrik, die beim Auswählen der besten Ausführung und des besten angepassten Modells verwendet werden soll. Standardwert: None
|
return_onnx_model
|
Diese Methode gibt das konvertierte ONNX-Modell zurück, wenn der Parameter Standardwert: False
|
return_split_onnx_model
|
Der Typ des geteilten ONNX-Modells, das zurückgegeben werden soll Standardwert: None
|
Gibt zurück
Typ | Beschreibung |
---|---|
Run, <xref:Model>
|
Die Ausführung, das entsprechende angepasste Modell. |
Ausnahmen
Typ | Beschreibung |
---|---|
Hinweise
Wenn Sie die verwendeten Präprozessoren und Algorithmen (Schätzer) untersuchen möchten, können Sie dies mithilfe von Model.steps
tun, ähnlich wie sklearn.pipeline.Pipeline.steps
.
Der folgende Code zeigt beispielsweise, wie der Schätzer abgerufen wird.
best_run, model = parent_run.get_output()
estimator = model.steps[-1]
get_run_sdk_dependencies
Rufen Sie die SDK-Ausführungsabhängigkeiten für eine bestimmte Ausführung ab.
get_run_sdk_dependencies(iteration=None, check_versions=True, **kwargs)
Parameter
Name | Beschreibung |
---|---|
iteration
|
Die Iterationsnummer der angepassten Ausführung, die abgerufen werden soll. Bei „None“ wird die übergeordnete Umgebung abgerufen. Standardwert: None
|
check_versions
|
Bei „True“ werden die Versionen mit der aktuellen Umgebung überprüft. Bei „False“ überspringen. Standardwert: True
|
Gibt zurück
Typ | Beschreibung |
---|---|
Das Wörterbuch der aus RunHistory abgerufenen Abhängigkeiten. |
Ausnahmen
Typ | Beschreibung |
---|---|
pause
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich pausiert wurde.
Diese Methode ist nicht implementiert.
pause()
Ausnahmen
Typ | Beschreibung |
---|---|
register_model
Registrieren Sie das Modell beim AzureML ACI-Dienst.
register_model(model_name=None, description=None, tags=None, iteration=None, metric=None)
Parameter
Name | Beschreibung |
---|---|
model_name
|
Der Name des bereitgestellten Modells. Standardwert: None
|
description
|
Die Beschreibung des bereitgestellten Modells. Standardwert: None
|
tags
|
Tags für das bereitgestellte Modell. Standardwert: None
|
iteration
|
Außerkraftsetzung, durch die ein anderes Modell bereitgestellt wird. Stellt das Modell einer bestimmten Iteration bereit. Standardwert: None
|
metric
|
Außerkraftsetzung, durch die ein anderes Modell bereitgestellt wird. Stellt das beste Modell für eine andere Metrik bereit. Standardwert: None
|
Gibt zurück
Typ | Beschreibung |
---|---|
<xref:Model>
|
Das registrierte Modellobjekt. |
resume
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich fortgesetzt wurde.
Diese Methode ist nicht implementiert.
resume()
Ausnahmen
Typ | Beschreibung |
---|---|
NotImplementedError:
|
retry
Geben Sie „True“ zurück, wenn die AutoML-Ausführung erfolgreich erneut versucht wurde.
Diese Methode ist nicht implementiert.
retry()
Ausnahmen
Typ | Beschreibung |
---|---|
summary
Rufen Sie eine Tabelle ab, die eine Zusammenfassung der versuchten Algorithmen und deren Scores enthält.
summary()
Gibt zurück
Typ | Beschreibung |
---|---|
Pandas-DataFrame mit AutoML-Modellstatistiken. |
wait_for_completion
Auf den Abschluss dieser Ausführung warten.
Gibt das Statusobjekt nach dem Wartezustand zurück.
wait_for_completion(show_output=False, wait_post_processing=False)
Parameter
Name | Beschreibung |
---|---|
show_output
|
Gibt an, ob die Ausgabe der Ausführung in sys.stdout angezeigt werden soll. Standardwert: False
|
wait_post_processing
|
Gibt an, ob nach Abschluss der Ausführung auf den Abschluss der Nachverarbeitung gewartet werden soll. Standardwert: False
|
Gibt zurück
Typ | Beschreibung |
---|---|
Das Statusobjekt. |
Ausnahmen
Typ | Beschreibung |
---|---|
Attribute
run_id
Geben Sie die Ausführungs-ID der aktuellen Ausführung zurück.
Gibt zurück
Typ | Beschreibung |
---|---|
Die Ausführungs-ID der aktuellen Ausführung. |