Freigeben über


Experiment Klasse

Stellt den Haupteinstiegspunkt zum Erstellen und Arbeiten mit Experimenten in Azure Machine Learning dar.

Ein Experiment ist ein Container mit Tests, die aus mehreren Modellausführungen bestehen.

Experimentkonstruktor.

Vererbung
azureml._logging.chained_identity.ChainedIdentity
Experiment
azureml.core._portal.HasExperimentPortal
Experiment

Konstruktor

Experiment(workspace, name, _skip_name_validation=False, _id=None, _archived_time=None, _create_in_cloud=True, _experiment_dto=None, **kwargs)

Parameter

Name Beschreibung
workspace
Erforderlich

Das Arbeitsbereichsobjekt, das das Experiment enthält.

name
Erforderlich
str

Den Experimentnamen.

kwargs
Erforderlich

Ein Wörterbuch mit Schlüsselwortargumenten.

workspace
Erforderlich

Das Arbeitsbereichsobjekt, das das Experiment enthält.

name
Erforderlich
str

Den Experimentnamen.

kwargs
Erforderlich

Ein Wörterbuch mit Schlüsselwortargumenten.

_skip_name_validation
Standardwert: False
_id
Standardwert: None
_archived_time
Standardwert: None
_create_in_cloud
Standardwert: True
_experiment_dto
Standardwert: None

Hinweise

Ein Azure Machine Learning-Experiment stellt die Sammlung von Testversionen dar, die verwendet werden, um die Hypothese eines Benutzers zu überprüfen.

In Azure Machine Learning wird ein Experiment durch die Experiment-Klasse und eine Testversion durch die Run-Klasse dargestellt.

Um ein Experiment aus einem Arbeitsbereich abzurufen oder zu erstellen, fordern Sie das Experiment mithilfe des Experimentnamens an. Der Experimentname muss 3–36 Zeichen umfassen, mit einem Buchstaben oder einer Zahl beginnen und darf nur Buchstaben, Ziffern, Unterstriche und Bindestriche enthalten.


   experiment = Experiment(workspace, "MyExperiment")

Wenn das Experiment nicht im Arbeitsbereich gefunden wird, wird ein neues Experiment erstellt.

Experimenttests können auf zwei Arten ausgeführt werden. Wenn Sie interaktiv in einem Jupyter Notebook experimentieren, verwenden Sie start_logging. Wenn Sie ein Experiment aus dem Quellcode oder einen anderen konfigurierten Test übermitteln, verwenden Sie submit.

Bei beiden Mechanismen wird ein Run-Objekt erstellt. Verwenden Sie in interaktiven Szenarien Protokollierungsmethoden wie log, um dem Testdatensatz Messungen und Metriken hinzuzufügen. Verwenden Sie in konfigurierten Szenarien Statusmethoden wie get_status, um Informationen zur Ausführung abzurufen.

In beiden Fällen können Sie Abfragemethoden wie get_metrics verwenden, um ggf. die aktuellen Werte von Testmessungen und Metriken abzurufen.

Methoden

archive

Archivieren eines Experiments.

delete

Löschen eines Experiments im Arbeitsbereich.

from_directory

(Veraltet) Laden Sie ein Experiment aus dem angegebenen Pfad.

get_docs_url

URL zur Dokumentation dieser Klasse.

get_runs

Gibt einen Generator der Ausführungen für dieses Experiment in umgekehrter chronologischer Reihenfolge zurück.

list

Dient zum Zurückgeben der Liste der Experimente im Arbeitsbereich.

reactivate

Reaktivieren eines archivierten Experiments.

refresh

Gibt die neueste Version des Experiments aus der Cloud zurück.

remove_tags

Löschen Sie die angegebenen Tags aus dem Experiment.

set_tags

Fügen Sie dem Experiment eine Reihe von Tags hinzu, oder ändern Sie sie. Tags, die nicht im Wörterbuch übergeben werden, bleiben unverändert.

start_logging

Starten Sie eine interaktive Protokollierungssitzung, und erstellen Sie eine interaktive Ausführung im angegebenen Experiment.

submit

Übermitteln Sie ein Experiment, und geben Sie die aktive erstellte Ausführung zurück.

tag

Kennzeichnen Sie das Experiment mit einem Zeichenfolgenschlüssel und einem optionalen Zeichenfolgenwert.

archive

Archivieren eines Experiments.

archive()

Hinweise

Nach der Archivierung wird das Experiment nicht standardmäßig aufgeführt. Beim Versuch, in ein archiviertes Experiment zu schreiben, wird ein neues aktives Experiment mit dem gleichen Namen erstellt. Ein archiviertes Experiment kann durch Aufrufen von reactivate wiederhergestellt werden, solange es kein weiteres aktives Experiment mit dem gleichen Namen gibt.

delete

Löschen eines Experiments im Arbeitsbereich.

static delete(workspace, experiment_id)

Parameter

Name Beschreibung
workspace
Erforderlich

Der Arbeitsbereich, zu dem das Experiment gehört.

experiment_id
Erforderlich

Die Experiment-ID des zu löschenden Experiments.

from_directory

(Veraltet) Laden Sie ein Experiment aus dem angegebenen Pfad.

static from_directory(path, auth=None)

Parameter

Name Beschreibung
path
Erforderlich
str

Das Verzeichnis, das die Konfigurationsdateien des Experiments enthält.

auth

Das Authentifizierungsobjekt. Bei None werden die Standard-Azure CLI Anmeldeinformationen verwendet, oder die API fordert zur Eingabe von Anmeldeinformationen auf.

Standardwert: None

Gibt zurück

Typ Beschreibung

Gibt das Experiment zurück

get_docs_url

URL zur Dokumentation dieser Klasse.

get_docs_url()

Gibt zurück

Typ Beschreibung
str

url

get_runs

Gibt einen Generator der Ausführungen für dieses Experiment in umgekehrter chronologischer Reihenfolge zurück.

get_runs(type=None, tags=None, properties=None, include_children=False)

Parameter

Name Beschreibung
type

Filtert den zurückgegeben Generator von Ausführungen nach dem angegebenen Typ. Informationen zum Erstellen von Ausführungstypen finden Sie unter add_type_provider.

Standardwert: None
tags
string oder dict

Filtert Ausführungen nach "tag" oder {"tag": "value"}.

Standardwert: None
properties
string oder dict

Filtern von Ausführungen nach „property“ oder „{"property": "value"}“.

Standardwert: None
include_children

Standardmäßig werden nur Ausführungen der obersten Ebene abgerufen. Legen Sie auf "true" fest, um alle Ausführungen aufzulisten.

Standardwert: False

Gibt zurück

Typ Beschreibung

Die Liste der Ausführungen, die mit den angegebenen Filtern übereinstimmen.

list

Dient zum Zurückgeben der Liste der Experimente im Arbeitsbereich.

static list(workspace, experiment_name=None, view_type='ActiveOnly', tags=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Der Arbeitsbereich, aus dem die Experimente aufgeführt werden sollen.

experiment_name
str

Optionaler Name zum Filtern von Experimenten.

Standardwert: None
view_type

Optionaler Enumerierungswert zum Filtern oder Hinzufügen archivierter Experimente.

Standardwert: ActiveOnly
tags

Optionaler Tagschlüssel oder Wörterbuch von Tagschlüssel-Wert-Paaren zum Filtern von Experimenten.

Standardwert: None

Gibt zurück

Typ Beschreibung

Eine Liste von Experimentobjekten.

reactivate

Reaktivieren eines archivierten Experiments.

reactivate(new_name=None)

Parameter

Name Beschreibung
new_name
Erforderlich
str

Wird nicht mehr unterstützt.

Hinweise

Ein archiviertes Experiment kann nur dann reaktiviert werden, wenn es kein weiteres aktives Experiment mit dem gleichen Namen gibt.

refresh

Gibt die neueste Version des Experiments aus der Cloud zurück.

refresh()

remove_tags

Löschen Sie die angegebenen Tags aus dem Experiment.

remove_tags(tags)

Parameter

Name Beschreibung
tags
Erforderlich
[str]

Die Tagschlüssel, die entfernt werden

set_tags

Fügen Sie dem Experiment eine Reihe von Tags hinzu, oder ändern Sie sie. Tags, die nicht im Wörterbuch übergeben werden, bleiben unverändert.

set_tags(tags)

Parameter

Name Beschreibung
tags
Erforderlich

Die im Experimentobjekt gespeicherten Tags

start_logging

Starten Sie eine interaktive Protokollierungssitzung, und erstellen Sie eine interaktive Ausführung im angegebenen Experiment.

start_logging(*args, **kwargs)

Parameter

Name Beschreibung
experiment
Erforderlich

Das Experiment.

outputs
Erforderlich
str

Optionales Ausgabeverzeichnis zum Nachverfolgen. Wenn keine Ausgaben ausgegeben werden, übergeben Sie False.

snapshot_directory
Erforderlich
str

Optionales Verzeichnis zum Erstellen einer Momentaufnahme. Bei „None“ wird keine Momentaufnahme erstellt.

args
Erforderlich
kwargs
Erforderlich

Gibt zurück

Typ Beschreibung
Run

Gibt eine gestartete Ausführung zurück.

Hinweise

start_logging erstellt eine interaktive Ausführung für die Verwendung in Szenarien wie z. B. Jupyter Notebooks. Alle Metriken, die während der Sitzung protokolliert werden, werden der Ausführungsaufzeichnung im Experiment hinzugefügt. Wenn ein Ausgabeverzeichnis angegeben wird, wird der Inhalt dieses Verzeichnisses nach Abschluss der Ausführung als Ausführungsartefakte hochgeladen.


   experiment = Experiment(workspace, "My Experiment")
   run = experiment.start_logging(outputs=None, snapshot_directory=".", display_name="My Run")
   ...
   run.log_metric("Accuracy", accuracy)
   run.complete()

Hinweis

run_id wird automatisch für jede Ausführung generiert und ist innerhalb des Experiments eindeutig.

submit

Übermitteln Sie ein Experiment, und geben Sie die aktive erstellte Ausführung zurück.

submit(config, tags=None, **kwargs)

Parameter

Name Beschreibung
config
Erforderlich

Die zu übermittelnde Konfiguration.

tags

Tags, die der übermittelten Ausführung hinzugefügt werden sollen, {"tag": "value"}.

Standardwert: None
kwargs
Erforderlich

Zusätzliche Parameter, die in der Submit-Funktion für Konfigurationen verwendet werden.

Gibt zurück

Typ Beschreibung
Run

Eine Ausführung.

Hinweise

„Submit“ ist ein asynchroner Aufruf an die Azure Machine Learning-Plattform, mit dem ein Test auf lokaler oder Remotehardware ausgeführt wird. Abhängig von der Konfiguration bereitet „Submit“ automatisch Ihre Ausführungsumgebungen vor, führt Ihren Code aus und erfasst den Quellcode und die Ergebnisse im Ausführungsverlauf des Experiments.

Zum Übermitteln eines Experiments müssen Sie zunächst ein Configuration-Objekt erstellen, das beschreibt, wie das Experiment ausgeführt werden soll. Die Konfiguration richtet sich nach dem benötigten Testtyp.

Ein Beispiel für das Übermitteln eines Experiments von Ihrem lokalen Computer sieht wie folgt aus:


   from azureml.core import ScriptRunConfig

   # run a trial from the train.py code in your current directory
   config = ScriptRunConfig(source_directory='.', script='train.py',
       run_config=RunConfiguration())
   run = experiment.submit(config)

   # get the url to view the progress of the experiment and then wait
   # until the trial is complete
   print(run.get_portal_url())
   run.wait_for_completion()

Weitere Informationen zum Konfigurieren einer Ausführung finden Sie in den Details des Konfigurationstyps.

  • ScriptRunConfig

  • azureml.train.automl.automlconfig.AutoMLConfig

  • azureml.pipeline.core.Pipeline

  • azureml.pipeline.core.PublishedPipeline

  • azureml.pipeline.core.PipelineEndpoint

Hinweis

Wenn Sie eine Trainingsausführung übermitteln, wird eine Momentaufnahme des Verzeichnisses, das Ihre Trainingsskripts enthält, erstellt und an das Computeziel gesendet. Sie wird auch als Teil des Experiments in Ihrem Arbeitsbereich gespeichert. Wenn Sie Dateien ändern und die Ausführung erneut übermitteln, werden nur die geänderten Dateien hochgeladen.

Wenn Sie verhindern möchten, dass Dateien von der Momentaufnahme erfasst werden, müssen Sie eine .gitignore- oder .amlignore-Datei im Verzeichnis erstellen und diesem die Dateien hinzufügen. Für die .amlignore-Datei werden die gleiche Syntax und die gleichen Muster wie für die .gitignore-Datei verwendet. Wenn beide Dateien vorhanden sind, hat die .amlignore-Datei Vorrang.

Weitere Informationen finden Sie unter Momentaufnahmen.

tag

Kennzeichnen Sie das Experiment mit einem Zeichenfolgenschlüssel und einem optionalen Zeichenfolgenwert.

tag(key, value=None)

Parameter

Name Beschreibung
key
Erforderlich
str

Der Tagschlüssel.

value
Erforderlich
str

Ein optionaler Wert für das Tag.

Hinweise

Tags in einem Experiment werden in einem Wörterbuch mit Zeichenfolgenschlüsseln und Zeichenfolgenwerten gespeichert. Tags können festgelegt, aktualisiert und gelöscht werden. Tags sind benutzerorientierte Und enthalten im Allgemeinen Bedeutungsinformationen für die Benutzer des Experiments.


   experiment.tag('')
   experiment.tag('DeploymentCandidate')
   experiment.tag('modifiedBy', 'Master CI')
   experiment.tag('modifiedBy', 'release pipeline') # Careful, tags are mutable

Attribute

archived_time

Gibt die archivierte Zeit für das Experiment zurück. Der Wert sollte für ein aktives Experiment None sein.

Gibt zurück

Typ Beschreibung
str

Die archivierte Zeit des Experiments.

id

Geben Sie die ID des Experiments zurück.

Gibt zurück

Typ Beschreibung
str

Die ID des Experiments.

name

Geben Sie den Namen des Experiments zurück.

Gibt zurück

Typ Beschreibung
str

Der Name des Experiments.

tags

Gibt den veränderlichen Satz von Tags im Experiment zurück.

Gibt zurück

Typ Beschreibung

Die Tags in einem Experiment.

workspace

Gibt den Arbeitsbereich zurück, der das Experiment enthält.

Gibt zurück

Typ Beschreibung

Gibt das Arbeitsbereichsobjekt zurück.

workspace_object

(Veraltet) Gibt den Arbeitsbereich zurück, der das Experiment enthält.

Verwenden Sie das Attribut workspace.

Gibt zurück

Typ Beschreibung

Das Workspace-Objekt.