Referens för AutoML Python API
Den här artikeln beskriver AutoML Python-API:et, som innehåller metoder för att starta klassificering, regression och prognostisering av AutoML-körningar. Varje metodanrop tränar en set av modeller och genererar en utvärderingsanteckningsbok för varje modell.
Mer information om AutoML, inklusive ett lågkodsgränssnittsalternativ, finns i Vad är AutoML?.
Klassificera
Metoden databricks.automl.classify
konfigurerar en AutoML-körning för att träna en klassificeringsmodell.
Kommentar
Parametern max_trials
är inaktuell i Databricks Runtime 10.4 ML och stöds inte i Databricks Runtime 11.0 ML och senare. Använd timeout_minutes
för att styra varaktigheten för en AutoML-körning.
databricks.automl.classify(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "f1",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
pos_label: Optional[Union[int, bool, str]] = None, # <DBR> 11.1 ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None # <DBR> 15.4 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Klassificera parameters
Parameternamn | Typ | Beskrivning |
---|---|---|
dataset |
str , pandas.DataFrame , , pyspark.DataFrame pyspark.sql.DataFrame |
Indata table namn eller DataFrame som innehåller träningsegenskaper och mål. Table namn kan ha formatet "<database_name>.<table_name>" eller "<schema_name>.<table_name>" för icke Unity Catalogtables. |
target_col |
str |
Column namn för måletikett. |
primary_metric |
str |
Mått som används för att utvärdera och rangordna modellprestanda. Mått som stöds för regression: "r2" (standard), "mae", "rmse", "mse" Mått som stöds för klassificering: "f1" (standard), "log_loss", "precision", "noggrannhet", "roc_auc" |
data_dir |
str format dbfs:/<folder-name> |
Valfritt.
DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder. Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt. Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter. |
experiment_dir |
str |
Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten. Standard: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Valfritt. Namn på MLflow-experimentet som AutoML skapar. Standard: Namnet genereras automatiskt. |
exclude_cols |
List[str] |
Valfritt.
List av columns att ignorera vid AutoML-beräkningar. Standard: [] |
exclude_frameworks |
List[str] |
Valfritt.
List av algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga values: tom list, eller en eller flera av "sklearn", "lightgbm", "xgboost". Standard: [] (alla ramverk beaktas) |
feature_store_lookups |
List[Dict] |
Valfritt.
List med ordlistor som representerar funktioner från Funktionslager för dataförstoring. Giltiga nycklar i varje ordlista är: - table_name (str): Krävs. Namnet på funktionen table.- lookup_key (list eller str): Krävs.
Column namn som ska användas som nyckel vid sammanslagning av funktionen table med data som skickas i parametern dataset . Ordningen på column namn måste matcha ordningen på de primära nycklarna för funktionen table.- timestamp_lookup_key (str): Krävs om den angivna table är en tidsseriefunktion table. Det column-namnet som ska användas vid tidpunktssökning på funktionen table med data som skickas i parametern dataset .Standard: [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
Valfritt. Ordlista where varje nyckel är ett column namn, och varje värde är en sträng eller ordlista som beskriver imputationsstrategin. Om värdet anges som en sträng måste det vara "medelvärde", "median" eller "most_frequent". Om du vill imputera med ett känt värde anger du värdet som en ordlista {"strategy": "constant", "fill_value": <desired value>} . Du kan också ange strängalternativ som ordlistor, till exempel {"strategy": "mean"} .Om ingen imputationsstrategi tillhandahålls för en columnväljer AutoML en standardstrategi baserat på column typ och innehåll. Om du anger en imputationsmetod som inte är standard utför AutoML inte semantisk typidentifiering. Standard: {} |
pos_label |
Union[int, bool, str] |
(Endast klassificering) Den positiva klassen. Detta är användbart för att beräkna mått som precision och återkallande. Bör endast anges för problem med binär klassificering. |
time_col |
str |
Tillgänglig i Databricks Runtime 10.1 ML och senare. Valfritt. Column namn för en tid column. Om det tillhandahålls försöker AutoML dela upp datamängden i tränings-, validerings- och testuppsättningar kronologiskt, med hjälp av de tidigaste punkterna som träningsdata och de senaste punkterna som ett test set. Accepterade column typer är tidsstämpel och heltal. Med Databricks Runtime 10.2 ML och senare stöds även sträng columns. Om column typ är sträng försöker AutoML konvertera den till tidsstämpel med hjälp av semantisk identifiering. Om konverteringen misslyckas misslyckas AutoML-körningen. |
split_col |
str |
Valfritt.
Column namnet på en delad column. Endast tillgängligt i Databricks Runtime 15.3 ML och senare för API-arbetsflöden. Om det tillhandahålls försöker AutoML dela upp tränings-/validerings-/testuppsättningar efter användardefinierade values, och den här column utesluts automatiskt från träningsfunktioner. Accepterad column typ är sträng. Värdet för varje post i den här column måste vara något av följande: ”träna”, ”validera” eller ”testa”. |
sample_weight_col |
str |
Tillgänglig i Databricks Runtime 15.4 ML och senare för arbetsflöden för klassificerings-API. Valfritt. Column namn i datauppsättningen som innehåller exempelvikterna för varje rad. Klassificering stöder exempelvikter per klass. Dessa vikter justerar vikten för varje klass under modellträningen. Varje prov i en klass måste ha samma provvikt och vikterna måste vara icke-negativa decimaler eller heltal values, från 0 till 10 000. Klasser med högre exempelvikter anses vara viktigare och har större påverkan på inlärningsalgoritmen. Om den här column inte anges antas alla klasser ha samma vikt. |
max_trials |
int |
Valfritt. Maximalt antal utvärderingsversioner som ska köras. Den här parametern är tillgänglig i Databricks Runtime 10.5 ML och nedan, men är inaktuell från och med Databricks Runtime 10.3 ML. I Databricks Runtime 11.0 ML och senare stöds inte den här parametern. Standard: 20 Om timeout_minutes=Ingen kör AutoML det maximala antalet utvärderingsversioner. |
timeout_minutes |
int |
Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet. Standard: 120 minuter Minsta värde: 5 minuter Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras. |
Regrediera
Metoden databricks.automl.regress
konfigurerar en AutoML-körning för att träna en regressionsmodell. Den här metoden returnerar en AutoMLSummary.
Kommentar
Parametern max_trials
är inaktuell i Databricks Runtime 10.4 ML och stöds inte i Databricks Runtime 11.0 ML och senare. Använd timeout_minutes
för att styra varaktigheten för en AutoML-körning.
databricks.automl.regress(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "r2",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None, # <DBR> 15.3 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Regress parameters
Parameternamn | Typ | Beskrivning |
---|---|---|
dataset |
str , pandas.DataFrame , , pyspark.DataFrame pyspark.sql.DataFrame |
Indata table namn eller DataFrame som innehåller träningsfunktioner och mål. Table namn kan ha formatet "<database_name>.<table_name>" eller "<schema_name>.<table_name>" för icke Unity Catalogtables. |
target_col |
str |
Column namn på måletiketten. |
primary_metric |
str |
Mått som används för att utvärdera och rangordna modellprestanda. Mått som stöds för regression: "r2" (standard), "mae", "rmse", "mse" Mått som stöds för klassificering: "f1" (standard), "log_loss", "precision", "noggrannhet", "roc_auc" |
data_dir |
str format dbfs:/<folder-name> |
Valfritt.
DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder. Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt. Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter. |
experiment_dir |
str |
Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten. Standard: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Valfritt. Namn på MLflow-experimentet som AutoML skapar. Standard: Namnet genereras automatiskt. |
exclude_cols |
List[str] |
Valfritt.
List av columns att ignorera under AutoML-beräkningar. Standard: [] |
exclude_frameworks |
List[str] |
Valfritt.
List av algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga values: tom list, eller en eller flera av "sklearn", "lightgbm", "xgboost". Standard: [] (alla ramverk beaktas) |
feature_store_lookups |
List[Dict] |
Valfritt.
List med ordlistor som representerar funktioner från Funktionslager för dataförstoring. Giltiga nycklar i varje ordlista är: - table_name (str): Krävs. Namnet på funktionen table.- lookup_key (list eller str): Krävs.
Column namn som ska användas som nyckel när du ansluter funktionen table med data som skickas i dataset param. Ordningen på column namn måste matcha ordningen på de primära nycklarna för funktionen table.- timestamp_lookup_key (str): Krävs om den angivna table är en tidsseriefunktion table. Det column-namn som ska användas vid tidsbestämd sökning på funktionen table med data som skickas i parametern dataset .Standard: [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
Valfritt. Ordlista where varje nyckel är ett column namn, och varje värde är en sträng eller ordlista som beskriver imputationsstrategin. Om värdet anges som en sträng måste det vara "medelvärde", "median" eller "most_frequent". Om du vill imputera med ett känt värde anger du värdet som en ordlista {"strategy": "constant", "fill_value": <desired value>} . Du kan också ange strängalternativ som ordlistor, till exempel {"strategy": "mean"} .Om ingen imputationsstrategi tillhandahålls för en columnväljer AutoML en standardstrategi baserat på column typ och innehåll. Om du anger en imputationsmetod som inte är standard utför AutoML inte semantisk typidentifiering. Standard: {} |
time_col |
str |
Tillgänglig i Databricks Runtime 10.1 ML och senare. Valfritt. Column namn för en tid column. Om det tillhandahålls försöker AutoML dela upp datamängden i tränings-, validerings- och testuppsättningar kronologiskt, med hjälp av de tidigaste punkterna som träningsdata och de senaste punkterna som ett test set. Accepterade column datatyper är tidsstämpel och heltal. Med Databricks Runtime 10.2 ML och senare stöds även sträng columns. Om column typ är sträng försöker AutoML konvertera den till tidsstämpel med hjälp av semantisk identifiering. Om konverteringen misslyckas misslyckas AutoML-körningen. |
split_col |
str |
Valfritt.
Column namn för en uppdelad column. Endast tillgängligt i Databricks Runtime 15.3 ML och senare för API-arbetsflöden. Om det tillhandahålls försöker AutoML dela upp tränings-/validerings-/testuppsättningar efter användardefinierade values, och den här column utesluts automatiskt från träningsfunktioner. Accepterad column typ är sträng. Värdet för varje post i den här column måste vara något av följande: "train", "validate" eller "test". |
sample_weight_col |
str |
Tillgänglig i Databricks Runtime 15.3 ML och senare för regressions-API-arbetsflöden. Valfritt. Column namn i datauppsättningen som innehåller exempelvikterna för varje rad. Dessa vikter justerar vikten för varje rad under modellträningen. Vikterna måste vara icke-negativa decimaler eller heltal values, från 0 till 10 000. Rader med högre exempelvikter anses vara viktigare och har större påverkan på inlärningsalgoritmen. Om den här column inte har angetts antas alla rader ha samma vikt. |
max_trials |
int |
Valfritt. Maximalt antal utvärderingsversioner som ska köras. Den här parametern är tillgänglig i Databricks Runtime 10.5 ML och nedan, men är inaktuell från och med Databricks Runtime 10.3 ML. I Databricks Runtime 11.0 ML och senare stöds inte den här parametern. Standard: 20 Om timeout_minutes=Ingen kör AutoML det maximala antalet utvärderingsversioner. |
timeout_minutes |
int |
Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet. Standard: 120 minuter Minsta värde: 5 minuter Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras. |
Prognos
Metoden databricks.automl.forecast
konfigurerar en AutoML-körning för träning av en prognosmodell. Den här metoden returnerar en AutoMLSummary.
Om du vill använda Auto-ARIMA måste tidsserierna ha en regelbunden frekvens (det vill: intervallet mellan två punkter måste vara detsamma under hela tidsserien). Frekvensen måste matcha den frekvensenhet som anges i API-anropet. AutoML hanterar saknade tidssteg genom att fylla i de values med föregående värde.
databricks.automl.forecast(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
time_col: str,
primary_metric: str = "smape",
country_code: str = "US", # <DBR> 12.0 ML and above
frequency: str = "D",
horizon: int = 1,
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None,
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_frameworks: Optional[List[str]] = None,
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 12.2 LTS ML and above
identity_col: Optional[Union[str, List[str]]] = None,
sample_weight_col: Optional[str] = None, # <DBR> 16.0 ML and above
output_database: Optional[str] = None, # <DBR> 10.5 ML and above
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Prognostisering parameters
Parameternamn | Typ | Beskrivning |
---|---|---|
dataset |
str , pandas.DataFrame , , pyspark.DataFrame pyspark.sql.DataFrame |
Indata table namn eller DataFrame som innehåller träningsfunktioner och mål. Table-namn kan vara i formatet "..". eller "." för icke-Unity Catalogtables |
target_col |
str |
Column namn på måletiketten. |
time_col |
str |
Namn på tiden column för prognostisering. |
primary_metric |
str |
Mått som används för att utvärdera och rangordna modellprestanda. Mått som stöds: "smape" (standard), "mse", "rmse", "mae" eller "mdape". |
country_code |
str |
Finns i Databricks Runtime 12.0 ML och senare. Stöds endast av profetens prognosmodell. Valfritt. Landskod med två bokstäver som anger vilket lands helgdagar prognosmodellen ska använda. Ignorera helgdagar genom att sätta set till en tom sträng (""). Länder som stöds. Standard: USA (USA helgdagar). |
frequency |
str |
Frekvens för tidsserierna för prognostisering. Det här är den period med vilken händelser förväntas inträffa. Standardinställningen är "D" eller dagliga data. Se till att ändra inställningen om dina data har en annan frekvens. Möjliga values: "W" (veckor) "D" / "days" / "day" "hours" / "hour" / "hr" / "h" "m" / "minute" / "min" / "minutes" / "T" "S" / "seconds" / "sec" / "second" Följande är endast tillgängliga med Databricks Runtime 12.0 ML och senare: "M" / "month" / "months" "Q" / "kvartal" / "kvartal" "Y" / "år" / "år" Standard: "D" |
horizon |
int |
Antal perioder in i framtiden för vilka prognoser ska returneras. Enheterna är tidsseriefrekvensen. Standard: 1 |
data_dir |
str format dbfs:/<folder-name> |
Valfritt.
DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder. Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt. Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter. |
experiment_dir |
str |
Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten. Standard: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Valfritt. Namn på MLflow-experimentet som AutoML skapar. Standard: Namnet genereras automatiskt. |
exclude_frameworks |
List[str] |
Valfritt.
List av algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga values: tom list, eller en eller flera av "profet", "arima". Standard: [] (alla ramverk beaktas) |
feature_store_lookups |
List[Dict] |
Valfritt.
List med ordlistor som representerar funktioner från Funktionsarkiv för samvariera dataförstoring. Giltiga nycklar i varje ordlista är: - table_name (str): Krävs. Namnet på funktionen table.- lookup_key (list eller str): Krävs.
Column namn att använda som nyckel för att koppla funktionen table med data som skickas i parameter dataset . Ordningen på column namn måste matcha ordningen på de primära nycklarna för funktionen table.- timestamp_lookup_key (str): Krävs om den angivna table är en tidsseriefunktion table. Det column-namnet som ska användas vid en viss tidpunktsökning i egenskapen table med data som skickas i parametern dataset .Standard: [] |
identity_col |
Union[str, list] |
Valfritt. Columnsom identifierar tidsserierna för prognoser för flera serier. AutoML grupperar efter dessa column(s) och tiden column för prognostisering. |
sample_weight_col |
str |
Finns i Databricks Runtime 16.0 ML och senare. Endast för arbetsflöden i flera serier. Valfritt. Anger column i datamängden som innehåller exempelvikter. Dessa vikter anger den relativa betydelsen av varje tidsserie under modellträning och utvärdering. Tidsserier med högre vikter har större inverkan på modellen. Om det inte anges behandlas alla tidsserier med samma vikt. Alla rader som hör till samma tidsserie måste ha samma vikt. Vikterna måste vara icke-negativa values, antingen decimaler eller heltal och vara mellan 0 och 10 000. |
output_database |
str |
Valfritt. Om det tillhandahålls sparar AutoML förutsägelser om den bästa modellen till en ny table i den angivna databasen. Standard: Förutsägelser sparas inte. |
timeout_minutes |
int |
Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet. Standard: 120 minuter Minsta värde: 5 minuter Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras. |
Importera notebook-fil
Metoden databricks.automl.import_notebook
importerar en notebook-fil som har sparats som en MLflow-artefakt. Den här metoden returnerar en ImportNotebookResult.
databricks.automl.import_notebook(
artifact_uri: str,
path: str,
overwrite: bool = False
) -> ImportNotebookResult:
Parameters | Typ | Beskrivning |
---|---|---|
artifact_uri |
str |
URI:n för MLflow-artefakten som innehåller utvärderingsanteckningsboken. |
path |
str |
Sökvägen till Databricks-arbetsytan where notebook-filen ska importeras. Detta måste vara en absolut sökväg. Katalogen skapas om den inte finns. |
overwrite |
bool |
Om anteckningsboken ska skrivas över om den redan finns. Det är False som standard. |
Exempel på import av notebook-fil
summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)
AutoMLSummary
Sammanfattningsobjekt för en AutoML-körning som beskriver måtten, parametersoch annan information för var och en av försöken. Du använder också det här objektet för att läsa in modellen som tränats av en specifik utvärderingsversion.
Property | Typ | Beskrivning |
---|---|---|
experiment |
mlflow.entities.Experiment |
MLflow-experimentet som används för att logga utvärderingsversionerna. |
trials |
List[TrialInfo] |
En list av TrialInfo-objekt som innehåller information om alla försök som genomfördes. |
best_trial |
TrialInfo |
Ett TrialInfo-objekt som innehåller information om utvärderingsversionen som resulterade i den bästa viktade poängen för det primära måttet. |
metric_distribution |
str |
Fördelningen av viktade poäng för det primära måttet i alla utvärderingsversioner. |
output_table_name |
str |
Används endast med prognostisering och endast om output_database tillhandahålls. Namnet på table i output_database som innehåller modellens förutsägelser. |
TrialInfo
Sammanfattningsobjekt för varje enskild utvärderingsversion.
Property | Typ | Beskrivning |
---|---|---|
notebook_path |
Optional[str] |
Sökvägen till den genererade notebook-filen för den här utvärderingsversionen på arbetsytan. För klassificering och regression är detta värde set endast för det bästa försöket, medan alla andra försök har värdet från set till None .För prognostisering finns det här värdet för alla utvärderingsversioner. |
notebook_url |
Optional[str] |
URL:en för den genererade notebook-filen för den här utvärderingsversionen. För klassificering och regression är det här värdet set endast för det bästa försöket, medan alla andra försök har värdet från set till None .För prognostisering finns det här värdet för alla utvärderingsversioner. |
artifact_uri |
Optional[str] |
MLflow-artefakt-URI:n för den genererade notebook-filen. |
mlflow_run_id |
str |
MLflow-körnings-ID:t som är associerat med den här utvärderingskörningen. |
metrics |
Dict[str, float] |
Måtten som loggas i MLflow för den här utvärderingsversionen. |
params |
Dict[str, str] |
parameters loggades i MLflow som användes för detta försök. |
model_path |
str |
MLflow-artefakt-URL:en för modellen som tränats i den här utvärderingsversionen. |
model_description |
str |
Kort beskrivning av modellen och de hyperparametrar som används för att träna den här modellen. |
duration |
str |
Träningsvaraktighet i minuter. |
preprocessors |
str |
Beskrivning av de förprocessorer som körs innan modellen tränas. |
evaluation_metric_score |
float |
Poäng för primärt mått, utvärderat för valideringsdatauppsättningen. |
TrialInfo
har en metod för att läsa in modellen som genererats för utvärderingsversionen.
Metod | Beskrivning |
---|---|
load_model() |
Läs in modellen som genererades i den här utvärderingsversionen, loggad som en MLflow-artefakt. |
ImportNotebookResult
Property | Typ | Beskrivning |
---|---|---|
path |
str |
Sökvägen till Databricks-arbetsytan where notebook-filen ska importeras. Detta måste vara en absolut sökväg. Katalogen skapas om den inte finns. |
url |
str |
URI:n för MLflow-artefakten som innehåller utvärderingsanteckningsboken. |