databricks_step Modulo
Contiene funzionalità per creare un passaggio della pipeline di Azure ML per eseguire un notebook di Databricks o uno script Python in DBFS.
Classi
DatabricksStep |
Crea un passaggio di Azure ML Pipeline per aggiungere un notebook di DataBricks, uno script Python o un file JAR come nodo. Per un esempio di uso di DatabricksStep, vedere il notebook https://aka.ms/pl-databricks. Creare un passaggio di Azure ML Pipeline per aggiungere un notebook di DataBricks, uno script Python o JAR come nodo. Per un esempio di uso di DatabricksStep, vedere il notebook https://aka.ms/pl-databricks. :p aram python_script_name:[Obbligatorio] Nome di uno script Python relativo a Specificare esattamente uno di Se si specifica un oggetto DataReference come input con data_reference_name=input1 e un oggetto PipelineData come output con name=output1, gli input e gli output verranno passati allo script come parametri. Si tratta di un aspetto simile al seguente e sarà necessario analizzare gli argomenti nello script per accedere ai percorsi di ogni input e output: "-input1","wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d2b81a2/output1" Inoltre, i parametri seguenti saranno disponibili nello script:
Quando si esegue uno script Python dal computer locale in Databricks usando i parametri |