Interfaccia della riga di comando dell'area di lavoro (legacy)
Importante
Questa documentazione è stata ritirata e potrebbe non essere aggiornata.
Queste informazioni si applicano alle versioni legacy dell'interfaccia della riga di comando di Databricks 0.18 e successive. Databricks consiglia di usare invece la versione 0.205 o successiva dell'interfaccia della riga di comando di Databricks più recente. Vedere Che cos'è l'interfaccia della riga di comando di Databricks?. Per trovare la versione dell'interfaccia della riga di comando di Databricks, eseguire databricks -v
.
Per eseguire la migrazione dall'interfaccia della riga di comando di Databricks versione 0.18 o successiva all'interfaccia della riga di comando di Databricks versione 0.205 o successiva, vedere Migrazione dell'interfaccia della riga di comando di Databricks.
È possibile eseguire sottocomandi dell'interfaccia della riga di comando dell'area di lavoro di Databricks aggiungendoli a databricks workspace
. Questi sottocomandi chiamano l'API dell'area di lavoro.
databricks workspace -h
Usage: databricks workspace [OPTIONS] COMMAND [ARGS]...
Utility to interact with the Databricks workspace. Workspace paths must be
absolute and be prefixed with `/`.
Common Options:
-v, --version [VERSION]
-h, --help Show this message and exit.
Commands:
delete Deletes objects from the Databricks workspace. rm and delete are synonyms.
Options:
-r, --recursive
export Exports a file from the Databricks workspace.
Options:
-f, --format FORMAT SOURCE, HTML, JUPYTER, or DBC. Set to SOURCE by default.
-o, --overwrite Overwrites file with the same name as a workspace file.
export_dir Recursively exports a directory from the Databricks workspace.
Options:
-o, --overwrite Overwrites local files with the same names as workspace files.
import Imports a file from local to the Databricks workspace.
Options:
-l, --language LANGUAGE SCALA, PYTHON, SQL, R [required]
-f, --format FORMAT SOURCE, HTML, JUPYTER, or DBC. Set to SOURCE by default.
-o, --overwrite Overwrites workspace files with the same names as local files.
import_dir Recursively imports a directory to the Databricks workspace.
Only directories and files with the extensions .scala, .py, .sql, .r, .R,
.ipynb are imported. When imported, these extensions are stripped off
the name of the notebook.
Options:
-o, --overwrite Overwrites workspace files with the same names as local files.
-e, --exclude-hidden-files
list Lists objects in the Databricks workspace. ls and list are synonyms.
Options:
--absolute Displays absolute paths.
-l Displays full information including ObjectType, Path, Language
ls Lists objects in the Databricks workspace. ls and list are synonyms.
Options:
--absolute Displays absolute paths.
-l Displays full information including ObjectType, Path, Language
mkdirs Makes directories in the Databricks workspace.
rm Deletes objects from the Databricks workspace. rm and delete are synonyms.
Options:
-r, --recursive
Eliminare un oggetto da un'area di lavoro
Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace delete --help
o databricks workspace rm --help
.
databricks workspace delete --recursive "/Users/someone@example.com/My Folder"
Oppure:
databricks workspace rm --recursive "/Users/someone@example.com/My Folder"
In caso di esito positivo, non viene visualizzato alcun output.
Esportare un file da un'area di lavoro nel file system locale
Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace export --help
.
databricks workspace export --overwrite --format JUPYTER "/Users/someone@example.com/My Python Notebook" /Users/me/Downloads
Questa opzione può essere usata anche per esportare i notebook da una cartella Git di Databricks:
databricks workspace export "/Repos/someone@example.com/MyRepoNotebook" /Users/me/Downloads
In caso di esito positivo, non viene visualizzato alcun output.
Esportare una directory da un'area di lavoro nel file system locale
Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace export_dir --help
.
databricks workspace export_dir --overwrite /Users/someone@example.com/my-folder /Users/me/Downloads/my-folder
/Users/someone@example.com/my-folder/My Python Notebook -> /Users/me/Downloads/my-folder/My Python Notebook.py
/Users/someone@example.com/my-folder/My Scala Notebook -> /Users/me/Downloads/my-folder/My Scala Notebook.scala
/Users/someone@example.com/my-folder/My R Notebook -> /Users/me/Downloads/my-folder/My R Notebook.r
/Users/someone@example.com/my-folder/My SQL Notebook -> /Users/me/Downloads/my-folder/My SQL Notebook.sql
Importare un file dal file system locale in un'area di lavoro
Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace import --help
.
È possibile importare solo i file con estensioni .scala
, .sql
.py
, .r
.R
.
Quando vengono importate, queste estensioni vengono rimosse dal nome del notebook.
databricks workspace import ./a.py /Users/someone@example.com/example
./a.py -> /Users/someone@example.com/example/a
Importare una directory dal file system locale in un'area di lavoro
Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace import_dir --help
.
Questo comando importa in modo ricorsivo una directory dal file system locale nell'area di lavoro. Vengono importate solo directory e file con le estensioni .scala
, .py
.sql
, .r
. .R
Quando vengono importate, queste estensioni vengono rimosse dal nome del notebook.
Per sovrascrivere i notebook esistenti nel percorso di destinazione, aggiungere il flag --overwrite
o -o
.
tree
.
├── a.py
├── b.scala
├── c.sql
├── d.R
└── e
databricks workspace import_dir . /Users/someone@example.com/example
./a.py -> /Users/someone@example.com/example/a
./b.scala -> /Users/someone@example.com/example/b
./c.sql -> /Users/someone@example.com/example/c
./d.R -> /Users/someone@example.com/example/d
databricks workspace ls /Users/someone@example.com/example -l
NOTEBOOK a PYTHON
NOTEBOOK b SCALA
NOTEBOOK c SQL
NOTEBOOK d R
DIRECTORY e
Elencare gli oggetti in un'area di lavoro
Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace list --help
o databricks workspace ls --help
.
databricks workspace list --absolute --long --id /Users/someone@example.com
Oppure:
databricks workspace ls --absolute --long --id /Users/someone@example.com
NOTEBOOK /Users/someone@example.com/My Python Notebook PYTHON 1234567898012345
NOTEBOOK /Users/someone@example.com/My Scala Notebook SCALA 2345678980123456
NOTEBOOK /Users/someone@example.com/My R Notebook R 3456789801234567
DIRECTORY /Users/someone@example.com/My Directory 4567898012345678
MLFLOW_EXPERIMENT /Users/someone@example.com/My_Experiment 5678980123456789
Creare una directory in un'area di lavoro
Per visualizzare la documentazione sull'utilizzo, eseguire databricks workspace mkdirs --help
.
databricks workspace mkdirs "/Users/someone@example.com/My New Folder"
In caso di esito positivo, non viene visualizzato alcun output.