Vad är Databricks CLI?
Kommentar
Den här informationen gäller för Databricks CLI-versionerna 0.205 och senare. Databricks CLI finns i offentlig förhandsversion.
Databricks CLI-användning omfattas av Databricks-licensen och Databricks sekretessmeddelande, inklusive eventuella användningsdatabestämmelser.
Databricks-kommandoradsgränssnittet (även kallat Databricks CLI) innehåller ett verktyg för att automatisera Azure Databricks-plattformen från terminalen, kommandotolken eller automationsskripten. Du kan också köra Databricks CLI-kommandon från en Databricks-arbetsyta med hjälp av webbterminalen. Se Köra gränssnittskommandon i Azure Databricks-webbterminalen.
Information om hur du installerar och konfigurerar autentisering för Databricks CLI finns i Installera eller uppdatera Databricks CLI och autentisering för Databricks CLI.
Information för äldre Databricks CLI-användare
- Databricks planerar inget stöd eller nytt funktionsarbete för äldre Databricks CLI.
- Mer information om äldre Databricks CLI finns i Databricks CLI (äldre).
- Information om hur du migrerar från Databricks CLI version 0.18 eller senare till Databricks CLI version 0.205 eller senare finns i Databricks CLI-migrering.
Hur fungerar Databricks CLI?
CLI omsluter Databricks REST API, som tillhandahåller slutpunkter för att ändra eller begära information om Azure Databricks-konto- och arbetsyteobjekt. Se referensen för REST API för Azure Databricks.
Om du till exempel vill skriva ut information om ett enskilt kluster på en arbetsyta kör du CLI på följande sätt:
databricks clusters get 1234-567890-a12bcde3
Med curl
är motsvarande åtgärd följande:
curl --request GET "https://${DATABRICKS_HOST}/api/2.0/clusters/get" \
--header "Authorization: Bearer ${DATABRICKS_TOKEN}" \
--data '{ "cluster_id": "1234-567890-a12bcde3" }'
Exempel: skapa ett Azure Databricks-jobb
I följande exempel används CLI för att skapa ett Azure Databricks-jobb. Det här jobbet innehåller en enda jobbaktivitet. Den här uppgiften kör den angivna Azure Databricks-notebook-filen. Den här notebook-filen är beroende av en specifik version av PyPI-paketet med namnet wheel
. För att köra den här uppgiften skapar jobbet tillfälligt ett jobbkluster som exporterar en miljövariabel med namnet PYSPARK_PYTHON
. När jobbet har körts avslutas klustret.
databricks jobs create --json '{
"name": "My hello notebook job",
"tasks": [
{
"task_key": "my_hello_notebook_task",
"notebook_task": {
"notebook_path": "/Workspace/Users/someone@example.com/hello",
"source": "WORKSPACE"
},
"libraries": [
{
"pypi": {
"package": "wheel==0.41.2"
}
}
],
"new_cluster": {
"spark_version": "13.3.x-scala2.12",
"node_type_id": "Standard_DS3_v2",
"num_workers": 1,
"spark_env_vars": {
"PYSPARK_PYTHON": "/databricks/python3/bin/python3"
}
}
}
]
}'
Nästa steg
- Mer information om hur du installerar och börjar använda CLI finns i självstudiekursen för Databricks CLI.
- Information om hur du hoppar över självstudien och bara installerar CLI finns i Installera eller uppdatera Databricks CLI.
- Information om hur du konfigurerar autentisering mellan CLI och dina Azure Databricks-konton och arbetsytor finns i Autentisering för Databricks CLI.
- Information om hur du använder konfigurationsprofiler för att snabbt växla mellan relaterade grupper av CLI-inställningar finns i Konfigurationsprofiler för Databricks CLI.
- Mer information om grundläggande användning för CLI finns i Grundläggande användning för Databricks CLI.
- Information om hur du får hjälp med CLI-kommandon finns i Databricks CLI-kommandon.