Databricks CLI-Befehle
Hinweis
Diese Informationen gelten für die Databricks-CLI-Version 0.205 und höher, die als Public Preview verfügbar sind. Führen Sie databricks -v
aus, um die Version Ihrer Databricks CLI zu ermitteln.
Dieser Artikel enthält Informationen zu verfügbaren Databricks CLI-Befehlen. Diese Informationen ergänzen die Befehlszeilenhilfe. Weitere Informationen zum Installieren und Verwenden der Databricks CLI finden Sie unter Installieren oder Aktualisieren der Databricks CLI und Was ist die Databricks CLI?.
Die Databricks CLI enthält die in den folgenden Tabellen aufgeführten Befehlsgruppen. Befehlsgruppen enthalten zusammengehörige Befehle, die auch Unterbefehle enthalten können. So geben Sie Verwendungs- und Syntaxinformationen für eine Befehlsgruppe, einen einzelnen Befehl oder einen Unterbefehl aus:
databricks <command-group> -h
databricks <command-group> <command-name> -h
databricks <command-group> <command-name> <subcommand-name> -h
Viele CLI-Befehle sind Vorgängen zugeordnet, die in der REST-API-Referenz für Azure Databricks dokumentiert sind.
Arbeitsbereichsbefehle
Group | Beschreibung und Befehle |
---|---|
fs | Befehle zum Verwalten von Dateien und Dateisystem:cat , cp , ls , mkdir , rm |
git-credentials |
Befehle zum Registrieren von persönlichen Zugriffstoken für Databricks zum Ausführen von Vorgängen im Namen des Benutzers:create , delete , get , list , update |
repos |
Befehle, mit denen Benutzer ihre Git-Repositorys verwalten können:create , delete , get , list , update get-permission-levels , get-permissions , set-permissions , update-permissions |
secrets |
Befehle zum Verwalten von Geheimnissen, Geheimnisbereichen und Zugriffsberechtigungen:create-scope , delete-acl , delete-scope , delete-secret , get-acl , get-secret , list-acls , list-scopes , list-secrets , put-acl , put-secret |
workspace |
Befehle zum Auflisten, Importieren, Exportieren und Löschen von Notebooks und Ordnern im Arbeitsbereich:delete , export , export-dir , get-status , import , import-dir , list , mkdirs get-permission-levels , get-permissions , set-permissions , update-permissions |
Computebefehle
Group | Beschreibung und Befehle |
---|---|
cluster-policies |
Befehle zum Steuern der Berechtigungen von Benutzern, Cluster basierend auf einer Reihe von Regeln zu konfigurieren:create , delete , edit , get , list get-permission-levels , get-permissions , set-permissions , update-permissions |
clusters |
Befehle, mit denen Sie Cluster erstellen, starten, bearbeiten, auflisten, beenden und löschen können:change-owner , create , delete , edit , events , get , list , list-node-types , list-zones , permanent-delete ,pin , resize , restart , spark-versions , start , unpin get-permission-levels , get-permissions , set-permissions , update-permissions |
global-init-scripts |
Befehle, mit denen Arbeitsbereichsadministratoren globale Initialisierungsskripts für ihren Arbeitsbereich konfigurieren können:create , delete , get , list , update |
instance-pools |
Befehle zum Erstellen, Bearbeiten, Löschen und Auflisten von Instanzpools mit einsatzbereiten Cloudinstanzen, wodurch die Start und automatische Skalierung für Cluster beschleunigt werden:create , delete , edit , get , list get-permission-levels , get-permissions , set-permissions , update-permissions |
instance-profiles |
Befehle, mit denen Administratoren Instanzprofile hinzufügen, auflisten und entfernen können, durch die Benutzer Cluster starten können:add , edit , list , remove |
libraries |
Befehle zum Installieren, Deinstallieren und Abrufen des Status von Bibliotheken in einem Cluster:all-cluster-statuses , cluster-status , install , uninstall |
policy-families |
Befehle zum Anzeigen verfügbarer Richtlinienfamilien:get , list |
Auftragsbefehle
Group | Beschreibung und Befehle |
---|---|
jobs |
Befehle zum Verwalten von Aufträgen:cancel-all-runs , cancel-run , create , delete , delete-run , export-run , get , get-run , get-run-output , list , list-runs , repair-run , reset , run-now , submit , update get-permission-levels , get-permissions , set-permissions , update-permissions |
Delta Live Tables-Befehle
Group | Beschreibung und Befehle |
---|---|
pipelines |
Befehle zum Erstellen, Bearbeiten, Löschen, Starten und Anzeigen von Details zu Pipelines:create , delete , get , get-update , list-pipeline-events , list-pipelines , list-updates , start-update , stop , update get-permission-levels , get-permissions , set-permissions , update-permissions |
Machine-Learning-Befehle
Group | Beschreibung und Befehle |
---|---|
experiments |
Befehle für die Interaktion mit Experimenten, die die primäre Organisationseinheit in MLflow sind. Alle MLflow-Ausführungen gehören zu einem Experiment:create-experiment , create-run , delete-experiment , delete-run , delete-runs , delete-tag , get-by-name , get-experiment , get-history , get-runGet , list-artifacts , list-experiments , log-batch , log-inputs , log-metric , log-model , log-param , restore-experiment , restore-run , restore-runs , search-experiments , search-runs , set-experiment-tag , set-tag , update-experiment , update-run get-permission-levels , get-permissions , set-permissions , update-permissions |
model-registry |
Befehle für die Arbeitsbereichsmodellregistrierung:approve-transition-request , create-comment , create-model , create-model-version , create-transition-request , create-webhook , delete-comment , delete-model , delete-model-tag , delete-model-version , delete-model-version-tag , delete-transition-request , delete-webhook , get-latest-versions , get-model , get-model-version ,get-model-version-download-uri , list-models , list-transition-requests , list-webhooks , reject-transition-request , rename-model , search-model-versions , search-models , set-model-tag , set-model-version-tag , test-registry-webhook , transition-stage , update-comment , update-model , update-model-version , update-webhook get-permission-levels , get-permissions , set-permissions , update-permissions |
Echtzeitbereitstellungsbefehle
Group | Beschreibung und Befehle |
---|---|
serving-endpoints |
Befehle zum Erstellen, Aktualisieren und Löschen von Endpunkten des Modells:build-logs , create , delete , export-metrics , get , list , logs , patch , put , query , update-config get-permission-levels , get-permissions , set-permissions , update-permissions |
Identitäts- und Zugriffsverwaltungsbefehle
Group | Beschreibung und Befehle |
---|---|
account |
Befehle zum Verwalten von Databricks-Konten: – Identität und Zugriff: access-control , groups , service-principals , users , workspace-assignment – Unity Catalog: metastore-assignments , metastores , storage-credentials – Einstellungen: ip-access-lists , network-connectivity , settings – Bereitstellung: credentials , encryption-keys , networks , private-access , storage , vpc-endpoints , workspaces – Abrechnung: billable-usage , log-delivery – OAuth: custom-app-integration , o-auth-published-apps , published-app-integration , service-principal-secrets |
auth | Befehle für die Authentifizierung:describe , env , login , profiles , token |
current-user |
Befehle zum Abrufen von Informationen zu aktuell authentifizierten Benutzern oder Dienstprinzipalen:me |
groups |
Befehle für Gruppen, die die Identitätsverwaltung vereinfachen und das Zuweisen des Zugriffs auf Databricks-Arbeitsbereiche, -Daten und andere sicherungsfähige Objekte erleichtern:create , delete , get , list , patch , update |
permissions |
Befehle zum Erstellen von Lese-, Schreib-, Bearbeitungs-, Aktualisierungs- und Verwaltungszugriff für verschiedene Benutzer auf verschiedenen Objekte und Endpunkte:get , set , update get-permission-levels |
service-principals |
Befehle für Identitäten für die Verwendung mit Aufträgen, automatisierten Tools und Systemen wie Skripts, Apps und CI/CD-Plattformen:create , delete , get , list , patch , update |
users |
Befehle für Benutzeridentitäten, die von Databricks erkannt und durch E-Mail-Adressen dargestellt werden:create , delete , get , list , patch , update get-permission-levels , get-permissions , set-permissions , update-permissions |
SQL-bezogene Befehle
Group | Beschreibung und Befehle |
---|---|
alerts |
Befehle zum Ausführen von Vorgängen für Warnungen:create , delete , get , list , update |
data-sources |
Befehle zum Erstellen neuer Abfrageobjekte:list |
queries |
Befehle zum Ausführen von Vorgängen für Abfragedefinitionen:create , delete , get , list , restore , update |
query-history |
Befehle für den Zugriff auf den Verlauf der Abfragen über SQL-Warehouses:list |
warehouses |
Befehle zum Verwalten von SQL-Warehouses, bei denen es sich um eine Computeressource handelt, mit der Sie SQL-Befehle für Datenobjekte in Databricks SQL ausführen können:create , delete , edit , get , get-workspace-warehouse-config , list , set-workspace-warehouse-config , start , stop get-permission-levels , get-permissions , set-permissions , update-permissions |
Unity Catalog-Befehle
Group | Beschreibung und Befehle |
---|---|
artifact-allowlists |
Befehle zum Verwalten von Positivlisten für Artefakte. In Databricks Runtime 13.3 und höher können Sie Bibliotheken und Initialisierungsskripts zur Positivliste in UC hinzufügen, damit Benutzer diese Artefakte für Computevorgänge nutzen können, bei denen der Modus für gemeinsamen Zugriff konfiguriert ist:get , update |
catalogs |
Befehle zum Verwalten von Katalogen, der ersten Schicht des dreischichtigen Namespaces von Unity Catalog:create , delete , get , list , update |
connections |
Befehle zum Herstellen einer Verbindung mit einer externen Datenquelle:create , delete , get , list , update |
external-locations |
Befehle zum Verwalten externer Speicherorte, die einen Cloudspeicherpfad mit Speicheranmeldeinformationen kombinieren, die den Zugriff auf den Cloudspeicherpfad autorisieren:create , delete , get , list , update |
functions |
Befehle zum Verwalten von benutzerdefinierten Funktionen (User-Defined Functions, UDFs) in Unity Catalog:create , delete , get , list , update |
grants |
Befehle zum Gewähren des Zugriffs auf Daten in Unity Catalog:get , get-effective , update |
metastores |
Befehle zum Verwalten von Metastores, die der Objektcontainer der obersten Ebene in Unity Catalog sind:assign , create , current , delete , get , list , summary , unassign , update , update-assignment |
model-versions |
Befehle zum Verwalten von Modellversionen. Databricks stellt eine gehostete Version der MLflow-Modellregistrierung in Unity Catalog bereit.delete , get , get-by-alias , list , update |
online-tables |
Befehle zum Verwalten von Onlinetabellen, die eine niedrigere Latenz und einen höheren QPS-Zugriff auf Daten aus Deltatabellen bieten:create , delete , get |
quality-monitors |
Befehle zum Verwalten von Monitoren, die Daten- oder Modellqualitätsmetriken für eine Tabelle im Laufe der Zeit berechnen und überwachen:create , delete , get , get-refresh , list-refreshes , run-refresh , update |
registered-models |
Befehle zum Verwalten registrierter Modelle. Databricks stellt eine gehostete Version der MLflow-Modellregistrierung in Unity Catalog bereit.create , delete , delete-alias , get , list , set-alias , update |
schemas |
Befehle zum Verwalten von Schemas, der zweiten Schicht des dreischichtigen Namespaces von Unity Catalog:create , delete , get , list , update |
storage-credentials |
Befehle zum Verwalten von Speicheranmeldeinformationen, bei denen es sich um einen Authentifizierungs- und Autorisierungsmechanismus für den Zugriff auf Daten handelt, die in Ihrem Cloudmandanten gespeichert sind:create , delete , get , list , update , validate |
system-schemas |
Befehle zum Verwalten von Systemschemas, bei denen es sich um Schemas handelt, die sich im Systemkatalog befinden:disable , enable , list |
table-constraints |
Befehle zum Verwalten von Primärschlüssel- und Fremdschlüsseleinschränkungen, die Beziehungen zwischen Feldern in Tabellen codieren:create , delete |
tables |
Befehle zum Verwalten von Tabellen, die sich in der dritten Schicht des dreischichtigen Namespaces von Unity Catalog befinden:delete , exists , get , list , list-summaries |
volumes |
Befehle zum Verwalten von Volumes, bei denen es sich um eine UC-Funktion (Unity Catalog) für den Zugriff auf und das Speichern, Verwalten, Organisieren und Verarbeiten von Dateien handelt:create , delete , list , read , update |
workspace-bindings |
Befehle zum Verwalten sicherungsfähiger Arbeitsbereichsbindungen. Sicherungsfähige Objekte in Databricks können als OPEN oder ISOLATED konfiguriert werden.get , get-bindings , update , update-bindings |
Deltafreigabebefehle
Group | Beschreibung und Befehle |
---|---|
providers |
Befehle zum Verwalten von Datenanbietern, die Organisationen darstellen, die Daten freigeben:create , delete , get , list , list-shares , update |
recipient-activation |
Befehle zum Verwalten der Empfängeraktivierung, die nur im offenen Freigabemodell anwendbar ist, in dem das Empfängerobjekt den TOKEN-Authentifizierungstyp aufweist:get-activation-url-info , retrieve-token |
recipients |
Befehle zum Verwalten von Empfängern, die Sie mithilfe von :method:recipients/create erstellen, um eine Organisation zu repräsentieren, der Sie den Zugriff auf Freigaben erteilen möchten:create , delete , get , list , rotate-token , update share-permissions |
shares |
Befehle zum Verwalten von Freigaben, bei denen es sich um Container handelt, die mit :method:shares/create instanziiert werden:create , delete , get , list , update share-permissions , update-permissions |
Einstellungsbefehle
Group | Beschreibung und Befehle |
---|---|
ip-access-lists |
Befehle zum Gestatten der Konfiguration von IP-Zugriffslisten durch Administratoren:create , delete , get , list , replace , update |
settings |
Befehle zum Gestatten der Verwaltung von Einstellungen auf Arbeitsbereichsebene durch Benutzer:automatic-cluster-update , csp-enablement , default-namespace , esm-enablement , restrict-workspace-admins |
token-management |
Befehle zum Gestatten des Abrufs aller Token und des Löschens von Token für andere Benutzer durch Administratoren:create-obo-token , delete , get , list get-permission-levels , get-permissions , set-permissions , update-permissions |
tokens |
Befehle zum Erstellen, Auflisten und Widerrufen von Token, die zum Authentifizieren und Zugreifen auf Databricks-REST-APIs verwendet werden können:create , delete , list |
workspace-conf |
Befehle zum Aktualisieren der Arbeitsbereichseinstellungen:get-status , set-status |
Befehle für Entwicklertools
Group | Beschreibung und Befehle |
---|---|
bundle | Befehle zum Verwalten von Databricks-Ressourcenbundles, mit denen Sie Ihre Databricks-Projekte als Code ausdrücken können:deploy , deployment , destroy , generate , init , run , schema , sync , validate |
sync | Synchronisiert ein lokales Verzeichnis mit einem Arbeitsbereichsverzeichnis |
Vektorsuchbefehle
Group | Beschreibung und Befehle |
---|---|
vector-search-endpoints |
Befehle zum Verwalten von Vektorsuchendpunkten, die die Computeressourcen zum Hosten von Vektorsuchindizes darstellen:create-endpoint , delete-endpoint , get-endpoint , list-endpoints |
vector-search-indexes |
Befehle zum Verwalten von Vektorsuchindizes, einer effizienten Darstellung Ihrer Einbettungsvektoren, die Echtzeit- und effiziente ANN-Suchabfragen (Approximate Nearest Neighbor) unterstützen:create-index , delete-data-vector-index , delete-index , get-index , list-indexes , query-index , sync-index , upsert-data-vector-index |
Dashboardbefehle
Group | Beschreibung und Befehle |
---|---|
dashboards |
Befehle zum Ändern von Dashboards:create , delete , get , list , restore , update |
lakeview |
Befehle, die bestimmte Verwaltungsvorgänge für KI/BI-Dashboards ermöglichen:create , get , get-published , migrate , publish , trash , unpublish , update |
Zusätzliche Befehle
Group | Beschreibung und Befehle |
---|---|
api | Befehle zum Senden von Anforderungen an die Databricks-REST-API:delete , get , head , patch , post , put |
completion | Befehle zum Generieren des Autovervollständigungsskripts für die angegebene Shell:bash , fish , powershell , zsh |
configure | Konfiguriert die Databricks CLI |
help |
Ausgabeverwendungsinformationen für jeden Befehl |
labs | Befehle zum Verwalten von Databricks Labs-Installationen:clear-cache , install , installed , list , show , uninstall , upgrade |
version |
Ruft die aktuell verwendete CLI-Version ab |
Globale Flags
Die folgenden Flags sind für alle Databricks CLI-Befehle verfügbar. Beachten Sie, dass einige Flags für einige Befehle nicht gelten. Ausführliche Informationen zu bestimmten Befehlen und deren Flags finden Sie in der Befehlszeilenhilfe.
Flag | Beschreibung |
---|---|
-h oder --help |
Hilfe für die Databricks CLI oder die zugehörige Befehlsgruppe oder den zugehörigen Befehl anzeigen. |
-e oder --environment string |
Eine Zeichenfolge, die die Bündelumgebung darstellt, die ggf. für den zugehörigen Befehl verwendet werden soll. |
--log-file |
Eine Zeichenfolge, die die Ausgabeprotokolle darstellt, in die geschrieben werden soll. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle standardmäßig in stderr geschrieben. |
--log-format |
text , um Ausgabeprotokolle in Text zu schreiben, oder json , um Ausgabeprotokolle in JSON zu schreiben. Wenn dieses Flag nicht angegeben ist, werden Ausgabeprotokolle als Text geschrieben. |
--log-level |
Eine Zeichenfolge, die die Protokollformatebene darstellt. Wenn nicht angegeben, ist die Protokollformatebene deaktiviert. |
-o oder --output |
text , um die Ausgabe als Text zu schreiben, oder json , um die Ausgabe als JSON zu schreiben. Wenn dieses Flag nicht angegeben ist, wird die Ausgabe als Text geschrieben. |
-p oder --profile |
Eine Zeichenfolge, die das benannte Konfigurationsprofil darstellt, das in Ihrer .databrickscfg -Datei verwendet werden soll. Wenn dieses Flag nicht angegeben ist, wird das benannte DEFAULT -Profil verwendet, sofern vorhanden. Sie können Tab nach --profile oder -p drücken, um eine Liste der vorhandenen verfügbaren Konfigurationsprofile anzuzeigen, aus der Sie auswählen können, anstatt den Namen des Konfigurationsprofils manuell einzugeben. |
--progress-format |
Das Format für die Anzeige von Statusprotokollen (default (Standard) oder append oder inplace oder json ). |