Freigeben über


Juni 2022

Diese Features und Azure Databricks-Plattformverbesserungen wurden im Juni 2022 veröffentlicht.

Hinweis

Releases werden gestaffelt. Ihr Azure Databricks-Konto wird möglicherweise erst eine Woche nach dem Datum der ersten Veröffentlichung oder später aktualisiert.

ALTER TABLE Berechtigungsänderungen für Unity Catalog

30. Juni 2022

In Unity Catalog wurden die Berechtigungen, die zum Ausführen von ALTER TABLE-Anweisungen erforderlich sind, aktualisiert. Zuvor war OWNERSHIP einer Tabelle erforderlich, um alle ALTER TABLE-Anweisungen auszuführen. Jetzt ist OWNERSHIP für die Tabelle nur noch zum Ändern des Besitzers, zum Erteilen von Berechtigungen für die Tabelle, zum Ändern des Tabellennamens und zum Ändern einer Ansichtsdefinition erforderlich. Für alle anderen Metadatenvorgänge für eine Tabelle (z. B. Aktualisieren von Kommentaren, Eigenschaften oder Spalten) können Sie Aktualisierungen vornehmen, wenn Sie die Berechtigung MODIFY für die Tabelle haben.

Weitere Informationen finden Sie unter ALTER TABLE und ALTER TABLE.

Databricks Runtime 6.4 Erweiterter Support erreicht das Supportende

30. Juni 2022

Der Support für Databricks Runtime 6.4 Erweiterter Support endete am 30. Juni. Weitere Informationen finden Sie unter Databricks-Supportlebenszyklus.

Support für Databricks Runtime 10.2-Serie läuft aus

22. Juni 2022

Der Support für Databricks Runtime 10.2 und Databricks Runtime 10.2 für Machine Learning wurde am 22. Juni beendet. Weitere Informationen finden Sie unter Databricks-Supportlebenszyklus.

Databricks-ODBC-Treiber 2.6.24

22. Juni 2022

Wir haben die Version 2.6.24 des Databricks-ODBC-Treibers veröffentlicht (Download). Diese Version unterstützt jetzt das Konfigurieren der Abfrageübersetzung in die CTAS-Syntax, ermöglicht Benutzern das Überschreiben von SQL_ATTR_QUERY_TIMEOUT im Connector und aktualisiert die OpenSSL-Bibliothek.

Darüber hinaus werden durch dieses Release folgende Probleme behoben:

  • Der Connector lässt die Verwendung von Server- und Zwischenzertifikaten ohne CDP-Eintrag (CRL Distribution Points, Zertifikatsperrlisten-Verteilungspunkte) nicht zu.
  • Bei Verwendung eines Proxys legt der Connector den falschen Hostnamen für die SSL-SNI (Server Name Indication, Servernamensanzeige) fest.

Databricks-Terraform-Anbieter jetzt allgemein verfügbar

22. Juni 2022

Der Databricks-Terraform-Anbieter ist jetzt allgemein verfügbar.

Terraform ermöglicht die vollständige Automatisierung der Bereitstellung für Ihre Datenplattformen mithilfe der vorhandenen IAC-Prozesse (Infrastructure-as-Code) von Terraform.

Sie können den Databricks-Terraform-Anbieter verwenden, um Ressourcen wie Cluster und Aufträge in Azure Databricks-Arbeitsbereichen zu definieren und die Zugriffssteuerung über Berechtigungen für Benutzer, Gruppen und Dienstprinzipale zu erzwingen.

Der Databricks-Terraform-Anbieter bietet einen vollständigen Überwachungspfad für Bereitstellungen. Sie können den Databricks-Terraform-Anbieter als tragende Säule für Ihre Strategien im Bereich Notfallwiederherstellung und Geschäftskontinuität verwenden.

Der Databricks-Terraform-Anbieter unterstützt auch Unity Catalog (Vorschauversion), sodass Sie dieses wichtige Governancefeature mühelos und im großen Stil bereitstellen können.

Databricks Runtime 11.0 und 11.0 ML allgemein verfügbar; 11.0 Photon in Public Preview-Phase

16. Juni 2022

Databricks Runtime 11.0 und Databricks Runtime 11.0 ML sind jetzt allgemein verfügbar. Databricks Runtime 11.0 Photon befindet sich in der Public Preview-Phase.

Weitere Informationen finden Sie unter Databricks Runtime 11.0 (EoS) sowie unter Databricks Runtime 11.0 für Machine Learning (EoS).

Änderung des Standardarbeitsverzeichnisses „Repos“ in Databricks Runtime 11.0

16. Juni 2022

Das Python-Arbeitsverzeichnis für Notebooks in einem Repository wird standardmäßig auf das Verzeichnis festgelegt, in dem sich die Notebooks befinden. Anstelle von /databricks/driver wird also beispielsweise das Standardarbeitsverzeichnis /Workspace/Repos/<user>/<repo>/<path-to-notebook> verwendet. Dadurch funktioniert das Importieren und Lesen aus Dateien in „Repos“ in Databricks Runtime 11.0-Clustern automatisch.

Es bedeutet aber auch, dass beim Schreiben in das aktuelle Arbeitsverzeichnis ein Fehler vom Typ Read-only filesystem auftritt. Wenn Sie weiterhin in das lokale Dateisystem für einen Cluster schreiben möchten, schreiben Sie in /tmp/<filename> oder /databricks/driver/<filename>.

Der Support für die Databricks Runtime 10.1-Serie läuft aus

14. Juni 2022

Die Unterstützung für Databricks Runtime 10.1 und Databricks Runtime 10.1 für Machine Learning wurde am 14. Juni beendet. Weitere Informationen finden Sie unter Databricks-Supportlebenszyklus.

Delta Live Tables unterstützt jetzt SCD-Typ 2

13. bis 21. Juni 2022: Version 3.74

Ihre Delta Live Tables-Pipelines können jetzt SCD-Typ 2 verwenden, um Quelldatenänderungen zu erfassen und den vollständigen Updateverlauf für Datensätze zu speichern. Dies erweitert die bereits vorhandene Unterstützung von SCD-Typ 1 durch Delta Live Tables. Weitere Informationen finden Sie unter APPLY CHANGES-API: Vereinfachtes CDC (Change Data Capture) in Delta Live Tables.

Erstellen von Delta Live Tables-Pipelines direkt über die Azure Databricks-Benutzeroberfläche

13. bis 21. Juni 2022: Version 3.74

Delta Live Tables-Pipelines können jetzt über das Menü Erstellen auf der Seitenleiste der Azure Databricks-Benutzeroberfläche erstellt werden.

Auswählen des Kanals „Delta Live Tables“ beim Erstellen oder Bearbeiten einer Pipeline

13. bis 21. Juni 2022: Version 3.74

Der Kanal für Ihre Delta Live Tables-Pipeline kann nun in den Dialogfeldern Pipeline erstellen und Pipelineeinstellungen bearbeiten konfiguriert werden. Bislang mussten zum Konfigurieren des Kanals die Einstellungen in der JSON-Konfiguration der Pipeline bearbeitet werden.

Kommunizieren zwischen Vorgängen in Ihren Azure Databricks-Aufträgen mit Aufgabenwerten

13. Juni 2022

Sie können jetzt mithilfe von Aufgabenwerten Werte zwischen Vorgängen in Ihren Azure Databricks-Aufträgen kommunizieren. Aufgabenwerte können beispielsweise verwendet werden, um die Ausgabe eines Machine Learning-Modells an nachgelagerte Aufgaben im gleichen Auftrag zu übergeben. Weitere Informationen finden Sie unter taskValues-Unterhilfsprogramm (dbutils.jobs.taskValues).

Aktivieren des Kontowechsels in der Databricks-Benutzeroberfläche

8. Juni 2022

Wenn Benutzer mehreren Konten angehören, können sie jetzt auf der Databricks-Benutzeroberfläche zwischen Konten wechseln. Um den Kontoumschalter zu verwenden, klicken Sie oben auf der Databricks-Benutzeroberfläche auf Ihre E-Mail-Adresse, und zeigen Sie dann auf Konto wechseln. Wählen Sie dann das Konto aus, zu dem Sie navigieren möchten.