Freigeben über


Juli 2024

Diese Features und Azure Databricks-Plattformverbesserungen wurden im Juli 2024 veröffentlicht.

Hinweis

Releases werden gestaffelt. Ihr Azure Databricks-Konto wird möglicherweise erst eine Woche oder länger nach dem ursprünglichen Veröffentlichungsdatum aktualisiert.

Erhöhte Grenzwerte für gleichzeitige Aufgaben

31. Juli 2024

Der Arbeitsbereichsgrenzwert für gleichzeitig ausgeführte Aufgaben wurde auf 2000 erhöht. Sie Ressourceneinschränkungen.

Bilder einbetten und per Drag & Drop in Notebooks ziehen

31. Juli 2024

Sie können jetzt Bilder in Notebooks anzeigen, indem Sie sie direkt in Markdown-Zellen einbetten. Ziehen Sie Bilder per Drag & Drop von Ihrem Desktop direkt in Markdown-Zellen, damit sie automatisch hochgeladen und angezeigt werden. Siehe Anzeigen von Bildern und Verschieben von Bildern per Drag & Drop.

Befehlspalette in Notebooks verfügbar

31. Juli 2024

Mit der Befehlspalette können Sie jetzt schnell Aktionen im Notebook ausführen. Drücken Sie in einem Notebook CMD+UMSCHALT+P unter macOS oder STRG+UMSCHALT+P unter Windows, um auf häufig verwendete Aktionen zuzugreifen. Weitere Informationen finden Sie unter Befehlspalette.

Workflowsystemschema umbenannt in lakeflow

31. Juli 2024

Das workflow-Schema wird auf lakeflow aktualisiert. Wir empfehlen Ihnen die Umstellung auf lakeflow, weil dann in Zukunft alle aktuellen Tabellen und neue Tabellen ebenso wie Pipelines enthalten sind. Kunden müssen das lakeflow-Schema abonnieren, damit es in ihrem Metastore sichtbar wird. Weitere Informationen finden Sie unter Auftragssystemtabellenreferenz.

LakeFlow Connect (geschlossene öffentliche Vorschau)

31. Juli 2024

LakeFlow Connect bietet native Connectors, mit deren Hilfe Sie Daten aus Datenbanken und Unternehmensanwendungen erfassen und in Azure Databricks laden können. LakeFlow Connect nutzt effiziente inkrementelle Lese- und Schreibvorgänge, um die Datenerfassung schneller, skalierbarer und kosteneffizienter zu gestalten, während Ihre Daten für den nachgeschalteten Verbrauch frisch bleiben.

Derzeit werden Salesforce Sales Cloud, Microsoft Azure SQL-Datenbank, Amazon RDS für SQL Server und Workday unterstützt. Weitere Informationen finden Sie unter LakeFlow Connect.

Unterstützung für den Cloudflare R2-Speicher allgemein verfügbar

30. Juli 2024

Die Möglichkeit zum Verwenden von Cloudflare R2 als Cloudspeicher für Daten verwenden, die in Unity Catalog registriert sind, ist jetzt allgemein verfügbar. Cloudflare R2 ist in erster Linie für Delta Sharing-Anwendungsfälle vorgesehen, in denen Sie die von Cloudanbietern berechneten Datenausgangsgebühren vermeiden möchten, wenn Daten regionsübergreifend übermittelt werden. Der R2-Speicher unterstützt alle Databricks-Daten und KI-Ressourcen, die in AWS S3, Azure Data Lake Storage Gen2 und Google Cloud Storage unterstützt werden. Unterstützung für R2 erfordert Runtime 14.3 oder höher für SQL Warehouse oder Databricks. Weitere Informationen finden Sie unter Verwenden von Cloudflare R2-Replikaten oder Migrieren von Speicher zu R2 und Erstellen von Speicheranmeldeinformationen zum Herstellen einer Verbindung mit Cloudflare R2.

Überwachen von Aktivitäten des Databricks Assistenten mithilfe von Systemtabellen (Public Preview)

30. Juli 2024

Sie können ab jetzt Aktivitäten des Databricks-Assistenten mithilfe von Systemtabellen in einem Dashboard überwachen. Weiter Informationen finden Sie unter Databricks-Assistent – Systemtabellenreferenz und Beispiel.

Das Freigeben von Schemas mithilfe von Delta Sharing ist jetzt allgemein verfügbar

30. Juli 2024

Die Möglichkeit, Schemata mithilfe von Delta Sharing freizugeben, ist jetzt allgemein verfügbar. Das Freigeben eines gesamten Schema erlaubt es der Empfänger ab dem Moment der Freigabe auf alle Tabellen und Sichten im Schema zugreifen. Dazu zählen auch sämtliche Tabellen und Sichten, die zukünftig zu diesem Schema hinzugefügt werden. Das Hinzufügen von Schemas zu einer Freigabe mithilfe von SQL-Befehlen erfordert ein SQL-Warehouse oder einen Cluster, in dem Databricks Runtime 13.2 oder höher ausgeführt wird. Die gleiche Vorgehensweise mit dem Katalog-Explorer hat keine Computeanforderungen. Weitere Informationen finden Sie unter Hinzufügen von Schemas zu einer Freigabe.

Das Mosaic AI Agent Framework ist in northcentral und centralus verfügbar

29. Juli 2024

Das Mosaic AI Agent Framework ist ab jetzt in den Regionen northcentral und centralus verfügbar. Weitere Informationen finden Sie unter Features mit eingeschränkter regionaler Verfügbarkeit.

Der Databricks-Assistent kann Probleme mit Aufträgen diagnostizieren (Public Preview)

29. Juli 2024

Der Databricks-Assistent kann ab jetzt Fehler in Aufträgen diagnostizieren. Weitere Informationen finden Sie unter Fehler in Aufträgen diagnostizieren.

Aktualisierungen bei der Authentifizierung von Databricks Git-Ordnern und beim Verhalten während des Teilens

29. Juli 2024

  • Dialogbasierte Bearbeitung der Authentifizierung von Git-Ordnern: Die Benutzeroberfläche ist jetzt optimiert, um Benutzer bei Authentifizierungsfehlern im Zusammenhang mit dem Öffnen des „Git-Ordner“-Dialogfelds zu unterstützen. Im Dialogfeld können Sie Git-Anmeldeinformationen direkt aktualisieren, wodurch ein automatischer Wiederholungsversuche ausgelöst wird. Sie können diesen Ansatz verwenden, um Benutzer beim Beheben von Authentifizierungsfehlern zu unterstützen.
    • Wenn ein Authentifizierungsfehler auftritt, zeigt das „Git-Ordner“-Dialogfeld im Fehler nun den Anbieter und die URL des Git-Ordners an. Diese Informationen waren früher ausgeblendet, was es erschwerte, herauszufinden, welche Git-Anmeldeinformationen zum Beheben des Fehlers verwendet werden sollten.
  • Freigabe von Git-Ordnern: Benutzer können ab jetzt einen URL-Link mit anderen Benutzern des Arbeitsbereichs teilen. Wenn die URL im Browser des Empfängers geöffnet wird, öffnet sich Databricks und startet das vorhandene Git-Ordner hinzufügen-Dialogfeld mit vorgefüllten Werten (z. B. dem Git-Anbieter und der URL des Git-Repositorys). Dies vereinfacht das Klonen von Git-Ordnern für häufig verwendete Git-Repositorys unter den Benutzern Ihres Arbeitsbereichs. Weiter Informationen finden Sie unter Bewährte Methode: Zusammenarbeit in Git-Ordnern.
    • Benutzer werden ab jetzt aufgefordert, ihre eigenen Git-Ordner in ihrem eigenen Arbeitsbereich zu erstellen, anstatt im Git-Ordner eines anderen Benutzers zusammenzuarbeiten.
    • Der Status des „Git-Ordner“-Dialogfelds wird nun in Ihrer URL beibehalten. Wenn Sie die URL bei geöffnetem „Git-Ordner“-Dialogfeld aus Ihrem Browser kopieren, kann sie später geöffnet oder für einen anderen Benutzer freigegeben werden. Dabei werden dann dieselben Informationen angezeigt.
  • „Git-Ordner“-Vergleichsansicht: In der Vergleichsansicht des Git-Ordners wurden Hervorheben in dunklerem Rot und Grün für ersetzten Text und für mehrere Zeilen mit Änderungen hinzugefügt, wodurch es einfacher ist, zu ermitteln, was in ihren nicht committeten Änderungen geändert wurde.
    • Wenn Sie das „Git-Ordner“-Dialogfeld in einem Notebook oder in einem Datei-Editor öffnen, wird dieses Notebook oder die Datei im „Git-Ordner“-Dialogfeld ausgewählt, und es werden standardmäßig die Änderungen (Diffs) angezeigt.

Zeitüberschreitung bei der Clusterbibliotheksinstallation

29. Juli 2024

Die Bibliotheksinstallation auf Clustern hat ab jetzt einen Timeout von zwei Stunden. Eine Bibliothek, deren Installieren mehr als 2 Stunden dauerte, wird als fehlerhaft gekennzeichnet. Informationen zu Clusterbibliotheken finden Sie unter Clusterbibliotheken.

Ausgehende IP-Adressen der Compute-Ebene müssen einer IP-Zulassungsliste für Arbeitsbereiche hinzugefügt werden

29. Juli 2024

Wenn Sie sichere Clusterkonnektivitäts- und IP-Zugriffslisten in einem neuen Arbeitsbereich konfigurieren, müssen Sie entweder alle öffentlichen IPs, die von der Computeebene für den Zugriff auf die Steuerebene verwendet werden, auf eine Positivliste setzen, oder Back-End-Private Link konfigurieren. Diese Änderung wirkt sich ab 29. Juli 2024 auf alle neuen Arbeitsbereiche und ab 26. August 2024 auf vorhandene Arbeitsbereiche aus. Weitere Informationen finden Sie im Databricks Community-Beitrag.

Wenn Sie z. B. sichere Clusterkonnektivität in Ihrem Arbeitsbereich aktivieren, in dem VNet-Injektion verwendet wird, empfiehlt Databricks, dass Ihr Arbeitsbereich über eine stabile öffentliche IP-Adresse für ausgehenden Datenverkehr verfügt. Diese öffentliche IP-Adresse und alle anderen IP-Adressen müssen in einer Positivliste vorhanden sein. Weitere Informationen finden Sie unter Ausgehende IP-Adressen bei Verwendung der sicheren Clusterkonnektivität. Wenn Sie stattdessen ein von Azure Databricks verwaltetes VNET verwenden und das verwaltete NAT-Gateway für den Zugriff auf öffentliche IP-Adressen konfigurieren, müssen diese IP-Adressen in einer Positivliste enthalten sein.

Siehe Konfigurieren von IP-Zugriffslisten für Arbeitsbereiche.

Der Support für die Databricks Runtime 9.1-Serie wurde verlängert

26. Juli 2024

Der Support für Databricks Runtime 9.1 LTS und Databricks Runtime 9.1 LTS für Machine Learning wurde vom 23. Dezember 2024 auf den 19. Januar 2024 verlängert.

Einmaliges Anmelden (Single Sign-On, SSO) wird in Lakehouse Federation für SQL Server unterstützt.

25. Juli 2024

Im Unity-Katalog können Sie jetzt SQL Server-Verbindungen mithilfe der SSO-Authentifizierung erstellen. Weitere Informationen finden Sie unter Ausführen von Verbundabfragen auf Microsoft SQL Server.

Die Modellfreigabe mithilfe von Delta Sharing ist jetzt allgemein verfügbar.

26. Juli 2024

Die Delta-Freigabeunterstützung für die KI-Modellfreigabe ist jetzt allgemein verfügbar (GA). Sowohl der Anbieter- als auch der Empfängerarbeitsbereich müssen für Unity-Katalog aktiviert werden, und Modelle müssen im Unity-Katalog registriert werden.

Siehe Hinzufügen von Modellen zu einer Freigabe.

Freigeben von Kommentaren und Primärschlüsseleinschränkungen mit Delta Sharing

25. Juli 2024

Die Delta-Freigabe unterstützt jetzt die Freigabe von Objektmetadaten, einschließlich Kommentaren und Primärschlüsseleinschränkungen:

  • Modellkommentare und Modellversionskommentare sind seit einiger Zeit in Databricks-zu-Databricks-Freigaben enthalten, werden aber nicht angekündigt.

  • Tabellenkommentare, Spaltenkommentare, Primärschlüsseleinschränkungen und Volumenkommentare sind jetzt in Databricks-zu-Databricks-Freigaben enthalten, die am oder nach dem 25. Juli 2024 für den Empfänger freigegeben wurden.

    Wenn Sie Kommentare und Einschränkungen in eine Freigabe aufnehmen möchten, die vor diesem Datum für einen Empfänger freigegeben wurde, müssen Sie den Empfängerzugriff widerrufen und erneut gewähren, um die Freigabe von Kommentaren und Einschränkungen auszulösen.

Weitere Informationen finden Sie unter Erstellen und Verwalten von Freigaben für Delta Sharing.

Neue Databricks-JDBC-Treiber (OSS)

25. Juli 2024

Ein neuer Open-Source Databricks JDBC-Treiber wurde als Public Preview veröffentlicht. In diesen Treibers wurden die JDBC-APIs implementiert. Darüber hinaus bietet er weitere wichtige Funktionalitäten wie OAuth, Cloud Fetch und Features wie Unity Catalog-Volumeerfassung. Weitere Informationen finden Sie unter Databricks-JDBC-Treiber (OSS).

Databricks Runtime 15.4 LTS (Beta)

23. Juli 2024

Databricks Runtime 15.4 LTS und Databricks Runtime 15.4 LTS ML sind jetzt als Betaversionen verfügbar.

Siehe Databricks Runtime 15.4 LTS und Databricks Runtime 15.4 LTS für Machine Learning.

Scala ist für gemeinsames Compute in Unity Catalog allgemein verfügbar

23. Juli 2024

In Databricks Runtime 15.4 LTS und höher ist Scala allgemein für Unity Catalog-fähige Computeressourcen im freigegebenen Zugriffsmodus verfügbar, einschließlich Unterstützung für skalare benutzerdefinierte Funktionen (UDFs). Strukturiertes Streaming, Struktur-UDFs und benutzerdefinierte Strukturaggregatfunktionen werden nicht unterstützt. Eine umfassende Liste der Einschränkungen finden Sie unter Einschränkungen des Computezugriffsmodus für Unity Catalog.

Die Berechnung einzelner Benutzer unterstützt fein abgestimmte Zugriffssteuerung, materialisierte Ansichten und Streamingtabellen.

23. Juli 2024

Databricks Runtime 15.4 LTS führt Unterstützung für eine differenzierte Zugriffssteuerung für die Berechnung einzelner Benutzer ein, solange der Arbeitsbereich für die serverlose Berechnung aktiviert ist. Wenn eine Abfrage auf eine der folgenden Elemente zugreift, übergibt die einzelne Benutzer compute-Ressource auf Databricks Runtime 15.4 LTS die Abfrage an serverlose Compute, um die Datenfilterung auszuführen:

  • Ansichten, die über Tabellen erstellt werden, für die der Benutzer bzw. die Benutzerin nicht über die Berechtigungen SELECT verfügt
  • Dynamische Ansichten
  • Tabellen mit angewendeten Zeilenfiltern oder Spaltenformaten
  • Materialisierte Ansichten und Streamingtabellen

Diese Abfragen werden für einzelne Benutzerberechnungen, die auf Databricks Runtime 15.3 und unten ausgeführt werden, nicht unterstützt.

Weitere Informationen finden Sie unter Feinkornierte Zugriffssteuerung für die Berechnung einzelner Benutzer.

Systemtabelle mit der Knotenzeitachse jetzt verfügbar (Public Preview)

23. Juli 2024

Das Schema system.compute enthält jetzt eine node_timeline-Tabelle. Diese Tabelle protokolliert minutengenaue Metriken für die Auslastung der Computeressourcen für alle Zwecke und Aufträge, die in Ihrem Konto ausgeführt werden. Weitere Informationen finden Sie unter Tabellenschema für Knotenzeitachsen.

Hinweis

Damit Sie auf diese Tabelle zugreifen können, muss ein Admin das Schema compute aktivieren, sofern dies noch nicht geschehen ist. Siehe Aktivieren von Systemtabellenschematas

Meta Llama 3.1 wird jetzt in der Modellbereitstellung unterstützt.

23. Juli 2024

Mosaic AI Model Serving und Meta unterstützen gemeinsam Meta Llama 3.1, eine Modellarchitektur, die von Meta erstellt und trainiert wurde und von Azure Machine Learning über den AzureML Model Catalog vertrieben wird. Llama 3.1 wird als Teil der Foundation Model-APIs unterstützt. Siehe Verwenden von Foundation-Modell-APIs.

  • Meta-Llama-3.1-405B-Instruct und Meta-Llama-3.1-70B-Instruct sind in Endpunktregionen mit Pay-per-Token-Bereitstellung verfügbar.
  • Die Produktionsnutzung der vollständigen Suite von Llama 3.1-Modellen (8B, 70B und 405B) steht in den USA mit bereitgestelltem Durchsatz zur Verfügung.

Ab dem 23. Juli 2024 ersetzt Meta-Llama-3.1-70B-Instruct die Unterstützung für Meta-Llama-3-70B-Instruct in Pay-per-Token-Endpunkten von Foundation Model-APIs.

Notebooks: auf besser sichtbare Zellentitel umschalten

18. Juli 2024

Benutzer können in ihrer Entwicklerumgebung Höhergestufte Zellentitel anzeigen aktivieren, damit Zellentitel auf der Benutzeroberfläche besser sichtbar sind. Siehe Höhergestufte Zellentitel

/ in Namen von Arbeitsbereichsressourcen ist veraltet

17. Juli 2024

Um Mehrdeutigkeiten in Pfadzeichenfolgen zu vermeiden, wurde die Verwendung von „/“ in den Namen neuer Arbeitsbereichsressourcen eingestellt, z. B. Notebooks, Ordner und Abfragen. Bestehende Ressourcen, die "/" im Namen haben, sind davon nicht betroffen, aber die Umbenennung bestehender Ressourcen erfolgt nach den gleichen Regeln wie bei neuen Ressourcen.

Mit der Delta-Freigabe können Sie Tabellen freigeben, die Liquid Clustering verwenden.

16. Juli 2024

Mit der Delta Freigabe können Sie jetzt Tabellen freigeben, die für Liquid Clustering aktiviert sind, und die Empfänger können Batch-Abfragen dafür durchführen. Liquid Clustering vereinfacht Datenlayoutentscheidungen und optimiert die Abfrageleistung. Weitere Informationen finden Sie unter Verwenden von Liquid Clustering für Delta-Tabellen und Delta Lake-Featureunterstützungsmatrix.

Systemtabelle mit dem Abfrageverlauf jetzt verfügbar (Public Preview)

16. Juli 2024

Azure Databricks Systemtabellen enthalten jetzt eine Abfrageverlaufstabelle. Diese Tabelle protokolliert detaillierte Datensätze zu jeder Abfrage, die auf einem SQL-Warehouse in Ihrem Konto ausgeführt wird. Um auf die Tabelle zuzugreifen, müssen Administratoren das neue Systemschema query aktivieren. Weitere Informationen finden Sie unter Referenz der Systemtabelle des Abfrageverlaufs.

Berichte zur Sicherheitsrisikoüberprüfung werden jetzt per E-Mail an Administratoren gesendet.

16. Juli 2024

Berichte über Schwachstellen-Scans werden jetzt per E-Mail an Arbeitsbereichsadministratoren in Arbeitsbereichen gesendet, die eine erweiterte Sicherheitsüberwachung ermöglichen. Zuvor mussten Workspace-Administratoren sie bei Azure Databricks anfordern. Weitere Informationen finden Sie unter Erweiterte Sicherheitsüberwachung.

Protokollierung von Partitionsmetadaten für externe Unity Catalog-Tabellen

15. Juli 2024

In Databricks Runtime 13.3 LTS und höher können Sie optional die Partitionsmetadaten-Protokollierung für externe Tabellen aktivieren, die in Unity Catalog registriert sind und Parquet, ORC, CSV oder JSON verwenden. Die Partitionsmetadaten-Protokollierung ist eine Partitionsermittlungsstrategie, die mit dem Hive-Metastore konsistent ist. Siehe Partitionsermittlung für externe Tabellen.

Serverloses Computing für Workflows allgemein verfügbar

15. Juli 2024

Serverloses Computing für Workflows ist jetzt allgemein verfügbar. Serverloses Computing für Workflows ermöglicht Ihnen, Ihren Azure Databricks-Auftrag auszuführen, ohne Infrastruktur zu konfigurieren und bereitzustellen. Mit dem serverlosen Computing für Workflows verwaltet Azure Databricks Ihre Computeressourcen effizient, einschließlich der Optimierung und Skalierung des Computings für Ihre Workloads. Weitere Informationen finden Sie unter Ausführen Ihres Azure Databricks-Auftrags mit serverlosem Computing für Workflows.

Serverloses Computing für Notebooks allgemein verfügbar

15. Juli 2024

Serverloses Computing für Notebooks ist jetzt allgemein verfügbar. Serverloses Computing für Notebooks bietet Ihnen bedarfsgesteuerten Zugriff auf skalierbare Computeressourcen in Notebooks, sodass Sie Ihren Python- oder SQL-Code sofort schreiben und ausführen können. Siehe Serverloses Compute für Notebooks.

Databricks Connect für Python unterstützt jetzt serverloses Computing.

15. Juli 2024

Databricks Connect für Python unterstützt jetzt die Verbindung mit serverlosem Computing. Dieses Feature ist als öffentliche Vorschauversion verfügbar. Siehe Konfigurieren einer Verbindung mit serverlosem Computing.

Filtern von Datenausgaben mithilfe von Prompts in natürlicher Sprache

11. Juli 2024

Sie können jetzt den Databricks-Assistenten verwenden, um Datenausgaben mit Prompts in natürlicher Sprache zu filtern. Um beispielsweise die Datentabelle der Titanic-Überlebenden zu filtern, könnten Sie „Nur Männer über 70 anzeigen“ eingeben. Weitere Informationen finden Sie unter Filtern von Daten mit Prompts in natürlicher Sprache.

Unterstützung von geheimen Schlüsseln in Klartext für externe Modelle

11. Juli 2024

Sie können API-Schlüssel jetzt direkt als Klartext-Zeichenfolgen in Modellbereitstellungsendpunkte eingeben, die externe Modelle hosten. Siehe Konfigurieren des Anbieters für einen Endpunkt.

Vorhersagen von Zeitreihendaten mit ai_forecast()

11. Juli 2024

AI Functions unterstützt jetzt ai_forecast(), eine neue Databricks-SQL-Funktion für Analysten und Datenwissenschaftler, mit der Zeitreihendaten in die Zukunft extrapoliert werden können. Siehe ai_forecast function.

SQL File Task-Unterstützung für Dateien mit SQL-Abfragen mit mehreren Anweisungen ist GA

10. Juli 2024

Unterstützung für die Verwendung von Dateien, die SQL-Abfragen mit mehreren Anweisungen enthalten, ist mit der SQL-Dateiaufgabe jetzt allgemein verfügbar. Mit dieser Änderung können Sie mehrere SQL-Anweisungen aus einer einzelnen Datei ausführen. Zuvor mussten Sie für jede Anweisung eine separate Datei hinzufügen. Weitere Informationen zur SQL-Dateiaufgabe finden Sie unter SQL-Aufgabe für Aufträge.

Lakehouse Federation unterstützt Salesforce Data Cloud (öffentliche Vorschauversion)

10. Juli 2024

Sie können jetzt Verbundabfragen für Daten ausführen, die von Salesforce Data Cloud verwaltet werden. Siehe Ausführen von Verbundabfragen in Salesforce Data Cloud.

Systemtabelle für Databricks-Assistent jetzt verfügbar (öffentliche Vorschauversion)

10. Juli 2024

Ereignisse des Databricks-Assistenten werden jetzt in einer Systemtabelle protokolliert, die sich in system.access.assistant_eventsbefindet. Siehe Databricks-Assistent – Systemtabellenreferenz und Beispiel.

SCIM-API für Konten v2.1 (öffentliche Vorschauversion)

10. Juli 2024

Die SCIM-APIs für Konten werden von v2.0 auf v2.1 aktualisiert, um Geschwindigkeit und Zuverlässigkeit zu gewährleisten. Sie können eine PDF-Datei mit der Referenz zur SCIM-API für Konten v2.1 herunterladen.

Erhöhung des Ressourcenkontingents für Tabellen pro Unity Catalog-Metastore

3. Juli 2024

Ihr Unity-Katalog-Metastore kann jetzt bis zu einer Million Tabellen registrieren. Siehe Ressourcenkontingente.

Der Databricks-Assistent kann Notebookfehler automatisch diagnostizieren.

2. Juli 2024

Der Databricks-Assistent kann jetzt automatisch /fix in Notebooks ausführen, wenn eine Fehlermeldung erkannt wird. Der Assistent verwendet generative KI, um Ihren Code und die Fehlermeldung zu analysieren und einen Fix direkt in Ihrem Notebook vorzuschlagen. Weitere Informationen finden Sie unter Debug-Code: Python- und SQL-Beispiele.

GA ist Unterstützung für die :param-Syntax mit der SQL-Dateiaufgabe

1. Juli 2024

Die Unterstützung für die Verwendung der :param-Syntax mit parametrisierten Abfragen in der SQL-Dateiaufgabe von Azure Databricks-Jobs ist allgemein verfügbar. Sie können jetzt auf Abfrageparameter verweisen, indem Sie deren Namen mit einen Doppelpunkt (:parameter_name) voranstellen. Diese Syntax ist zusätzlich zur vorhandenen Unterstützung der doppelten geschweiften geschweiften Klammern ({{parameter_name}}) vorhanden. Weitere Informationen zur Verwendung parametrisierter Abfragen mit der SQL-Dateiaufgabe finden Sie unter Konfigurieren von Aufgabenparametern.