Partager via


Juin 2022

Ces fonctionnalités et améliorations de la plateforme Azure Databricks ont été publiées en juin 2022.

Notes

Les publications se font par étapes. Votre compte Azure Databricks ne peut pas être mis à jour jusqu’à une semaine ou plus après la date de publication initiale.

Modifications des autorisations ALTER TABLE pour Unity Catalog

30 juin 2022

Dans Unity Catalog, une mise à jour des privilèges requis pour exécuter des instructions ALTER TABLE a été apportée. Auparavant, la propriété (OWNERSHIP) d’une table était requise pour exécuter toutes les instructions ALTER TABLE. Désormais, la propriété (OWNERSHIP) sur la table est nécessaire uniquement pour modifier le propriétaire, accorder des autorisations sur la table, modifier le nom de la table et modifier une définition d’affichage. Pour toutes les autres opérations de métadonnées sur une table (par exemple la mise à jour des commentaires, des propriétés ou des colonnes), vous pouvez effectuer des mises à jour si vous disposez de l’autorisation MODIFY sur la table.

Consultez ALTER TABLE et ALTER TABLE.

Le support étendu de Databricks Runtime 6.4 est arrivé à son terme

30 juin 2022

La prise en charge du support étendu Databricks Runtime 6.4 a pris fin le 30 juin. Consultez Cycles de vie du support de Databricks.

Fin du support de la série Databricks Runtime 10.2

22 juin 2022

Le support de Databricks Runtime 10.2 et de Databricks Runtime 10.2 pour le Machine Learning a pris fin le 22 juin. Consultez Cycles de vie du support de Databricks.

Pilote ODBC Databricks 2.6.24

22 juin 2022

Nous avons publié la version 2.6.24 du pilote ODBC Databricks (Téléchargement). Cette version ajoute la prise en charge de la configuration de la traduction de requêtes vers la syntaxe CTAS, permet aux utilisateurs de remplacer SQL_ATTR_QUERY_TIMEOUT dans le connecteur et met à jour la bibliothèque OpenSSL.

Cette version résout également les problèmes suivants :

  • Le connecteur n’autorise pas l’utilisation de certificats serveur et intermédiaires qui n’ont pas d’entrée de points de distribution de liste de révocation de certificats (CDP).
  • Lors de l’utilisation d’un proxy, le connecteur définit le nom d’hôte incorrect pour l’indication du nom du serveur (SNI) SSL.

Le fournisseur Terraform Databricks est désormais en GA

22 juin 2022

Le fournisseur Terraform Databricks est désormais en disponibilité générale.

Terraform vous permet d’automatiser entièrement le déploiement de vos plateformes de données avec les processus IaC (Infrastructure as code) existants de Terraform.

Vous pouvez utiliser le fournisseur Terraform Databricks pour définir des ressources dans des espaces de travail Azure Databricks, par exemple, des clusters et des travaux, et pour appliquer le contrôle d’accès avec des autorisations pour les utilisateurs, les groupes et les principaux de service.

Le fournisseur Terraform Databricks fournit une piste d’audit complète des déploiements. Vous pouvez utiliser le fournisseur Terraform Databricks comme pilier pour vos stratégies de reprise et de continuité de l’activité.

Le fournisseur Terraform Databricks prend également en charge Unity Catalog (préversion), ce qui vous permet de déployer cette fonctionnalité de gouvernance clé avec facilité et à grande échelle.

Databricks Runtime 11.0 et 11.0 ML sont en disponibilité générale ; 11.0 Photon est en préversion publique

16 juin 2022

Databricks Runtime 11.0 et Databricks Runtime 11.0 ML sont désormais en disponibilité générale. Databricks Runtime 11.0 Photon est en préversion publique.

Consultez Databricks Runtime 11.0 (EoS) et Databricks Runtime 11.0 pour Machine Learning (EoS).

Passez au répertoire de travail par défaut Repos dans Databricks Runtime 11.0

16 juin 2022

Le répertoire de travail Python pour les notebooks dans un référentiel est défini par défaut sur le répertoire contenant les notebooks. Par exemple, au lieu de /databricks/driver, le répertoire de travail par défaut est /Workspace/Repos/<user>/<repo>/<path-to-notebook>. Cela permet le fonctionnement par défaut de l’importation et de la lecture à partir de Fichiers dans Repos sur les clusters Databricks Runtime 11.0.

Cela signifie également que l’écriture dans le répertoire de travail actuel échoue avec un message d’erreur Read-only filesystem. Si vous souhaitez continuer à écrire dans le système de fichiers local pour un cluster, écrivez sur /tmp/<filename> ou /databricks/driver/<filename>.

Fin du support de la série Databricks Runtime 10.1

14 juin 2022

Le support de Databricks Runtime 10.1 et Databricks Runtime 10.1 pour le Machine Learning a pris fin le 14 juin. Consultez Cycles de vie du support de Databricks.

Delta Live Tables prend désormais en charge la méthode SCD de type 2

13-21 juin 2022 : Version 3.74

Vos pipelines Delta Live Tables peuvent désormais utiliser la méthode SCD de type 2 pour capturer les modifications de données sources et conserver l’historique complet des mises à jour des enregistrements. Cela améliore la prise en charge des Delta Live Tables existantes pour la méthode SCD de type 1. Consultez les API APPLIQUER LES MODIFICATIONS : Simplifiez la capture des données modifiées avec Delta Live Tables.

Créer des pipelines Delta Live Tables directement dans l’interface utilisateur d’Azure Databricks

13-21 juin 2022 : Version 3.74

Vous pouvez maintenant créer un pipeline Delta Live Tables à partir du menu Créer dans la barre latérale de l’interface utilisateur Azure Databricks.

Sélectionner le canal Delta Live Tables quand vous créez ou que vous modifiez un pipeline

13-21 juin 2022 : Version 3.74

Vous pouvez maintenant configurer le canal pour votre pipeline Delta Live Tables avec les boîtes de dialogue Créer un pipeline et Modifier les paramètres du pipeline. Auparavant, la configuration du canal nécessite la modification des paramètres dans la configuration JSON du pipeline.

Communiquer entre des tâches de vos travaux Azure Databricks avec des valeurs de tâche

13 juin 2022

Vous pouvez communiquer des valeurs entre des tâches de vos travaux Azure Databricks avec des valeurs de tâche. Par exemple, vous pouvez utiliser des valeurs de tâche pour passer la sortie d’un modèle Machine Learning à des tâches en aval dans la même exécution de travaux. Consultez Sous-utilitaire taskValues (dbutils.jobs.taskValues).

Activer le basculement de compte dans l’interface utilisateur Databricks

8 juin 2022

Si les utilisateurs appartiennent à plusieurs comptes, ils peuvent désormais changer de compte dans l’interface utilisateur Databricks. Pour utiliser le sélecteur de compte, cliquez sur votre adresse e-mail dans la partie supérieure de l’interface utilisateur Databricks, puis pointez sur Changer de compte. Sélectionnez ensuite le compte auquel vous souhaitez accéder.