Février 2023
Ces fonctionnalités et améliorations de la plateforme Azure Databricks ont été publiées en février 2023.
Remarque
Les publications se font par étapes. Il se peut que votre compte Azure Databricks ne soit pas mis à jour avant au moins une semaine suivant la date de publication initiale.
Prise en charge des instances de la série ND A100 v4 (préversion publique)
28 février 2023
Databricks prend désormais en charge les instances de la série ND A100 v4 pour les clusters GPU. Les instances ND A100 sont optimisées pour les grandes charges de travail d'apprentissage en profondeur.
Ray sur Azure Databricks (préversion publique)
24 février 2023
Avec Databricks Runtime 12.0 et versions ultérieures, vous pouvez créer un cluster Ray et exécuter des applications Ray dans Azure Databricks avec l'API Ray on Spark. Consultez Qu’est-ce que Ray sur Azure Databricks ?.
Augmentation de la limite de résultats de sortie de cellule de notebook
23 février 2023
Lorsque vous exécutez une cellule dans un bloc-notes, le moindre de 10 000 lignes ou 2 Mo de sortie s'affiche.
Azure Databricks prend désormais en charge l’exécution de travaux continus
22 février 2023
Vous pouvez vous assurer qu’il y a toujours une exécution active de votre travail Azure Databricks avec le nouveau type de déclencheur continuous
. Consultez Exécuter des travaux en continu.
Déclencher votre travail Azure Databricks à l’arrivée de nouveaux fichiers
22 février 2023
Vous pouvez désormais utiliser un déclencheur d'arrivée de fichiers pour exécuter votre tâche Azure Databricks lorsque de nouveaux fichiers arrivent dans un emplacement externe tel qu'Amazon S3 ou le stockage Azure. Voir Déclencher des tâches lorsque de nouveaux fichiers arrivent.
Fournisseur Databricks Terraform mis à jour vers la version 1.10.0
21 février 2023
La version 1.10.0 apporte des mises à jour à databricks_share
, diverses mises à jour de documentation, et bien plus encore. Pour plus de détails, consultez le journal des modifications de la version 1.10.0.
Scripts init globaux et scripts init nommés par cluster hérités désactivés
21 février 2023
À compter du 21 février 2023, les anciens scripts d'initialisation globaux et les scripts d'initialisation nommés par cluster sont désactivés et ne peuvent pas être utilisés dans les nouveaux espaces de travail. Voir Que sont les scripts d'initialisation ?.
Améliorations apportées à l’interface utilisateur d’expérience MLflow
17 février 2023
L'interface utilisateur de l'expérience MLflow comprend désormais une vue graphique configurable fournissant des informations visuelles sur les performances du modèle, une expérience de coordonnées parallèles remaniée pour le réglage et une vue tabulaire simplifiée avec des améliorations pour la recherche et le filtrage. ConsultezOrganiser des exécutions de formation avec des expériences MLflow.
Databricks Runtime 12.2 (bêta)
17 février 2023
Databricks Runtime 12.2 et Databricks Runtime 12.2 ML sont désormais disponibles en versions bêta.
Consultez Databricks Runtime 12.2 LTS et Databricks Runtime 12.2 LTS pour Machine Learning.
Utiliser des identités managées affectées par l’utilisateur pour accéder au stockage dans Unity Catalog (préversion publique)
15 février 2023
Vous pouvez désormais utiliser des identités managées attribuées par l'utilisateur au lieu des identités managées attribuées par le système pour accéder aux conteneurs de stockage au nom des utilisateurs de Unity Catalog. Consultez Utiliser des identités managées Azure dans Unity Catalog pour accéder au stockage.
Extension Databricks pour Visual Studio Code (préversion publique)
14 février 2023
L'extension Databricks pour Visual Studio Code permet aux développeurs d'exploiter les puissantes capacités de création des IDE tout en se connectant aux clusters Azure Databricks pour exécuter du code à distance, en utilisant les meilleures pratiques telles que le contrôle de source, le code modularisé, la refactorisation et les tests unitaires.
Préversion publique de l’inférence en temps réel serverless désormais disponible pour tous les clients
9 février 2023
L'inférence en temps réel sans serveur est désormais disponible en version préliminaire publique pour tous les clients. Vous n'avez plus besoin de demander l'accès.
L'inférence en temps réel sans serveur fournit un service hautement disponible et à faible latence pour le déploiement de modèles. Le service évolue automatiquement pour répondre aux changements de demande dans la plage de concurrence choisie. Voir Service de modèles avec Azure Databricks
Les entrepôts SQL serverless sont disponibles pour les espaces de travail dans les régions prises en charge (préversion publique)
9 février 2023
Les entrepôts SQL sans serveur sont désormais disponibles pour tous les clients disposant d'espaces de travail dans les régions USA Ouest (westus
), USA Centre (centralus
), USA Est (eastus
), USA Est 2 (eastus2
), Europe Nord (northeurope
) et Europe Ouest (westeurope
). Consultez Activer des entrepôts SQL serverless.
Fournisseur Databricks Terraform mis à jour vers la version 1.9.2
3 février 2023
La version 1.9.2 ajoute un sélecteur databricks_node_type
, un nouveau type de bibliothèque de fichiers pour databricks_pipeline
, diverses mises à jour de documentation, et bien plus encore. Pour plus de détails, consultez le journal des modifications de la version 1.9.2.
Les clés gérées par le client permettent de protéger et de contrôler l’accès à certains types de données (disponibilité générale)
3 février 2023
Certains services et données Azure Databricks prennent en charge l’ajout d’une clé gérée par le client pour aider à protéger et à contrôler l’accès aux données chiffrées. Azure Databricks dispose de trois fonctionnalités clés gérées par le client qui impliquent différents types de données et d'emplacements, que vous pouvez comparer dans Clés gérées par le client pour le chiffrement. Ces trois fonctionnalités sont désormais généralement disponibles.
Explorateur de variables dans les notebooks Azure Databricks
1 février 2023
Avec Databricks Runtime 12.1 et versions ultérieures, vous pouvez désormais observer directement les variables Python actuelles et leurs valeurs dans l'interface utilisateur du notebook.