Partager via


Janvier 2018

Les publications se font par étapes. Votre compte Databricks peut ne pas être mis à jour jusqu’à une semaine après la date de publication initiale.

Points de montage pour les conteneurs Stockage Blob Azure et les dépôts Data Lake Store

16-23 janvier 2018 : Version 2.63

Nous avons fourni des instructions pour le montage des conteneurs de stockage Blob Azure et des magasins Data Lake Store par le biais du système de fichiers Databricks (DBFS). Cela permet à tous les utilisateurs du même espace de travail d’accéder au conteneur de stockage Blob ou Data Lake Store (ou au dossier dans le conteneur ou magasin) via le point de montage. DBFS gère les informations d’identification utilisées pour accéder à un conteneur de stockage Blob monté ou Data Lake Store et gère automatiquement l’authentification avec le stockage Blob Azure ou Data Lake Store en arrière-plan.

Le montage des conteneurs de stockage Blob et des magasins Data Lake Store nécessite Databricks Runtime 4.0 ou une version ultérieure. Une fois qu’un conteneur ou magasin est monté, vous pouvez utiliser le Runtime 3.4 ou une version ultérieure pour accéder au point de montage.

Pour plus d’informations, consultez Se connecter au stockage Azure Data Lake Storage Gen2 et au Stockage Blob, ainsi que Accéder à Azure Data Lake Storage Gen1 depuis Azure Databricks.

Étiquettes de cluster

4-11 janvier 2018 : Version 2.62

Vous pouvez désormais spécifier des balises de cluster qui seront propagées à toutes les ressources Azure (machines virtuelles, disques, cartes réseau, etc.) associées à un cluster. Outre les balises fournies par l’utilisateur, les ressources sont automatiquement marquées avec le nom du cluster, l’ID du cluster et le nom d’utilisateur du créateur du cluster.

Pour obtenir plus d’informations, consultez Balises.

Tables Access Control pour SQL et Python (préversion privée)

4-11 janvier 2018 : Version 2.62

Notes

Cette fonctionnalité est en préversion privée. Contactez votre responsable de compte pour demander un accès. Cette fonctionnalité requiert également Databricks Runtime 3.5+.

L’année dernière, nous avons introduit le contrôle d’accès aux objets de données pour les utilisateurs SQL. Aujourd’hui, nous sommes ravis d’annoncer la préversion privée de Table Access Control (ACL) pour les utilisateurs SQL et Python. Table Access Control vous permet de restreindre l’accès à des objets sécurisables tels que des tables, des bases de données, des affichages ou des fonctions. Vous pouvez également fournir un contrôle d’accès précis (par exemple, à des lignes et colonnes correspondant à des conditions spécifiques) en définissant des autorisations sur des affichages dérivés contenant des requêtes arbitraires.

Pour plus d’informations, consultez Privilèges et objets sécurisables (hérités) du metastore Hive.

Exportation des résultats de l’exécution des travaux de notebook par l’API

4-11 janvier 2018 : Version 2.62

Pour améliorer votre capacité à partager et à collaborer sur les résultats des travaux, nous disposons désormais d’un nouveau point de terminaison d’API de travaux, jobs/runs/export qui vous permet de récupérer la représentation HTML statique des résultats de l’exécution d’un travail de notebook dans le code et dans la vue du tableau de bord.

Pour plus d’informations, consultez Exécution de l'exportation.

Apache Airflow 1.9.0 comprend l’intégration de Databricks

2 janvier 2018

L’année dernière, nous avons publié une fonctionnalité d’évaluation dans Airflow, une solution populaire pour la gestion de la planification ETL, qui permet aux clients de créer en mode natif des tâches qui déclenchent des exécutions Databricks dans un DAG Airflow. Nous sommes heureux d’annoncer que ces intégrations ont été publiées publiquement dans la version 1.9.0 d’Airflow.

Pour plus d’informations, consultez Orchestrer des travaux Azure Databricks avec Apache Airflow.