gennaio 2018
Le versioni vengono distribuite gradualmente. L'account Databricks può non essere aggiornato fino a una settimana dopo la data di rilascio iniziale.
Punti di montaggio per contenitori di Archiviazione BLOB di Azure e Data Lake Store
16-23 gennaio 2018: versione 2.63
Sono state fornite istruzioni per il montaggio di contenitori di archiviazione BLOB di Azure e di Data Lake Store tramite il file system di Databricks (DBFS). In questo modo, tutti gli utenti nella stessa area di lavoro possono accedere al contenitore di archiviazione BLOB o a Data Lake Store (o alla cartella all'interno del contenitore o dell'archivio) tramite il punto di montaggio. DBFS gestisce le credenziali usate per accedere a un contenitore di archiviazione BLOB montato o a Data Lake Store e gestisce automaticamente l'autenticazione con l'archiviazione BLOB di Azure o Data Lake Store in background.
Il montaggio di contenitori di archiviazione BLOB e archivi Data Lake richiede Databricks Runtime 4.0 e versioni successive. Dopo aver montato un contenitore o un archivio, è possibile usare Runtime 3.4 o versione successiva per accedere al punto di montaggio.
Per altre informazioni, vedere Connettersi ad Azure Data Lake Storage Gen2 e Archiviazione BLOB e Accedere ad Azure Data Lake Storage Gen1 da Azure Databricks.
Tag dei cluster
4-11 gennaio 2018: versione 2.62
È ora possibile specificare i tag del cluster che verranno propagati a tutte le risorse di Azure (VM, dischi, schede di interfaccia di rete ecc.) associate a un cluster. Oltre ai tag forniti dall'utente, le risorse verranno contrassegnate automaticamente con il nome del cluster, l'ID cluster e il nome utente dell'autore del cluster.
Per altre informazioni, vedere Categorie.
Controllo di accesso alle tabelle per SQL e Python (anteprima privata)
4-11 gennaio 2018: versione 2.62
Nota
Questa funzionalità è disponibile in anteprima privata. Contattare l'account manager per richiedere l'accesso. Anche questa funzionalità richiede Databricks Runtime 3.5+.
L'anno scorso, è stato introdotto il controllo di accesso agli oggetti dati per gli utenti SQL. Oggi siamo lieti di annunciare l'anteprima privata di Controllo di accesso a tabelle (ACL) per gli utenti di SQL e Python. Con il controllo di accesso alle tabelle, è possibile limitare l'accesso agli oggetti a protezione diretta come tabelle, database, viste o funzioni. È anche possibile fornire un controllo di accesso con granularità fine (ad esempio alle righe e alle colonne che corrispondono a condizioni specifiche), impostando le autorizzazioni delle viste derivate contenenti query arbitrarie.
Per informazioni dettagliate, consultare Privilegi del metastore Hive e oggetti a protezione diretta (legacy).
Esportazione dei risultati dell’esecuzione di un processo del notebook tramite l’API
4-11 gennaio 2018: versione 2.62
Per migliorare la possibilità di condividere e collaborare ai risultati dei processi, è ora disponibile un nuovo endpoint API Processi, jobs/runs/export
, che consente di recuperare la rappresentazione HTML statica dei risultati di esecuzione di un processo notebook nella visualizzazione del codice e del dashboard.
Per altre informazioni, vedere Esportare le esecuzioni.
Apache Flow 1.9.0 include l’integrazione di Databricks
2 gennaio 2018
L'anno scorso è stata rilasciata una funzionalità di anteprima in Airflow, una soluzione popolare per la gestione della pianificazione ETL, che consente ai clienti di creare in modo nativo task che attivano l'esecuzione di Databricks in un DAG Airflow. Siamo lieti di annunciare che queste integrazioni sono state rilasciate pubblicamente nella versione 1.9.0 di Airflow.
Per ulteriori informazioni, consultare Orchestrare i processi di Azure Databricks con Apache Airflow.