Ottobre 2021
Queste funzionalità e i miglioramenti della piattaforma Azure Databricks sono stati rilasciati a ottobre 2021.
Nota
Le versioni vengono gestite in staging. L'account Azure Databricks potrebbe non essere aggiornato fino a una settimana o più dopo la data di rilascio iniziale.
Termine del supporto per Databricks Runtime serie 8.2
22 ottobre 2021
Il supporto per Databricks Runtime 8.2 e Databricks Runtime 8.2 per Machine Learning è terminato il 22 ottobre. Vedere Cicli di vita del supporto di Databricks.
Databricks Runtime 10.0 e 10.0 ML sono disponibili a livello generale; 10.0 Photon è anteprima pubblica
20 ottobre 2021
Databricks Runtime 10.0 e 10.0 ML sono ora disponibili a livello generale. 10.0 Photon è disponibile in anteprima pubblica.
Vedere le note sulla versione di Databricks Runtime 10.0 (EoS) e Databricks Runtime 10.0 for ML (EoS).
Miglioramenti dell’interfaccia utente per le tabelle Live Delta (anteprima pubblica)
18-25 ottobre 2021: versione 3.57
Questa versione include i seguenti miglioramenti per l'interfaccia utente di Delta Live Tables:
- Viene ora visualizzato un messaggio Notebook non trovato nella finestra di dialogo Crea pipeline o nel pannello dei dettagli dei set di dati quando viene specificato un percorso notebook non valido.
- È ora possibile fornire commenti e suggerimenti sulle tabelle live Delta facendo clic sul collegamento Invia commenti e suggerimenti nella pagina Pipeline o nella pagina Dettagli pipeline. Quando si fa clic sul collegamento Invia commenti e suggerimenti, viene aperto un sondaggio per i commenti e suggerimenti dei clienti in una nuova finestra.
Specificare un cluster a dimensione fissa quando si crea una nuova pipeline in Tabelle live Delta (anteprima pubblica)
18-25 ottobre 2021: versione 3.57
È ora possibile creare un cluster per la pipeline Delta Live Tables con un numero fisso di nodi di lavoro, offrendo un maggiore controllo sulle risorse del cluster usate dalla pipeline. Per creare un cluster con un numero fisso di nodi, disabilitare Abilita scalabilità automatica e immettere il numero di nodi nel Ruoli di lavoro quando si crea una nuova pipeline.
Visualizzare le metriche relative alla qualità dei dati per le tabelle in pipeline attivate da tabelle live Delta (anteprima pubblica)
18-25 ottobre 2021: versione 3.57
È ora possibile visualizzare le metriche di qualità dei dati per le tabelle quando la pipeline viene eseguita in modalità trigger, compreso il numero di record scritti, il numero di record eliminati e il numero di record che hanno superato o meno ogni vincolo di qualità dei dati. Per visualizzare le metriche relative alla qualità dei dati, selezionare la tabella nella scheda Grafico nella pagina Dettagli pipeline.
L’orchestrazione dei processi è ora disponibile a livello generale
14 ottobre 2021
Databricks è lieta di annunciare la disponibilità generale dell'orchestrazione dei processi di Azure Databricks. L'orchestrazione dei processi consente di definire ed eseguire un processo con più attività, semplificando la creazione, la pianificazione, l'esecuzione e il monitoraggio di applicazioni di machine learning e dati complessi. L'orchestrazione dei processi deve essere abilitata da un amministratore ed è disabilitata per impostazione predefinita. Vedere Pianificare e orchestrare i flussi di lavoro.
Databricks è lieta anche di annunciare la disponibilità generale della versione 2.1 dell'API Jobs. Questa versione include aggiornamenti che supportano completamente l'orchestrazione di più task con i processi di Azure Databricks. Per informazioni sull'aggiornamento dei client per supportare processi che orchestrano più attività, vedere Aggiornamento dall'API Jobs da 2.0 a 2.1.
Connettore Databricks per Power BI
13 ottobre 2021
È ora disponibile una nuova versione del connettore Power BI. Questa versione aggiunge il supporto per lo spostamento tra spazi dei nomi a tre livelli in Unity Catalog, garantisce che l'esecuzione delle query possa essere annullata e abilita il pass-through di query native per ridurre la latenza in Databricks SQL e Databricks Runtime 8.3 e versioni successive.
Repos supporta ora tipi di file arbitrari
7 ottobre 2021
Oltre a sincronizzare i notebook con un repository Git remoto, File in Repos consente di sincronizzare qualsiasi tipo di file, ad esempio file .py
, file di dati in formato .csv
o .json
file di configurazione .yaml
. È possibile importare e leggere questi file all'interno di un repository di Databricks. È anche possibile visualizzare e modificare i file codificati in testo nell'interfaccia utente. Per ulteriori informazioni, vedere Integrazione Git per le cartelle Git di Databricks.
Output dell’esecuzione del processo più dettagliato con l’API Processi
4-11 ottobre 2021: versione 3.56
La risposta alla richiesta dell'API Jobs Runs get output (Output get dell'esecuzione) è stata aggiornata con nuovi campi per restituire output, registrazioni ed errori aggiuntivi per le esecuzioni dei processi.
Miglioramento della leggibilità dei percorsi dei notebook nell’interfaccia utente processi
4-11 ottobre 2021: versione 3.56
I percorsi dei notebook vengono ora troncati a sinistra quando si visualizzano i dettagli del processo nell'interfaccia utente dei processi, garantendo la visibilità del nome del notebook. In precedenza, i percorsi dei notebook venivano troncati a destra, spesso nascondendo il nome del notebook.
Aprire la pipeline delle tabelle aperte Delta in una nuova scheda o finestra
4-11 ottobre 2021: versione 3.56
I nomi delle pipeline sono ora rappresentati come un collegamento quando si visualizza l'elenco delle pipeline nell'interfaccia utente di Delta Live Tables, consentendo di accedere alle opzioni del menu contestuale, ad esempio per l'apertura dei dettagli della pipeline in una nuova scheda o finestra.
Nuova sequenza di escape per $
nei widget di input legacy in SQL
4-11 ottobre 2021: versione 3.56
Per eseguire l'escape del carattere $
nei widget di input legacy in SQL, usare \$
. Se è stato usato $\
nei widget esistenti, esso continua a funzionare, ma Databricks consiglia di aggiornare i widget per usare la nuova sequenza di escape. Vedere Widget di Databricks.
Distribuzione più rapida del modello con notebook di inferenza batch generato automaticamente
4-11 ottobre 2021: versione 3.56
Dopo aver registrato un modello nel Registro dei modelli, è possibile generare automaticamente un notebook per utilizzare il modello per l'inferenza batch o creare un endpoint per utilizzare il modello per il servizio in tempo reale. Per informazioni dettagliate, vedere Utilizzare il modello per l'inferenza.