Configurare le credenziali di archiviazione Delta
Nota
Per configurare le credenziali di archiviazione Delta, vedere Configurare l'accesso all'archiviazione di oggetti cloud per Azure Databricks. Databricks non consiglia più di passare le credenziali di archiviazione tramite le opzioni del dataframe, come descritto in questo articolo.
Azure Databricks archivia i dati per le tabelle Delta Lake nell'archiviazione di oggetti cloud. La configurazione dell'accesso all'archiviazione di oggetti cloud richiede autorizzazioni all'interno dell'account cloud che contiene l'account di archiviazione.
Passare le credenziali di archiviazione come opzioni del dataframe
Delta Lake supporta la specifica delle credenziali di archiviazione come opzioni per DataFrameReader e DataFrameWriter. È possibile usarlo se è necessario interagire con i dati in diversi account di archiviazione regolati da chiavi di accesso diverse.
Nota
Questa funzionalità è disponibile in Databricks Runtime 10.4 LTS e versioni successive.
Ad esempio, è possibile passare le credenziali di archiviazione tramite le opzioni del dataframe:
Python
df1 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>") \
.read("...")
df2 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>") \
.read("...")
df1.union(df2).write \
.mode("overwrite") \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>") \
.save("...")
Scala
val df1 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>")
.read("...")
val df2 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>")
.read("...")
df1.union(df2).write
.mode("overwrite")
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>")
.save("...")