Condividi tramite


Come inserire dati in Fabric usando l'attività Copy di Azure Data Factory

Il connettore Microsoft Fabric Lakehouse in Azure Data Factory (ADF) e Azure Synapse Analytics consente operazioni sia di lettura sia di scrittura in Microsoft Fabric Lakehouse (per tabelle e file). Questo connettore consente di utilizzare le pipeline e i flussi di dati per mapping ADF e Synapse esistenti per interagire con Fabric Lakehouses. Questo articolo illustra come configurare Microsoft Fabric per consentire l'autenticazione dell'entità servizio e illustra il connettore Lakehouse per la lettura e la scrittura in Fabric Lakehouse.

Per altre informazioni su Lakehouse di Microsoft Fabric, si veda Che cos'è un lakehouse?

Connettore Lakehouse in Azure Data Factory

Un nuovo connettore di servizi collegati Lakehouse e due nuovi set di dati sono ora disponibili per i clienti che desiderano iniziare a leggere e scrivere in Microsoft Fabric Lakehouse. Per una guida completa sul connettore Lakehouse, si veda Copiare e trasformare i dati nei file Lakehouse di Microsoft Fabric (anteprima).

Autenticazione

Servizi collegati di Azure Data Factory

Il connettore Microsoft Fabric Lakehouse richiede una registrazione dell'entità servizio (SPN)/app per l'autenticazione. Per iniziare, è necessario creare un nuovo SPN o usarne uno esistente. Microsoft Fabric consente l'accesso SPN a gruppi di sicurezza specifici o all'intera organizzazione. Se l'opzione utilizzata dall'organizzazione è un gruppo di sicurezza specifico, l'SPN utilizzato nel connettore Lakehouse deve appartenere a un gruppo di sicurezza aggiunto all'elenco elementi consenti.

Nota

Le autorizzazioni API Power BI (delegate) non sono necessarie

Accesso a API Power BI

Nel portale di amministrazione di Power BI, l’amministratore tenant di Power BI deve abilitare Consenti alle entità servizio di usare le API Power BI. Il gruppo di sicurezza deve essere specificato nell'impostazione Consenti alle entità servizio di usare le API di Power BI oppure l’opzione può essere abilitata per l’intera organizzazione.

Per una guida completa, si veda Incorporare contenuto di Power BI in un'applicazione di analisi incorporata con un'entità servizio e un segreto dell'applicazione.

Nota

Quando si assegna il gruppo di sicurezza all'area di lavoro, potrebbe verificarsi un ritardo nell’assegnare all'entità servizio l'accesso all'area di lavoro, ritardo dovuto alla cache delle autorizzazioni in Azure. Se è necessario l'accesso immediato, usare PowerShell per forzare un aggiornamento delle autorizzazioni dell'utente. A tale scopo, aprire Windows PowerShell come amministratore ed eseguire i seguenti comandi:

Install-Module -Name MicrosoftPowerBIMgmt
Connect-PowerBIServiceAccount -Tenant '<TENANT ID>' -ServicePrincipal -Credential (Get-Credential)
Get-PowerBIWorkspace
Invoke-PowerBIRestMethod -URL 'https://api.powerbi.com/v1.0/myorg/RefreshUserPermissions' -Method Post -Body ''
Get-PowerBIWorkspace

Accesso all'area di lavoro

Dopo aver aggiunto il gruppo di sicurezza, occorre aggiungere anche il gruppo di sicurezza o l'entità servizio a ogni area di lavoro con la qualità di membro, collaboratore o amministratore. Per altri dettagli, si veda Concedere agli utenti l'accesso alle aree di lavoro .

Demo: Configurare l'autenticazione

Entità servizio registrazione app

Creare un'entità servizio di registrazione app o usarne una esistente. Seguire la procedura per Registrare un'applicazione con Microsoft Entra ID e creare un'entità servizio.

Nota

Non è necessario assegnare un URI di reindirizzamento.

Screenshot che mostra i dettagli di una nuova entità servizio.

Gruppo di sicurezza

Creare un nuovo gruppo di sicurezza di Microsoft Entra o usarne uno esistente, poi aggiungervi il nome SPN. Seguire la procedura Creare un gruppo di base e aggiungere membri con Microsoft Entra ID per creare un gruppo di sicurezza di Microsoft Entra.

Screenshot che mostra dove aggiungere membri a un gruppo di sicurezza.

Portale di amministrazione di Power BI

Dal portale di amministrazione di Power BI passare a Impostazioni sviluppatore e selezionare Consenti alle entità servizio di usare API Power BI e poi abilitare l’opzione. Successivamente, aggiungere il gruppo di sicurezza del passaggio precedente. Per altre informazioni, sulle impostazioni del tenant del portale di amministrazione di Power BI, si veda Impostazioni del tenant.

Screenshot che mostra il portale di amministrazione di Power BI con l'opzione Consenti alle entità servizio di utilizzare le API Power BI espansa e abilitata.

Nota

Assicurarsi che l'impostazione Gli utenti possono accedere ai dati archiviati in OneLake con app esterne a Fabric sia abilitata. Fare riferimento a Consentire alle app in esecuzione al di fuori di Fabric di accedere ai dati tramite OneLake.

Area di lavoro

Aggiungere l'SPN o il gruppo di servizi all'area di lavoro con accesso come membro, collaboratore o amministratore.

Azure Data Factory: Servizi collegati

Da Azure Data Factory creare un nuovo servizio collegato Microsoft Fabric Lakehouse.

Nota

Per trovare l'area di lavoro e gli ID Lakehouse, passare a Fabric Lakehouse e identificarlo dall'URL. Ad esempio: https://.../groups/<ID area di lavoro>>/lakehouses/<ID Lakehouse>

Azure Data Factory: Set di dati

Creare un set di dati che faccia riferimento al servizio collegato Microsoft Fabric Lakehouse.

Nota

Selezionare Nessuno per l'opzione Importa schema se la tabella non esiste ancora e si sta specificando manualmente un nuovo nome di tabella.

Screenshot che mostra la finestra di dialogo Nuovo set di dati con il tipo di set di dati Tabella di Microsoft Fabric Lakehouse selezionato.

Screenshot che mostra la finestra di dialogo Imposta proprietà set di dati con l'opzione Importa schema impostata su Nessuno.

Demo: Scrivere in una tabella di Fabric Lakehouse con una pipeline di Azure Data Factory

Origine

Creare una nuova pipeline e aggiungere un’attività Copy all'area di lavoro della pipeline. Nella scheda Origine dell’attività Copy selezionare un set di dati di origine da spostare in una tabella Lakehouse. In questo esempio si fa riferimento a un file .csv proveniente da un account Azure Data Lake Storage (ADLS) Gen2.

Screenshot che mostra la configurazione della scheda Impostazioni origine di un’attività Copy con un .csv selezionato per il set di dati di origine.

Sink

Passare alla scheda Sink dell’attività Copy e selezionare il set di dati di Fabric Lakehouse creato in precedenza.

Screenshot che mostra la selezione del set di dati Fabric Lakehouse precedentemente creato.

Eseguire la pipeline

Eseguire la pipeline per spostare i dati .csv nella tabella Fabric Lakehouse.

Screenshot che mostra i risultati dell'esecuzione della pipeline.

Demo: Leggere da una tabella di Fabric Lakehouse con una pipeline di Azure Data Factory

Nella sezione precedente è stato illustrato come usare Azure Data Factory per scrivere in una tabella Fabric Lakehouse. A questo punto, è possibile leggere da una tabella Fabric Lakehouse e scrivere in un file Parquet in Azure Data Lake Storage (ADLS) Gen2 con una pipeline simile.

Origine

Creare una nuova pipeline e aggiungere un’attività Copy all'area di lavoro della pipeline. Nella scheda Origine dell'attività Copy, selezionare il set di dati Fabric Lakehouse precedentemente creato.

Screenshot che mostrala selezione e l'anteprima dell'origine dati Lakehouse precedentemente creata.

Sink

Passare alla scheda Sink dell'attività Copy e selezionare il set di dati di destinazione. In questo esempio la destinazione è Azure Data Lake Storage (Gen2), come file Parquet.

Screenshot che mostra la selezione di un sink di ADLS Gen2.

Eseguire la pipeline

Eseguire la pipeline per spostare i dati dalla tabella Fabric Lakehouse nel file Parquet in ADLS Gen2.

Screenshot che mostra il risultato dell'esecuzione della pipeline per importare dati in ADLS Gen2 da Fabric Lakehouse.

Ispezionare il file Parquet in ADLS Gen2

Adesso i dati della tabella Fabric Lakehouse sono disponibili in ADLS Gen2 come file Parquet.

Screenshot che mostra il file Parquet generato dalla pipeline.

Riepilogo

In questa sezione sono stati esaminati i requisiti per il connettore Lakehouse utilizzando l'autenticazione dell'entità servizio in Microsoft Fabric Lakehouse, poi è stato illustrato un esempio per la lettura e la scrittura in Lakehouse da una pipeline di Azure Data Factory. Il connettore e le funzionalità sono disponibili anche nel flusso di dati per il mapping di Azure Data Factory, in Azure Synapse Analytics e nel flusso di dati per il mapping di Azure Synapse Analytics.

Documentazione di Azure Data Factory