Condividi tramite


Scenario dei prezzi per il caricamento di 1 TB di dati Parquet in un data warehouse mediante una pipeline di dati

In questo scenario è stata usata un’attività Copy in una pipeline di dati per caricare 1 TB di dati di tabella Parquet archiviati in Azure Data Lake Storage (ADLS) Gen2 in un data warehouse di Microsoft Fabric.

I prezzi usati nel seguente esempio sono ipotetici e non intendono indicare l'esatto prezzo reale. Servono solo a dimostrare come è possibile stimare, pianificare e gestire i costi dei progetti Data Factory in Microsoft Fabric. Inoltre, poiché le capacità di Fabric hanno prezzi specifici per ogni regione, vengono usati i prezzi con pagamento in base al consumo per una capacità infrastruttura negli Stati Uniti occidentali 2 (una tipica area di Azure), a $0,18 per CU all'ora. Fare riferimento qui a Microsoft Fabric - Prezzi per esplorare altre opzioni di determinazione dei prezzi della capacità di Fabric.

Impostazione

Per eseguire questo scenario è necessario creare una pipeline con la seguente configurazione:

Screenshot che mostra la configurazione di una pipeline che copia dati Parquet da ADLS Gen2 in un data warehouse.

Stima dei costi con l'app Fabric Metrics

Screenshot che mostra la durata e l'utilizzo CU del processo nell'app Fabric Metrics.

L’operazione di spostamento dei dati ha utilizzato 3.960 secondi CU con una durata di 662,64 secondi, mentre l’operazione di esecuzione dell'attività è null perché non sono state eseguite attività non di copia nell'esecuzione della pipeline.

Nota

Anche se segnalata come metrica, la durata effettiva dell'esecuzione non è rilevante quando si calcolano le ore CU effettive con l'app Fabric Metrics la metrica dei secondi CU segnala già la durata.

Metric Operazione di spostamento dati
Secondi CU 3.960 secondi CU
Orario CU effettivo (3.960) / (60*60) ore-CU = 1,1 ore-CU

Costo totale esecuzione a $0,18/ore-CU = (1,1 CU-ore) * ($0,18/ore-CU) ~= $0,20