Implementare un lakehouse con Microsoft Fabric
Questo percorso di apprendimento introduce i componenti di base dell'implementazione di un data lakehouse con Microsoft Fabric.
Prerequisiti
È necessario avere familiarità con la terminologia e i concetti di base relativi ai dati.
Codice obiettivo
Si vuole richiedere un codice obiettivo?
Moduli in questo percorso di apprendimento
Scoprire in che modo Microsoft Fabric può soddisfare le esigenze di analisi aziendali in un'unica piattaforma. Informazioni su Microsoft Fabric, su come funziona e su come usarlo per le proprie esigenze di analisi.
I lakehouse uniscono la flessibilità dell'archiviazione in data lake con l'analisi del data warehouse. Microsoft Fabric offre una soluzione lakehouse per l'analisi completa su una singola piattaforma SaaS.
Apache Spark è una tecnologia di base per l'analisi dei dati su larga scala. Microsoft Fabric offre supporto per i cluster Spark, consentendo di analizzare ed elaborare i dati in un lakehouse su larga scala.
Le tabelle in un lakehouse di Microsoft Fabric si basano sul formato di archiviazione Delta Lake comunemente usato in Apache Spark. Usando le funzionalità avanzate delle tabelle delta, è possibile creare soluzioni di analisi avanzate.
L'inserimento dei dati è fondamentale nell'analisi. Data Factory di Microsoft Fabric offre flussi di dati per creare visivamente inserimenti e trasformazioni dei dati in più passaggi usando Power Query Online.
Microsoft Fabric include funzionalità di Data Factory, tra cui la possibilità di creare pipeline che orchestrano le attività di inserimento e trasformazione dei dati.
Esplorare il potenziale dell'architettura a medaglione in Microsoft Fabric. Organizzare e trasformare i dati tra i livelli bronzo, argento e oro di un lakehouse per ottimizzare l'analisi.