Introdução

Concluído

Os pipelines de dados definem uma sequência de atividades que orquestram um processo geral, geralmente extraindo dados de uma ou mais fontes e carregando-os em um destino; muitas vezes transformando-o ao longo do caminho. Os pipelines são comumente usados para automatizar processos de extração, transformação e carregamento (ETL) que ingerem dados transacionais de armazenamentos de dados operacionais em um armazenamento de dados analíticos, como um lakehouse ou data warehouse.

Se você já estiver familiarizado com o Azure Data Factory, os pipelines de dados no Microsoft Fabric serão imediatamente familiares. Eles usam a mesma arquitetura de atividades conectadas para definir um processo que pode incluir vários tipos de tarefas de processamento de dados e lógica de fluxo de controle. Você pode executar pipelines interativamente na interface do usuário do Microsoft Fabric ou programá-los para serem executados automaticamente.