Resumo
Engenheiros de dados e analistas de dados usam notebooks como uma das maneiras mais comuns de implementar a ingestão de dados e a lógica de processamento no Azure Databricks. Ao usar o Azure Data Factory para executar notebooks em um pipeline, é possível criar soluções de processamento de dados que podem ser executadas sob demanda, em intervalos agendados ou em resposta a um evento específico.
Neste módulo, você aprendeu a:
- Descreva como os notebooks do Azure Databricks podem ser executados em um pipeline.
- Crie um serviço vinculado do Azure Data Factory para o Azure Databricks.
- Use uma atividade do Notebook em um pipeline.
- Transmita os parâmetros a um notebook.