Resumo

Concluído

Engenheiros de dados e analistas de dados usam notebooks como uma das maneiras mais comuns de implementar a ingestão de dados e a lógica de processamento no Azure Databricks. Ao usar o Azure Data Factory para executar notebooks em um pipeline, é possível criar soluções de processamento de dados que podem ser executadas sob demanda, em intervalos agendados ou em resposta a um evento específico.

Neste módulo, você aprendeu a:

  • Descreva como os notebooks do Azure Databricks podem ser executados em um pipeline.
  • Crie um serviço vinculado do Azure Data Factory para o Azure Databricks.
  • Use uma atividade do Notebook em um pipeline.
  • Transmita os parâmetros a um notebook.