Compartilhar via


Desenvolver e depurar pipelines de Tabelas Dinâmicas Delta em notebooks

Importante

A experiência do Notebook para o desenvolvimento do Delta Live Tables está em Visualização Pública.

Este artigo descreve os recursos nos notebooks do Azure Databricks que auxiliam no desenvolvimento e na depuração do código do Delta Live Tables.

Visão geral de recursos

Ao trabalhar em um notebook Python ou SQL que é o código-fonte de um pipeline existente do Delta Live Tables, você pode conectar o notebook diretamente ao pipeline. Quando o notebook estiver conectado ao pipeline, os seguintes recursos estarão disponíveis:

  • Inicie e valide o pipeline do notebook.
  • Veja o grafo do fluxo de dados do pipeline e o log de eventos da atualização mais recente no notebook.
  • Veja o diagnóstico do pipeline diretamente no editor do notebook.
  • Veja o status do cluster do pipeline no notebook.
  • Como acessar a interface do usuário do Delta Live Tables do notebook.

Pré-requisitos

  • Você deve ter um pipeline do Delta Live Tables existente com um notebook Python ou SQL como código-fonte.
  • Você deve ser o proprietário do pipeline ou ter o privilégio CAN_MANAGE.

Limitações

  • Os recursos abordados neste artigo só estão disponíveis nos notebooks do Azure Databricks. Não há suporte para arquivos de workspace.
  • O terminal da Web não está disponível quando anexado a um pipeline. Como resultado, ele não é visível como uma guia no painel inferior.

Conectar um notebook a um pipeline do Delta Live Tables

No notebook, clique no menu suspenso usado para selecionar a computação. O menu suspenso mostra todos os pipelines do Delta Live Tables com este notebook como código-fonte. Para conectar o notebook a um pipeline, selecione-o na lista.

Ver o status do cluster do pipeline

Para entender facilmente o estado do cluster do pipeline, seu status é mostrado no menu suspenso de computação com uma cor verde para indicar que o cluster está em execução.

Validar o código do pipeline

Você pode validar o pipeline para verificar se há erros de sintaxe no código-fonte sem processar dados.

Para validar um pipeline, siga um destes procedimentos:

  • No canto superior direito do notebook, clique em Validar.
  • Pressione Shift+Enter em qualquer célula do notebook.
  • No menu suspenso de uma célula, clique em Validar Pipeline.

Observação

Se você tentar validar o pipeline enquanto uma atualização existente já estiver em execução, uma caixa de diálogo será exibida perguntando se você quer encerrar a atualização existente. Se você clicar em Sim, a atualização existente será interrompida e uma atualização de validação será iniciada automaticamente.

Iniciar o pipeline

Uma atualização de pipeline faz o seguinte: inicia um cluster, descobre e valida todas as tabelas e exibições definidas e cria ou atualiza tabelas e exibições com os dados mais recentes disponíveis.

Para iniciar uma atualização do pipeline, clique no botão Iniciar no canto superior direito do notebook.

Exibir o status de uma atualização

O painel superior do notebook mostra se uma atualização do pipeline está:

  • Iniciando
  • Validando
  • Parando

Ver erros e diagnóstico

Depois que um pipeline é iniciado ou validado, todos os erros são mostrados embutidos com um sublinhado vermelho. Passe o mouse sobre um erro para ver mais informações.

Ver eventos de pipeline

Quando anexado a um pipeline, haverá uma guia de log de eventos do Delta Live Tables na parte inferior do notebook.

Log de eventos

Ver o grafo do fluxo de dados do pipeline

Para exibir um grafo de fluxo de dados do pipeline, use a guia de grafo do Delta Live Tables na parte inferior do notebook. Selecionar um nó no grafo exibe seu esquema no painel direito.

Grafo do Fluxo de Dados

Como acessar a interface do usuário do Delta Live Tables no notebook

Para ir facilmente para a interface do usuário do Delta Live Tables, use o menu no canto superior direito do notebook.

Abrir na interface do usuário do DLT no notebook

Acessar logs de driver e a interface do usuário do Spark no notebook

Os logs de driver e a interface do usuário do Spark associados ao pipeline que está sendo desenvolvido podem ser facilmente acessados no menu Exibir do notebook.

Logs de driver de acesso e interface do usuário do Spark