Partilhar via


Solucionar problemas do conector de formato ORC no Azure Data Factory e no Azure Synapse

APLICA-SE A: Azure Data Factory Azure Synapse Analytics

Gorjeta

Experimente o Data Factory no Microsoft Fabric, uma solução de análise tudo-em-um para empresas. O Microsoft Fabric abrange tudo, desde a movimentação de dados até ciência de dados, análises em tempo real, business intelligence e relatórios. Saiba como iniciar uma nova avaliação gratuitamente!

Este artigo fornece sugestões para solucionar problemas comuns com o conector de formato ORC no Azure Data Factory e no Azure Synapse.

Código de erro: OrcJavaInvocationException

  • Mensagem: An error occurred when invoking Java, message: %javaException;.

  • Causas e recomendações: Diferentes causas podem levar a este erro. Confira abaixo a lista para possível análise de causa e recomendação relacionada.

    Análise de causa Recomendação
    Quando a mensagem de erro contém as cadeias de caracteres "java.lang.OutOfMemory", "Java heap space" e "doubleCapacity", geralmente é um problema de gerenciamento de memória em uma versão antiga do tempo de execução da integração. Se você estiver usando o Self-hosted Integration Runtime, recomendamos que atualize para a versão mais recente.
    Quando a mensagem de erro contém a cadeia de caracteres "java.lang.OutOfMemory", o tempo de execução da integração não tem recursos suficientes para processar os arquivos. Limite as execuções simultâneas no tempo de execução da integração. Para IR auto-hospedado, escale para uma máquina poderosa com memória igual ou maior que 8 GB.
    Quando a mensagem de erro contém a cadeia de caracteres "NullPointerReference", a causa pode ser um erro transitório. Repita a operação. Se o problema persistir, contacte o suporte.
    Quando a mensagem de erro contém a cadeia de caracteres "BufferOverflowException", a causa pode ser um erro transitório. Repita a operação. Se o problema persistir, contacte o suporte.
    Quando a mensagem de erro contém a string "java.lang.ClassCastException:org.apache.hadoop.hive.serde2.io.HiveCharWritable can't be cast to org.apache.hadoop.io.Text", a causa pode ser um problema de conversão de tipo dentro do Java Runtime. Normalmente, isso significa que os dados de origem não podem ser bem tratados no Java Runtime. Trata-se de uma questão de dados. Tente usar uma cadeia de caracteres em vez de char ou varchar em dados de formato ORC.

Código de erro: OrcDateTimeExceedLimit

  • Mensagem: The Ticks value '%ticks;' for the datetime column must be between valid datetime ticks range -621355968000000000 and 2534022144000000000.

  • Causa: Se o valor datetime for '0001-01-01 00:00:00', isso pode ser causado pelas diferenças entre o calendário juliano e o calendário gregoriano.

  • Recomendação: Verifique o valor dos ticks e evite usar o valor datetime '0001-01-01 00:00:00'.

Para obter mais ajuda na solução de problemas, tente estes recursos: