Tempo de execução do Databricks 11.3 LTS
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.3 LTS, alimentado pelo Apache Spark 3.3.0. A Databricks lançou esta versão em outubro de 2022.
Nota
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Gorjeta
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
[Mudança de rutura] Nova versão do Python requer atualização de clientes Python Databricks Connect V1
Para aplicar os patches de segurança necessários, a versão Python no Databricks Runtime 11.3 LTS é atualizada de 3.9.5 para 3.9.19. Como essas alterações podem causar erros em clientes que usam funções específicas do PySpark, todos os clientes que usam o Databricks Connect V1 for Python com Databricks Runtime 11.3 LTS devem ser atualizados para Python 3.9.7 ou posterior.
Novos recursos e melhorias
- O gatilho de Streaming estruturado uma vez preterido
- Alterar o caminho de origem do Auto Loader
- O conector Databricks Kinesis agora suporta a leitura de fluxos de dados do Kinesis no modo EFO
- Novas funções geoespaciais H3 e adicionado suporte a fótons para todas as funções H3
- Novos recursos para E/S preditiva
- Aumentando as partições iniciais para procurar consultas seletivas
- Visualização de novas versões do plano AQE
- Novos modos assíncronos de acompanhamento de progresso e limpeza de logs
-
Streaming estruturado no Unity Catalog agora suporta
display()
- Os eventos de pipeline agora são registrados no formato JSON
- Processamento arbitrário com estado em streaming estruturado com Python
- Inferência de data em arquivos CSV
- Suporte de Clonagem para Apache Parquet e Apache Iceberg tables (Visualização Pública)
- Use SQL para especificar locais de armazenamento em nível schemae catalogpara Unity Catalog gerenciado tables
O gatilho de Streaming estruturado uma vez preterido
A Trigger.Once
configuração foi preterida. A Databricks recomenda o uso do Trigger.AvailableNow
. Consulte Configurar intervalos de gatilho de Streaming Estruturado.
Alterar o caminho de origem do Auto Loader
Agora você pode alterar o caminho de entrada do diretório para o Auto Loader configurado com o modo de listagem de diretórios sem having escolher um novo diretório de ponto de verificação. Consulte Alterar o caminho de origem do Auto Loader.
O conector Databricks Kinesis agora suporta a leitura de fluxos de dados do Kinesis no modo EFO
Agora você pode usar a fonte de streaming estruturada do Databricks Kinesis no Databricks Runtime 11.3 LTS para executar consultas lidas de fluxos do Kinesis Data no modo de distribuição avançado. Isso permite uma taxa de transferência dedicada por fragmento, por consumidor e entrega de registros no modo push.
Novas funções geoespaciais H3 e adicionado suporte a fótons para todas as funções H3
Apresentamos 4 novas funções H3, h3_maxchild
, h3_minchild
, h3_pointash3
, e h3_pointash3string
. Essas funções estão disponíveis em SQL, Scala e Python. Todas as expressões H3 agora são suportadas no Photon. Ver funções geoespaciais H3.
Novos recursos para E/S preditiva
Photon suporta o modo de alcance para executar quadros, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
. Photon também suporta o modo de alcance para quadros de crescimento, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }
.
Aumentando as partições iniciais para procurar consultas seletivas
O valor das partições iniciais a serem verificadas foi aumentado para 10 para consulta seletiva com take/tail/limit
clusters habilitados para Photon e LIMIT
Databricks SQL. Com 10 partições, você pode evitar a sobrecarga de iniciar vários trabalhos pequenos e uma expansão lenta. Você também pode configurar isso através do spark.sql.limit.selectiveInitialNumPartitions
.
Visualização de novas versões do plano AQE
Apresentando versões de plano AQE que permitem visualizar as atualizações do plano de tempo de execução a partir da execução de consulta adaptável (AQE).
Novos modos assíncronos de acompanhamento de progresso e limpeza de logs
Introdução aos modos de Streaming Estruturado chamados acompanhamento de progresso assíncrono e limpeza assíncrona de logs. O modo assíncrono de limpeza de logs reduz a latência das consultas de streaming, removendo os logs usados para o acompanhamento do progresso em segundo plano.
Streaming estruturado no Unity Catalog agora suporta display()
Agora você pode usar display()
ao usar o Streaming estruturado para trabalhar com tables registrados no Unity Catalog.
Os eventos de pipeline agora são registrados no formato JSON
O Azure Databricks agora grava eventos de pipeline no log do driver no formato JSON. Embora cada evento seja analisável por JSON, eventos grandes podem não conter todos os campos ou os campos podem ser truncados. Cada evento é registrado em uma única linha com o prefixo Event received:
. Segue-se um exemplo de evento.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Processamento arbitrário com estado em streaming estruturado com Python
Apresentando a applyInPandasWithState
função que pode ser usada para executar processamento stateful arbitrário no PySpark. Isso é equivalente à flatMapGroupsWithState
função na API Java.
Inferência de data em arquivos CSV
Introdução da inferência aprimorada de tipo de data columns em arquivos CSV. Quando o formato de data é consistente entre os registros de um column, esses columns podem ser inferidos como DateType
. Você também pode ter uma combinação de formatos de data em diferentes columns. O Azure Databricks pode inferir automaticamente o formato de data para cada column. Data columns em ficheiros CSV anteriores ao Databricks Runtime 11.3 LTS ficam como StringType
.
Suporte de clonagem para Apache Parquet e Apache Iceberg tables (Visualização pública)
O Clone agora pode ser usado para criar e incrementar a update Delta tables que espelha o Apache Parquet e o Apache Iceberg tables. Você pode update o Parquet de origem table e executar incrementalmente as alterações ao seu Delta clonado table com o comando clone. Veja Incrementally clone Parquet e Iceberg tables para Delta Lake.
Use SQL para especificar locais de armazenamento em nível schemae catalogpara o Unity Catalog gerenciado tables
Agora você pode usar o comando MANAGED LOCATION
SQL para especificar um local de armazenamento em nuvem para tables gerenciados nos níveis catalog e schema. Veja CREATE CATALOG e CREATE SCHEMA.
Alterações de comportamento
Databricks Connect 11.3.2
O cliente Databricks Connect update 11.3.2 agora é suportado. Consulte Notas de versão do Databricks Connect e do Databricks Connect.
Conector Snowflake do Azure Databricks atualizado
O conector Snowflake do Azure Databricks foi atualizado para a versão mais recente do código do repositório de código aberto, Snowflake Data Source for Apache Spark. Agora é totalmente compatível com o Databricks Runtime 11.3 LTS, incluindo pushdown de predicados e pushdown de plano de consulta interno, mantendo todos os recursos da versão de código aberto.
O cache do Hadoop para S3A agora está desativado
O cache Hadoop (FileSystem Apache Hadoop Main 3.3.4 API) para S3A agora está desativado. Isso é para alinhar com outros conectores de armazenamento em nuvem. Para cargas de trabalho que dependem do cache do sistema de arquivos, verifique se os sistemas de arquivos recém-criados são fornecidos com as configurações corretas do Hadoop, incluindo credenciais providers.
A coleta de estatísticas do Delta Lake schema agora corresponde à ordem de column na definição de tableschema.
Essa alteração resolve um bug no protocolo Delta Lake where estatísticas não foram coletadas para columns devido a uma incompatibilidade no DataFrame e na ordem tablecolumn. Em alguns casos, você pode encontrar degradação do desempenho de gravação devido à coleta de estatísticas em campos não rastreados anteriormente. Consulte Pulo de dados para Delta Lake.
applyInPandasWithState lança um erro se a consulta tiver um shuffle após o operador
O operador applyInPandasWithState
lança um erro se a consulta tiver shuffle
depois do operador. Isso acontece quando o usuário adiciona shuffle
após a operação, ou o otimizador ou coletor adiciona shuffle
implicitamente.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- distlib de 0.3.5 a 0.3.6
- Bibliotecas R atualizadas:
- Vassoura de 1.0.0 a 1.0.1
- chamador de 3.7.1 a 3.7.2
- dplyr de 1.0.9 a 1.0.10
- dtplyr de 1.2.1 a 1.2.2
- forcats de 0.5.1 a 0.5.2
- futuro de 1.27.0 a 1.28.0
- future.apply de 1.9.0 a 1.9.1
- Gert de 1.7.0 a 1.8.0
- globais de 0.16.0 a 0.16.1
- gtable de 0.3.0 a 0.3.1
- refúgio de 2.5.0 a 2.5.1
- HMS de 1.1.1 a 1.1.2
- httr de 1.4.3 a 1.4.4
- knitr de 1,39 a 1,40
- Modelador de 0.1.8 a 0.1.9
- pilar de 1.8.0 a 1.8.1
- progredir de 0.10.1 a 0.11.0
- readxl de 1.4.0 a 1.4.1
- reprex de 2.0.1 a 2.0.2
- RLANG de 1.0.4 a 1.0.5
- Rmarkdown de 2,14 para 2,16
- RSQLite de 2.2.15 a 2.2.16
- rstudioapi de 0.13 a 0.14
- Rversões de 2.1.1 para 2.1.2
- rvest de 1.0.2 a 1.0.3
- escalas de 1.2.0 a 1.2.1
- Sparklyr de 1.7.7 a 1.7.8
- stringr de 1.4.0 a 1.4.1
- sobrevida de 3,2-13 a 3,4-0
- tinytex de 0,40 a 0,41
- viridisLite de 0.4.0 a 0.4.1
- Bibliotecas Java atualizadas:
- com.fasterxml.jackson.core.jackson-anotações de 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-core de 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-databind de 2.13.3 a 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.3 a 2.13.4
- org.apache.hadoop.hadoop-client-api de 3.3.2-databricks para 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime de 3.3.2 a 3.3.4
- org.apache.orc.orc-core de 1.7.5 a 1.7.6
- org.apache.orc.orc-mapreduce de 1.7.5 para 1.7.6
- org.apache.orc.orc-shims de 1.7.5 a 1.7.6
- org.apache.parquet.parquet-column de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-comum de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-codificação de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet de 2,34 a 2,36
- org.glassfish.jersey.containers.jersey-container-servlet-core de 2,34 a 2,36
- org.glassfish.jersey.core.jersey-client de 2.34 a 2.36
- org.glassfish.jersey.core.jersey-comum de 2,34 a 2,36
- org.glassfish.jersey.core.jersey-server de 2.34 a 2.36
- org.glassfish.jersey.inject.jersey-hk2 de 2,34 a 2,36
Faísca Apache
O Databricks Runtime 11.3 LTS inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [FAÍSCA-39957] [WARMFIX][SC-111425][CORE] Delay onDesconectado para habilitar Driver recebe ExecutorExitCode
- [FAÍSCA-39955] [WARMFIX][SC-111424][CORE] Melhore o processo LaunchTask para evitar falhas no Stage causadas por mensagens LaunchTask com falha no envio
- [SPARK-40474] [SC-106248][Cherry-Pick] Corrija o comportamento de inferência CSV schema para columns datetime e introduza a deteção automática para campos Date
- [FAÍSCA-40535] [SC-111243][SQL] Corrigir bug: o buffer de AggregatingAccumulator não será criado se as linhas de entrada estiverem vazias
- [FAÍSCA-40434] [SC-111125][SC-111144][SC-111138][FAÍSCA-40435][11.3][SS][PYTHON] Implementar applyInPandasWithState no PySpark
-
[FAÍSCA-40460] [SC-110832][SS] Corrigir métricas de streaming ao selecionar
_metadata
-
[FAÍSCA-40324] [SC-109943][SQL] Fornecer um contexto de consulta de
ParseException
- [FAÍSCA-40466] [SC-110899][SS] Melhorar a mensagem de erro quando o DSv2 está desativado enquanto o DSv1 não está disponível
- [FAÍSCA-40456] [SC-110848][SQL] PartitionIterator.hasNext deve ser barato para chamar repetidamente
- [SPARK-40169] [SC-110772][SQL] Não aplicar filtros Parquet sem referência aos dados schema
- [FAÍSCA-40467] [SC-110759][SS] Dividir FlatMapGroupsWithState em vários pacotes de teste
- [SPARK-40468] [SC-110813][SQL] Corrigir column filtragem em CSV quando _corrupt_record é selecionada
- [SPARK-40291] [SC-110085][SQL] Melhorar a mensagem para column não estão no grupo por erro de cláusula
- [FAÍSCA-40398] [SC-110762][CORE][SQL] Use Loop em vez da api Arrays.stream
- [FAÍSCA-40433] [SC-110684][SS][PYTHON] Adicione toJVMRow em PythonSQLUtils para converter PySpark Row em pickled para JVM Row
- [FAÍSCA-40414] [SC-110568][SQL][PYTHON] Tipo mais genérico em PythonArrowInput e PythonArrowOutput
- [FAÍSCA-40352] [SC-109945][SQL] Adicionar aliases de função: len, datepart, dateadd, date_diff e curdate
- [FAÍSCA-40470] [SC-110761][SQL] Manipule GetArrayStructFields e GetMapValue na função "arrays_zip"
- [FAÍSCA-40387] [SC-110685][SQL] Melhorar a implementação do Spark Decimal
- [SPARK-40429] [SC-110675][SQL] Somente set KeyGroupedPartitioning quando o column referenciado estiver na saída
- [FAÍSCA-40432] [SC-110716][SS][PYTHON] Introduza GroupStateImpl e GroupStateTimeout no PySpark
- [FAÍSCA-39915] [SC-110496][SQL] Verifique se o particionamento de saída é especificado pelo usuário no AQE
-
[FAÍSCA-29260] [SQL] Suporte
ALTER DATABASE SET LOCATION
se HMS suporta - [SPARK-40185] [SC-110056][SQL] Removecolumn sugestão quando o list candidato estiver vazio
- [FAÍSCA-40362] [SC-110401][SQL] Corrigir canonicalização BinaryComparison
- [FAÍSCA-40411] [SC-110381][SS] Refatore FlatMapGroupsWithStateExec para ter uma característica pai
- [SPARK-40293] [SC-110084][SQL] Tornar a mensagem de erro V2 table mais significativa
-
[SPARK-38734] [SC-110383][SQL] Remove a classe de erro
INDEX_OUT_OF_BOUNDS
- [SPARK-40292] [SC-110300][SQL] Corrigir nomes de column na função "arrays_zip" quando vetores são referenciados em estruturas aninhadas.
- [FAÍSCA-40276] [SC-109674][CORE] Reduza o tamanho do resultado de RDD.takeOrdered
- [FAÍSCA-40197] [SC-109176][SQL] Substitua o plano de consulta pelo contexto para MULTI_VALUE_SUBQUERY_ERROR
-
[FAÍSCA-40300] [SC-109942][SQL] Migrar para a classe de
DATATYPE_MISMATCH
erro - [SPARK-40149] [SC-110055][SQL] Propagar metadados columns através do Project
- [FAÍSCA-40280] [SC-110146][SQL] Adicione suporte para pressão de parquet para baixo para anotado int e long
- [SPARK-40220] [SC-110143][SC-109175][SQL] Não produza o mapa vazio da mensagem de erro parameters
- [FAÍSCA-40295] [SC-110070][SQL] Permitir funções v2 com args literais na distribuição/ordenação de escrita
-
[FAÍSCA-40156] [SC-109264][SQL]
url_decode()
se o retornar uma classe de erro - [FAÍSCA-39195] [SQL] Spark OutputCommitCoordinator deve abortar o estágio quando o arquivo confirmado não é consistente com o status da tarefa
- [SPARK-40260] [SC-109424][SQL] Usar classes de erro nos erros de compilação de GROUP BY uma posição
- [FAÍSCA-40205] [SC-110144][SC-109082][SQL] Fornecer um contexto de consulta de ELEMENT_AT_BY_INDEX_ZERO
- [FAÍSCA-40112] [SC-109676][SQL] Melhorar a função TO_BINARY()
-
[FAÍSCA-40209] [SC-109081][SQL] Não altere o valor do intervalo decimal em
changePrecision()
erros - [SPARK-40319] [SC-109873][SQL] Remove método de erro de execução de consulta duplicado para PARSE_DATETIME_BY_NEW_PARSER
- [FAÍSCA-40222] [SC-109209][SQL] Numéricos try_add/try_divide/try_subtract/try_multiply devem lançar erro de seus filhos
- [FAÍSCA-40183] [SC-108907][SQL] Usar NUMERIC_VALUE_OUT_OF_RANGE de classe de erro para estouro na conversão decimal
-
[FAÍSCA-40180] [SC-109069][SQL] Formatar mensagens de erro por
spark-sql
- [SPARK-40153] [SC-109165][SQL] Unifique funções de resolução e funções com valor table
-
[FAÍSCA-40308] [SC-109880][SQL] Permitir que argumentos de delimitador não dobráveis funcionem
str_to_map
- [SPARK-40219] [SC-110052][SC-109663][SQL] O plano lógico de exibição resolvido deve conter o schema para evitar pesquisas redundantes
- [FAÍSCA-40098] [SC-109939][SC-108693][SQL] Formatar mensagens de erro no Thrift Server
- [FAÍSCA-39917] [SC-109038][SQL] Usar classes de erro diferentes para estouro aritmético numérico/intervalar
- [SPARK-40033] [SC-109875][SQL] Suporte de poda aninhada de schema através de element_at
- [FAÍSCA-40194] [SC-109660][SQL] A função SPLIT no regex vazio deve truncar a cadeia de caracteres vazia à direita.
- [FAÍSCA-40228] [SC-109835][SQL] Não simplifique multiLike se criança não é uma expressão barata
- [FAÍSCA-40039] [SC-109896][SC-109260][SS] Apresentando um gerenciador de arquivos de ponto de verificação de streaming baseado na interface Abortable do Hadoop
-
[FAÍSCA-40285] [SC-109679][SQL] Simplifique o
roundTo[Numeric]
para o SparkDecimal
- [FAÍSCA-39896] [SC-109658][SQL] UnwrapCastInBinaryComparison deve funcionar quando o literal de In/InSet downcast falhou
- [SPARK-40040] [SC-109662][SQL] Envie limit locais para ambos os lados se a condição join estiver vazia
- [FAÍSCA-40055] [SC-109075][SQL] listCatalogs também deve retornar spark_catalog mesmo quando spark_catalog implementação é defaultSessionCatalog
- [FAÍSCA-39915] [SC-109391][SQL] Dataset.repartition(N) não pode criar partições N parte não-AQE
- [SPARK-40207] [SC-109401][SQL] Especifique o nome do column quando o tipo de dados não for suportado pela fonte de dados
- [SPARK-40245] [SC-109295][SQL] Corrigir a verificação de igualdade do FileScan quando partition ou o filtro de dados columns não são lidos
- [FAÍSCA-40113] [SC-109405][SQL] Implementações de interface DataSourceV2 do Reator ParquetScanBuilder
- [FAÍSCA-40211] [SC-109226][CORE][SQL] Permitir personalizar o número de partições iniciais no comportamento take()
-
[FAÍSCA-40252] [SC-109379][SQL] Substituir
Stream.collect(Collectors.joining)
porStringJoiner
Api - [FAÍSCA-40247] [SC-109272][SQL] Corrigir verificação de igualdade BitSet
- [SPARK-40067] [SQL] Use Table#name() em vez de Scan#name() para preencher o nome do table no nó BatchScan no SparkUI
- [FAÍSCA-39966] [SQL] Usar filtro V2 em SupportsDelete
- [FAÍSCA-39607] [SC-109268][SQL][DSV2] Suporte de distribuição e encomenda V2 função por escrito
- [FAÍSCA-40224] [SC-109271][SQL] Faça com que o ObjectHashAggregateExec libere memória ansiosamente quando o fallback for baseado em classificação
-
[FAÍSCA-40013] [SQL] As expressões DS V2 devem ter o padrão
toString
- [SPARK-40214] [SC-109079][PYTHON][SQL] adicionar 'get' às funções
- [SPARK-40192] [SC-109089][SQL][ML] Remove agrupamento redundante
- [FAÍSCA-40146] [SC-108694][SQL] Simplesmente o codegen de obter valor de mapa
- [SPARK-40109] [SQL] Nova função SQL: get()
- [FAÍSCA-39929] [SQL] DS V2 suporta funções push down string (não ANSI)
- [FAÍSCA-39819] [SQL] DS V2 aggregate push down pode funcionar com Top N ou Paging (Classificar com expressões)
- [FAÍSCA-40213] [SC-109077][SQL] Suporta conversão de valor ASCII para caracteres latino-1
- [FAÍSCA-39887] [SQL] RemoveRedundantAliases deve manter aliases que tornam a saída dos nós de projeção exclusiva
- [FAÍSCA-39764] [SQL] Torne o PhysicalOperation igual ao ScanOperation
- [FAÍSCA-39964] [SQL] O pushdown DS V2 deve unificar o caminho de tradução
- [FAÍSCA-39528] [SQL] Usar filtro V2 em SupportsRuntimeFiltering
- [SPARK-40066] [SQL] Modo ANSI: sempre retorne null no acesso inválido ao column do mapa
- [FAÍSCA-39912] [FAÍSCA-39828][SQL] Refinar CatalogImpl
- [SPARK-39833] [SC-108736][SQL] Desative o índice de column do Parquet no DSv1 para corrigir um problema de correção no caso de sobreposição de partition e columns de dados
- comando [SPARK-39880] [SQL] V2 SHOW FUNCTIONS deve imprimir o nome da função qualificada como v1
- [SPARK-39767] [SQL] Remove UnresolvedDBObjectName e adicione UnresolvedIdentifier
- [FAÍSCA-40163] [SC-108740][SQL] feat: SparkSession.config(Mapa)
- [FAÍSCA-40136] [SQL] Corrigir o fragmento de contextos de consulta SQL
- [FAÍSCA-40107] [SC-108689][SQL] Retirar a conversão empty2null de FileFormatWriter
- [FAÍSCA-40121] [PYTHON][SQL] Inicializar projeção usada para Python UDF
- [SPARK-40128] [SQL] Faça com que o VectorizedColumnReader reconheça DELTA_LENGTH_BYTE_ARRAY como uma codificação column autônoma
- [SPARK-40132] [ML] Restore rawPredictionCol em MultilayerPerceptronClassifier.setParams
-
[FAÍSCA-40050] [SC-108696][SQL] Melhorar
EliminateSorts
para suportar a remoção de ordenações através deLocalLimit
- [SPARK-39629] Suporte [SQL] v2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][SQL] Adicionar sobrecarga array_sort(column, comparador) às operações do DataFrame
- [FAÍSCA-40117] [PYTHON][SQL] Converter condição em java em DataFrameWriterV2.overwrite
- [FAÍSCA-40105] [SQL] Melhorar a repartição em ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Adicionar nome de catalog de sessão para table e função do banco de dados v1
- [FAÍSCA-39889] [SQL] Use classes de erro diferentes para numérico/intervalo dividido por 0
- [FAÍSCA-39741] [SQL] Suporte url encode/decode como função integrada e arrumar funções relacionadas a url
- [FAÍSCA-40102] [SQL] Use SparkException em vez de IllegalStateException no SparkPlan
- [FAÍSCA-40014] [SQL] Suporte a conversão de decimais para intervalos ANSI
- [SPARK-39776] [SQL][FOLLOW] Update Testes Unitários do PlanStabilitySuite no modo ANSI
-
[FAÍSCA-39963] [SQL] Simplifique
SimplifyCasts.isWiderCast
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 11.3.
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.5 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Escala: 2.12.14
- Píton: 3.9.19
- R: 4.1.3
- Lago Delta: 2.1.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
Argônio2-CFFI | 20.1.0 | gerador assíncrono | 1.10 | ATRs | 21.2.0 |
Backcall | 0.2.0 | backports.pontos de entrada-selecionáveis | 1.1.1 | preto | 22.3.0 |
lixívia | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
Normalizador de Charset | 2.0.4 | clicar | 8.0.3 | criptografia | 3.4.8 |
cycler | 0.10.0 | Quisto | 0.29.24 | dbus-python | 1.2.16 |
depuração | 1.4.1 | decorador | 5.1.0 | DeUsedXML | 0.7.1 |
Distlib | 0.3.6 | pontos de entrada | 0.3 | facetas-visão geral | 1.0.0 |
filelock | 3.8.0 | idna | 3.2 | Ipykernel | 6.12.1 |
ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
Joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-cliente | 6.1.12 |
Jupyter-core | 4.8.1 | Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
Kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
matplotlib-em linha | 0.1.2 | Mistune | 0.8.4 | mypy-extensões | 0.4.3 |
nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
Ninho-Asyncio | 1.5.1 | bloco de notas | 6.4.5 | numpy | 1.20.3 |
embalagem | 21.0 | pandas | 1.3.4 | PandocFilters | 1.4.3 |
Parso | 0.8.2 | PathSpec | 0.9.0 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Travesseiro | 8.4.0 |
pip | 21.2.4 | plataformadirs | 2.5.2 | enredo | 5.9.0 |
Prometheus-cliente | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 4.21.5 |
PSUTIL | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | Pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pirsistent | 0.18.0 | python-dateutil | 2.8.2 | pytz | 2021.3 |
Pyzmq | 22.2.1 | pedidos | 2.26.0 | pedidos-unixsocket | 0.2.0 |
s3transferir | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Enviar2Lixo | 1.8.0 | setuptools | 58.0.4 |
seis | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
tenacidade | 8.0.1 | terminado | 0.9.4 | caminho de teste | 0.5.0 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.1 | traços | 5.1.0 | extensões de digitação | 3.10.0.2 |
Upgrades autônomos | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
largura de wc | 0.2.5 | WebEncodings | 0.5.1 | roda | 0.37.0 |
widgetsnbextension | 3.6.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-09-08.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
AskPass | 1.1 | asserçãoat | 0.2.1 | backports | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | arranque | 1.3-28 |
brew | 1.0-7 | Brio | 1.1.3 | vassoura | 1.0.1 |
BSLIB | 0.4.0 | cachem | 1.0.6 | Chamador | 3.7.2 |
acento circunflexo | 6.0-93 | Cellranger | 1.1.0 | crono | 2.3-57 |
classe | 7.3-20 | cli | 3.3.0 | Clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | espaço em cores | 2.0-3 |
marca comum | 1.8.0 | compilador | 4.1.3 | configuração | 0.3.1 |
CPP11 | 0.4.2 | lápis de cor | 1.5.1 | credentials | 1.3.2 |
curl | 4.3.2 | dados.table | 1.14.2 | conjuntos de dados | 4.1.3 |
DBI | 1.1.3 | DBPlyr | 2.2.1 | desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | resumo | 0.6.29 |
Iluminação reduzida | 0.4.2 | dplyr | 1.0.10 | DTPlyr | 1.2.2 |
E1071 | 1.7-11 | reticências | 0.3.2 | evaluate | 0,16 |
Fãsi | 1.0.3 | Farver | 2.1.1 | mapa rápido | 1.1.0 |
fontawesome | 0.3.0 | FORCATS | 0.5.2 | foreach | 1.5.2 |
externa | 0.8-82 | forjar | 0.2.0 | FS | 1.5.2 |
Futuro | 1.28.0 | future.apply | 1.9.1 | gargarejo | 1.2.0 |
Genéricos | 0.1.3 | Gert | 1.8.0 | ggplot2 | 3.3.6 |
GH | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
Globais | 0.16.1 | colar | 1.6.2 | GoogleDrive | 2.0.0 |
googlesheets4 | 1.0.1 | gower | 1.0.0 | gráficos | 4.1.3 |
grDevices | 4.1.3 | grelha | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0.7 | gtable | 0.3.1 | capacete | 1.2.0 |
Refúgio | 2.5.1 | mais alto | 0,9 | HMS | 1.1.2 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.4 | IDs | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | Isoband | 0.2.5 | iteradores | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
Knitr | 1.40 | etiquetagem | 0.4.2 | mais tarde | 1.3.0 |
lattice | 0.20-45 | lava | 1.6.10 | ciclo de vida | 1.0.1 |
ouvirv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
Marcação | 1.1 | MASSA | 7.3-56 | Matriz | 1.4-1 |
memoise | 2.0.1 | métodos | 4.1.3 | mgcv | 1.8-40 |
mime | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
Modelador | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
paralelo | 4.1.3 | Paralelamente | 1.32.1 | pilar | 1.8.1 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
elogiar | 1.0.0 | unidades bonitas | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | Profvis | 0.3.7 |
Progresso | 1.2.2 | progressor | 0.11.0 | promessas | 1.2.0.1 |
proto | 1.0.0 | procuração | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
RAGG | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | Leitor | 2.1.2 | ReadXL | 1.4.1 |
receitas | 1.0.1 | revanche | 1.0.1 | revanche2 | 2.1.2 |
Controles remotos | 2.4.2 | Reprex | 2.0.2 | remodelar2 | 1.4.4 |
rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0.14 |
rversões | 2.1.2 | Rvest | 1.0.3 | Sass | 0.4.2 |
escalas | 1.2.1 | seletor | 0.4-2 | sessioninfo | 1.2.2 |
forma | 1.4.6 | brilhante | 1.7.2 | ferramentas de origem | 0.1.7 |
sparklyr | 1.7.8 | SparkR | 3.3.0 | espacial | 7.3-11 |
splines | 4.1.3 | sqldf | 0.4-11 | QUADRADO | 2021.1 |
estatísticas | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.1 | sobrevivência | 3.4-0 | sys | 3.4 |
fontes do sistema | 1.0.4 | tcltk | 4.1.3 | testeatat | 3.1.4 |
formatação de texto | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | Tidyverse | 1.3.2 | timeDate | 4021.104 |
Tinytex | 0.41 | ferramentas | 4.1.3 | TZDB | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utilitários | 4.1.3 | uuid | 1.1-0 | VCTRS | 0.4.1 |
viridisLite | 0.4.1 | vroom | 1.5.7 | Waldo | 0.4.0 |
whisker | 0.4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | transmissão em fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | sombreado de kryo | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotações | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.13.4 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | núcleo | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-nativos | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | ZSTD-JNI | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | criador de perfil | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | Lapack | | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.ponte aérea | compressor de ar | 0.21 |
IO.Delta | delta-compartilhamento-spark_2.12 | 0.5.1 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | métricas-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-comum | 4.1.74.Final |
io.netty | netty-manipulador | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | transporte de rede | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-nativo-unix-comum | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recoletor | 0.12.0 |
jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
jacarta.servlet | jacarta.servlet-api | 4.0.3 |
jacarta.validação | Jacarta.validation-api | 2.0.2 |
jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
javax.activation | ativação | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | picles | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
net.floco de neve | Flocos de Neve-JDBC | 3.13.14 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato de seta | 7.0.0 |
org.apache.arrow | seta-memória-núcleo | 7.0.0 |
org.apache.arrow | seta-memória-netty | 7.0.0 |
org.apache.arrow | vetor de seta | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapeado | 1.11.0 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.9 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | curador-framework | 2.13.0 |
org.apache.curator | curador-receitas | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-DATABRICKS |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-cliente | 2.3.9 |
org.apache.hive | colmeia-lamp-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | hera | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
org.apache.orc | orc-núcleo | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | Orc-calços | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-common | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-encoding | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-formato-estruturas | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-hadoop | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-jackson | 1.12.0-DATABRICKS-0007 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.20 |
org.apache.yetus | anotações de audiência | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | verificador-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | cais-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | servidor de jersey | 2.36 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | LZ4-Java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | MLFLOW-Faísca | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | calços | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
org.scala-lang | Escala-library_2.12 | 2.12.14 |
org.scala-lang | Escala-reflect_2,12 | 2.12.14 |
org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | Brisa-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.threeten | trêsdez-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | gatos-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | torre-macros_2.12 | 0.17.0 |
org.typelevel | torre-platform_2.12 | 0.17.0 |
org.typelevel | torre-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | mosca-selvagem-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |