Partilhar via


Tempo de execução do Databricks 11.3 LTS

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.3 LTS, alimentado pelo Apache Spark 3.3.0. A Databricks lançou esta versão em outubro de 2022.

Nota

LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.

Gorjeta

Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.

Mudanças comportamentais

[Mudança de rutura] Nova versão do Python requer atualização de clientes Python Databricks Connect V1

Para aplicar os patches de segurança necessários, a versão Python no Databricks Runtime 11.3 LTS é atualizada de 3.9.5 para 3.9.19. Como essas alterações podem causar erros em clientes que usam funções específicas do PySpark, todos os clientes que usam o Databricks Connect V1 for Python com Databricks Runtime 11.3 LTS devem ser atualizados para Python 3.9.7 ou posterior.

Novos recursos e melhorias

O gatilho de Streaming estruturado uma vez preterido

A Trigger.Once configuração foi preterida. A Databricks recomenda o uso do Trigger.AvailableNow. Consulte Configurar intervalos de gatilho de Streaming Estruturado.

Alterar o caminho de origem do Auto Loader

Agora você pode alterar o caminho de entrada do diretório para o Auto Loader configurado com o modo de listagem de diretórios sem having escolher um novo diretório de ponto de verificação. Consulte Alterar o caminho de origem do Auto Loader.

O conector Databricks Kinesis agora suporta a leitura de fluxos de dados do Kinesis no modo EFO

Agora você pode usar a fonte de streaming estruturada do Databricks Kinesis no Databricks Runtime 11.3 LTS para executar consultas lidas de fluxos do Kinesis Data no modo de distribuição avançado. Isso permite uma taxa de transferência dedicada por fragmento, por consumidor e entrega de registros no modo push.

Novas funções geoespaciais H3 e adicionado suporte a fótons para todas as funções H3

Apresentamos 4 novas funções H3, h3_maxchild, h3_minchild, h3_pointash3, e h3_pointash3string. Essas funções estão disponíveis em SQL, Scala e Python. Todas as expressões H3 agora são suportadas no Photon. Ver funções geoespaciais H3.

Novos recursos para E/S preditiva

Photon suporta o modo de alcance para executar quadros, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Photon também suporta o modo de alcance para quadros de crescimento, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.

Aumentando as partições iniciais para procurar consultas seletivas

O valor das partições iniciais a serem verificadas foi aumentado para 10 para consulta seletiva com take/tail/limit clusters habilitados para Photon e LIMIT Databricks SQL. Com 10 partições, você pode evitar a sobrecarga de iniciar vários trabalhos pequenos e uma expansão lenta. Você também pode configurar isso através do spark.sql.limit.selectiveInitialNumPartitions.

Visualização de novas versões do plano AQE

Apresentando versões de plano AQE que permitem visualizar as atualizações do plano de tempo de execução a partir da execução de consulta adaptável (AQE).

Novos modos assíncronos de acompanhamento de progresso e limpeza de logs

Introdução aos modos de Streaming Estruturado chamados acompanhamento de progresso assíncrono e limpeza assíncrona de logs. O modo assíncrono de limpeza de logs reduz a latência das consultas de streaming, removendo os logs usados para o acompanhamento do progresso em segundo plano.

Streaming estruturado no Unity Catalog agora suporta display()

Agora você pode usar display() ao usar o Streaming estruturado para trabalhar com tables registrados no Unity Catalog.

Os eventos de pipeline agora são registrados no formato JSON

O Azure Databricks agora grava eventos de pipeline no log do driver no formato JSON. Embora cada evento seja analisável por JSON, eventos grandes podem não conter todos os campos ou os campos podem ser truncados. Cada evento é registrado em uma única linha com o prefixo Event received: . Segue-se um exemplo de evento.

Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}

Processamento arbitrário com estado em streaming estruturado com Python

Apresentando a applyInPandasWithState função que pode ser usada para executar processamento stateful arbitrário no PySpark. Isso é equivalente à flatMapGroupsWithState função na API Java.

Inferência de data em arquivos CSV

Introdução da inferência aprimorada de tipo de data columns em arquivos CSV. Quando o formato de data é consistente entre os registros de um column, esses columns podem ser inferidos como DateType. Você também pode ter uma combinação de formatos de data em diferentes columns. O Azure Databricks pode inferir automaticamente o formato de data para cada column. Data columns em ficheiros CSV anteriores ao Databricks Runtime 11.3 LTS ficam como StringType.

Suporte de clonagem para Apache Parquet e Apache Iceberg tables (Visualização pública)

O Clone agora pode ser usado para criar e incrementar a update Delta tables que espelha o Apache Parquet e o Apache Iceberg tables. Você pode update o Parquet de origem table e executar incrementalmente as alterações ao seu Delta clonado table com o comando clone. Veja Incrementally clone Parquet e Iceberg tables para Delta Lake.

Use SQL para especificar locais de armazenamento em nível schemae catalogpara o Unity Catalog gerenciado tables

Agora você pode usar o comando MANAGED LOCATION SQL para especificar um local de armazenamento em nuvem para tables gerenciados nos níveis catalog e schema. Veja CREATE CATALOG e CREATE SCHEMA.

Alterações de comportamento

Databricks Connect 11.3.2

O cliente Databricks Connect update 11.3.2 agora é suportado. Consulte Notas de versão do Databricks Connect e do Databricks Connect.

Conector Snowflake do Azure Databricks atualizado

O conector Snowflake do Azure Databricks foi atualizado para a versão mais recente do código do repositório de código aberto, Snowflake Data Source for Apache Spark. Agora é totalmente compatível com o Databricks Runtime 11.3 LTS, incluindo pushdown de predicados e pushdown de plano de consulta interno, mantendo todos os recursos da versão de código aberto.

O cache do Hadoop para S3A agora está desativado

O cache Hadoop (FileSystem Apache Hadoop Main 3.3.4 API) para S3A agora está desativado. Isso é para alinhar com outros conectores de armazenamento em nuvem. Para cargas de trabalho que dependem do cache do sistema de arquivos, verifique se os sistemas de arquivos recém-criados são fornecidos com as configurações corretas do Hadoop, incluindo credenciais providers.

A coleta de estatísticas do Delta Lake schema agora corresponde à ordem de column na definição de tableschema.

Essa alteração resolve um bug no protocolo Delta Lake where estatísticas não foram coletadas para columns devido a uma incompatibilidade no DataFrame e na ordem tablecolumn. Em alguns casos, você pode encontrar degradação do desempenho de gravação devido à coleta de estatísticas em campos não rastreados anteriormente. Consulte Pulo de dados para Delta Lake.

applyInPandasWithState lança um erro se a consulta tiver um shuffle após o operador

O operador applyInPandasWithState lança um erro se a consulta tiver shuffle depois do operador. Isso acontece quando o usuário adiciona shuffle após a operação, ou o otimizador ou coletor adiciona shuffle implicitamente.

Atualizações da biblioteca

  • Bibliotecas Python atualizadas:
    • distlib de 0.3.5 a 0.3.6
  • Bibliotecas R atualizadas:
    • Vassoura de 1.0.0 a 1.0.1
    • chamador de 3.7.1 a 3.7.2
    • dplyr de 1.0.9 a 1.0.10
    • dtplyr de 1.2.1 a 1.2.2
    • forcats de 0.5.1 a 0.5.2
    • futuro de 1.27.0 a 1.28.0
    • future.apply de 1.9.0 a 1.9.1
    • Gert de 1.7.0 a 1.8.0
    • globais de 0.16.0 a 0.16.1
    • gtable de 0.3.0 a 0.3.1
    • refúgio de 2.5.0 a 2.5.1
    • HMS de 1.1.1 a 1.1.2
    • httr de 1.4.3 a 1.4.4
    • knitr de 1,39 a 1,40
    • Modelador de 0.1.8 a 0.1.9
    • pilar de 1.8.0 a 1.8.1
    • progredir de 0.10.1 a 0.11.0
    • readxl de 1.4.0 a 1.4.1
    • reprex de 2.0.1 a 2.0.2
    • RLANG de 1.0.4 a 1.0.5
    • Rmarkdown de 2,14 para 2,16
    • RSQLite de 2.2.15 a 2.2.16
    • rstudioapi de 0.13 a 0.14
    • Rversões de 2.1.1 para 2.1.2
    • rvest de 1.0.2 a 1.0.3
    • escalas de 1.2.0 a 1.2.1
    • Sparklyr de 1.7.7 a 1.7.8
    • stringr de 1.4.0 a 1.4.1
    • sobrevida de 3,2-13 a 3,4-0
    • tinytex de 0,40 a 0,41
    • viridisLite de 0.4.0 a 0.4.1
  • Bibliotecas Java atualizadas:
    • com.fasterxml.jackson.core.jackson-anotações de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-core de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.core.jackson-databind de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.3 a 2.13.4
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.3 a 2.13.4
    • org.apache.hadoop.hadoop-client-api de 3.3.2-databricks para 3.3.4-databricks
    • org.apache.hadoop.hadoop-client-runtime de 3.3.2 a 3.3.4
    • org.apache.orc.orc-core de 1.7.5 a 1.7.6
    • org.apache.orc.orc-mapreduce de 1.7.5 para 1.7.6
    • org.apache.orc.orc-shims de 1.7.5 a 1.7.6
    • org.apache.parquet.parquet-column de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-comum de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-codificação de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-format-structures de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-hadoop de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.apache.parquet.parquet-jackson de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
    • org.glassfish.jersey.containers.jersey-container-servlet de 2,34 a 2,36
    • org.glassfish.jersey.containers.jersey-container-servlet-core de 2,34 a 2,36
    • org.glassfish.jersey.core.jersey-client de 2.34 a 2.36
    • org.glassfish.jersey.core.jersey-comum de 2,34 a 2,36
    • org.glassfish.jersey.core.jersey-server de 2.34 a 2.36
    • org.glassfish.jersey.inject.jersey-hk2 de 2,34 a 2,36

Faísca Apache

O Databricks Runtime 11.3 LTS inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [FAÍSCA-39957] [WARMFIX][SC-111425][CORE] Delay onDesconectado para habilitar Driver recebe ExecutorExitCode
  • [FAÍSCA-39955] [WARMFIX][SC-111424][CORE] Melhore o processo LaunchTask para evitar falhas no Stage causadas por mensagens LaunchTask com falha no envio
  • [SPARK-40474] [SC-106248][Cherry-Pick] Corrija o comportamento de inferência CSV schema para columns datetime e introduza a deteção automática para campos Date
  • [FAÍSCA-40535] [SC-111243][SQL] Corrigir bug: o buffer de AggregatingAccumulator não será criado se as linhas de entrada estiverem vazias
  • [FAÍSCA-40434] [SC-111125][SC-111144][SC-111138][FAÍSCA-40435][11.3][SS][PYTHON] Implementar applyInPandasWithState no PySpark
  • [FAÍSCA-40460] [SC-110832][SS] Corrigir métricas de streaming ao selecionar _metadata
  • [FAÍSCA-40324] [SC-109943][SQL] Fornecer um contexto de consulta de ParseException
  • [FAÍSCA-40466] [SC-110899][SS] Melhorar a mensagem de erro quando o DSv2 está desativado enquanto o DSv1 não está disponível
  • [FAÍSCA-40456] [SC-110848][SQL] PartitionIterator.hasNext deve ser barato para chamar repetidamente
  • [SPARK-40169] [SC-110772][SQL] Não aplicar filtros Parquet sem referência aos dados schema
  • [FAÍSCA-40467] [SC-110759][SS] Dividir FlatMapGroupsWithState em vários pacotes de teste
  • [SPARK-40468] [SC-110813][SQL] Corrigir column filtragem em CSV quando _corrupt_record é selecionada
  • [SPARK-40291] [SC-110085][SQL] Melhorar a mensagem para column não estão no grupo por erro de cláusula
  • [FAÍSCA-40398] [SC-110762][CORE][SQL] Use Loop em vez da api Arrays.stream
  • [FAÍSCA-40433] [SC-110684][SS][PYTHON] Adicione toJVMRow em PythonSQLUtils para converter PySpark Row em pickled para JVM Row
  • [FAÍSCA-40414] [SC-110568][SQL][PYTHON] Tipo mais genérico em PythonArrowInput e PythonArrowOutput
  • [FAÍSCA-40352] [SC-109945][SQL] Adicionar aliases de função: len, datepart, dateadd, date_diff e curdate
  • [FAÍSCA-40470] [SC-110761][SQL] Manipule GetArrayStructFields e GetMapValue na função "arrays_zip"
  • [FAÍSCA-40387] [SC-110685][SQL] Melhorar a implementação do Spark Decimal
  • [SPARK-40429] [SC-110675][SQL] Somente set KeyGroupedPartitioning quando o column referenciado estiver na saída
  • [FAÍSCA-40432] [SC-110716][SS][PYTHON] Introduza GroupStateImpl e GroupStateTimeout no PySpark
  • [FAÍSCA-39915] [SC-110496][SQL] Verifique se o particionamento de saída é especificado pelo usuário no AQE
  • [FAÍSCA-29260] [SQL] Suporte ALTER DATABASE SET LOCATION se HMS suporta
  • [SPARK-40185] [SC-110056][SQL] Removecolumn sugestão quando o list candidato estiver vazio
  • [FAÍSCA-40362] [SC-110401][SQL] Corrigir canonicalização BinaryComparison
  • [FAÍSCA-40411] [SC-110381][SS] Refatore FlatMapGroupsWithStateExec para ter uma característica pai
  • [SPARK-40293] [SC-110084][SQL] Tornar a mensagem de erro V2 table mais significativa
  • [SPARK-38734] [SC-110383][SQL] Remove a classe de erro INDEX_OUT_OF_BOUNDS
  • [SPARK-40292] [SC-110300][SQL] Corrigir nomes de column na função "arrays_zip" quando vetores são referenciados em estruturas aninhadas.
  • [FAÍSCA-40276] [SC-109674][CORE] Reduza o tamanho do resultado de RDD.takeOrdered
  • [FAÍSCA-40197] [SC-109176][SQL] Substitua o plano de consulta pelo contexto para MULTI_VALUE_SUBQUERY_ERROR
  • [FAÍSCA-40300] [SC-109942][SQL] Migrar para a classe de DATATYPE_MISMATCH erro
  • [SPARK-40149] [SC-110055][SQL] Propagar metadados columns através do Project
  • [FAÍSCA-40280] [SC-110146][SQL] Adicione suporte para pressão de parquet para baixo para anotado int e long
  • [SPARK-40220] [SC-110143][SC-109175][SQL] Não produza o mapa vazio da mensagem de erro parameters
  • [FAÍSCA-40295] [SC-110070][SQL] Permitir funções v2 com args literais na distribuição/ordenação de escrita
  • [FAÍSCA-40156] [SC-109264][SQL] url_decode() se o retornar uma classe de erro
  • [FAÍSCA-39195] [SQL] Spark OutputCommitCoordinator deve abortar o estágio quando o arquivo confirmado não é consistente com o status da tarefa
  • [SPARK-40260] [SC-109424][SQL] Usar classes de erro nos erros de compilação de GROUP BY uma posição
  • [FAÍSCA-40205] [SC-110144][SC-109082][SQL] Fornecer um contexto de consulta de ELEMENT_AT_BY_INDEX_ZERO
  • [FAÍSCA-40112] [SC-109676][SQL] Melhorar a função TO_BINARY()
  • [FAÍSCA-40209] [SC-109081][SQL] Não altere o valor do intervalo decimal em changePrecision() erros
  • [SPARK-40319] [SC-109873][SQL] Remove método de erro de execução de consulta duplicado para PARSE_DATETIME_BY_NEW_PARSER
  • [FAÍSCA-40222] [SC-109209][SQL] Numéricos try_add/try_divide/try_subtract/try_multiply devem lançar erro de seus filhos
  • [FAÍSCA-40183] [SC-108907][SQL] Usar NUMERIC_VALUE_OUT_OF_RANGE de classe de erro para estouro na conversão decimal
  • [FAÍSCA-40180] [SC-109069][SQL] Formatar mensagens de erro por spark-sql
  • [SPARK-40153] [SC-109165][SQL] Unifique funções de resolução e funções com valor table
  • [FAÍSCA-40308] [SC-109880][SQL] Permitir que argumentos de delimitador não dobráveis funcionem str_to_map
  • [SPARK-40219] [SC-110052][SC-109663][SQL] O plano lógico de exibição resolvido deve conter o schema para evitar pesquisas redundantes
  • [FAÍSCA-40098] [SC-109939][SC-108693][SQL] Formatar mensagens de erro no Thrift Server
  • [FAÍSCA-39917] [SC-109038][SQL] Usar classes de erro diferentes para estouro aritmético numérico/intervalar
  • [SPARK-40033] [SC-109875][SQL] Suporte de poda aninhada de schema através de element_at
  • [FAÍSCA-40194] [SC-109660][SQL] A função SPLIT no regex vazio deve truncar a cadeia de caracteres vazia à direita.
  • [FAÍSCA-40228] [SC-109835][SQL] Não simplifique multiLike se criança não é uma expressão barata
  • [FAÍSCA-40039] [SC-109896][SC-109260][SS] Apresentando um gerenciador de arquivos de ponto de verificação de streaming baseado na interface Abortable do Hadoop
  • [FAÍSCA-40285] [SC-109679][SQL] Simplifique o roundTo[Numeric] para o Spark Decimal
  • [FAÍSCA-39896] [SC-109658][SQL] UnwrapCastInBinaryComparison deve funcionar quando o literal de In/InSet downcast falhou
  • [SPARK-40040] [SC-109662][SQL] Envie limit locais para ambos os lados se a condição join estiver vazia
  • [FAÍSCA-40055] [SC-109075][SQL] listCatalogs também deve retornar spark_catalog mesmo quando spark_catalog implementação é defaultSessionCatalog
  • [FAÍSCA-39915] [SC-109391][SQL] Dataset.repartition(N) não pode criar partições N parte não-AQE
  • [SPARK-40207] [SC-109401][SQL] Especifique o nome do column quando o tipo de dados não for suportado pela fonte de dados
  • [SPARK-40245] [SC-109295][SQL] Corrigir a verificação de igualdade do FileScan quando partition ou o filtro de dados columns não são lidos
  • [FAÍSCA-40113] [SC-109405][SQL] Implementações de interface DataSourceV2 do Reator ParquetScanBuilder
  • [FAÍSCA-40211] [SC-109226][CORE][SQL] Permitir personalizar o número de partições iniciais no comportamento take()
  • [FAÍSCA-40252] [SC-109379][SQL] Substituir Stream.collect(Collectors.joining) por StringJoiner Api
  • [FAÍSCA-40247] [SC-109272][SQL] Corrigir verificação de igualdade BitSet
  • [SPARK-40067] [SQL] Use Table#name() em vez de Scan#name() para preencher o nome do table no nó BatchScan no SparkUI
  • [FAÍSCA-39966] [SQL] Usar filtro V2 em SupportsDelete
  • [FAÍSCA-39607] [SC-109268][SQL][DSV2] Suporte de distribuição e encomenda V2 função por escrito
  • [FAÍSCA-40224] [SC-109271][SQL] Faça com que o ObjectHashAggregateExec libere memória ansiosamente quando o fallback for baseado em classificação
  • [FAÍSCA-40013] [SQL] As expressões DS V2 devem ter o padrão toString
  • [SPARK-40214] [SC-109079][PYTHON][SQL] adicionar 'get' às funções
  • [SPARK-40192] [SC-109089][SQL][ML] Remove agrupamento redundante
  • [FAÍSCA-40146] [SC-108694][SQL] Simplesmente o codegen de obter valor de mapa
  • [SPARK-40109] [SQL] Nova função SQL: get()
  • [FAÍSCA-39929] [SQL] DS V2 suporta funções push down string (não ANSI)
  • [FAÍSCA-39819] [SQL] DS V2 aggregate push down pode funcionar com Top N ou Paging (Classificar com expressões)
  • [FAÍSCA-40213] [SC-109077][SQL] Suporta conversão de valor ASCII para caracteres latino-1
  • [FAÍSCA-39887] [SQL] RemoveRedundantAliases deve manter aliases que tornam a saída dos nós de projeção exclusiva
  • [FAÍSCA-39764] [SQL] Torne o PhysicalOperation igual ao ScanOperation
  • [FAÍSCA-39964] [SQL] O pushdown DS V2 deve unificar o caminho de tradução
  • [FAÍSCA-39528] [SQL] Usar filtro V2 em SupportsRuntimeFiltering
  • [SPARK-40066] [SQL] Modo ANSI: sempre retorne null no acesso inválido ao column do mapa
  • [FAÍSCA-39912] [FAÍSCA-39828][SQL] Refinar CatalogImpl
  • [SPARK-39833] [SC-108736][SQL] Desative o índice de column do Parquet no DSv1 para corrigir um problema de correção no caso de sobreposição de partition e columns de dados
  • comando [SPARK-39880] [SQL] V2 SHOW FUNCTIONS deve imprimir o nome da função qualificada como v1
  • [SPARK-39767] [SQL] Remove UnresolvedDBObjectName e adicione UnresolvedIdentifier
  • [FAÍSCA-40163] [SC-108740][SQL] feat: SparkSession.config(Mapa)
  • [FAÍSCA-40136] [SQL] Corrigir o fragmento de contextos de consulta SQL
  • [FAÍSCA-40107] [SC-108689][SQL] Retirar a conversão empty2null de FileFormatWriter
  • [FAÍSCA-40121] [PYTHON][SQL] Inicializar projeção usada para Python UDF
  • [SPARK-40128] [SQL] Faça com que o VectorizedColumnReader reconheça DELTA_LENGTH_BYTE_ARRAY como uma codificação column autônoma
  • [SPARK-40132] [ML] Restore rawPredictionCol em MultilayerPerceptronClassifier.setParams
  • [FAÍSCA-40050] [SC-108696][SQL] Melhorar EliminateSorts para suportar a remoção de ordenações através de LocalLimit
  • [SPARK-39629] Suporte [SQL] v2 SHOW FUNCTIONS
  • [SPARK-39925] [SC-108734][SQL] Adicionar sobrecarga array_sort(column, comparador) às operações do DataFrame
  • [FAÍSCA-40117] [PYTHON][SQL] Converter condição em java em DataFrameWriterV2.overwrite
  • [FAÍSCA-40105] [SQL] Melhorar a repartição em ReplaceCTERefWithRepartition
  • [SPARK-39503] [SQL] Adicionar nome de catalog de sessão para table e função do banco de dados v1
  • [FAÍSCA-39889] [SQL] Use classes de erro diferentes para numérico/intervalo dividido por 0
  • [FAÍSCA-39741] [SQL] Suporte url encode/decode como função integrada e arrumar funções relacionadas a url
  • [FAÍSCA-40102] [SQL] Use SparkException em vez de IllegalStateException no SparkPlan
  • [FAÍSCA-40014] [SQL] Suporte a conversão de decimais para intervalos ANSI
  • [SPARK-39776] [SQL][FOLLOW] Update Testes Unitários do PlanStabilitySuite no modo ANSI
  • [FAÍSCA-39963] [SQL] Simplifique SimplifyCasts.isWiderCast

Atualizações de manutenção

Consulte Atualizações de manutenção do Databricks Runtime 11.3.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Escala: 2.12.14
  • Píton: 3.9.19
  • R: 4.1.3
  • Lago Delta: 2.1.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
Argônio2-CFFI 20.1.0 gerador assíncrono 1.10 ATRs 21.2.0
Backcall 0.2.0 backports.pontos de entrada-selecionáveis 1.1.1 preto 22.3.0
lixívia 4.0.0 boto3 1.21.18 botocore 1.24.18
certifi 2021.10.8 cffi 1.14.6 chardet 4.0.0
Normalizador de Charset 2.0.4 clicar 8.0.3 criptografia 3.4.8
cycler 0.10.0 Quisto 0.29.24 dbus-python 1.2.16
depuração 1.4.1 decorador 5.1.0 DeUsedXML 0.7.1
Distlib 0.3.6 pontos de entrada 0.3 facetas-visão geral 1.0.0
filelock 3.8.0 idna 3.2 Ipykernel 6.12.1
ipython 7.32.0 ipython-genutils 0.2.0 ipywidgets 7.7.0
Jedi 0.18.0 Jinja2 2.11.3 jmespath 0.10.0
Joblib 1.0.1 jsonschema 3.2.0 jupyter-cliente 6.1.12
Jupyter-core 4.8.1 Jupyterlab-Pygments 0.1.2 jupyterlab-widgets 1.0.0
Kiwisolver 1.3.1 MarkupSafe 2.0.1 matplotlib 3.4.3
matplotlib-em linha 0.1.2 Mistune 0.8.4 mypy-extensões 0.4.3
nbclient 0.5.3 nbconvert 6.1.0 nbformat 5.1.3
Ninho-Asyncio 1.5.1 bloco de notas 6.4.5 numpy 1.20.3
embalagem 21.0 pandas 1.3.4 PandocFilters 1.4.3
Parso 0.8.2 PathSpec 0.9.0 patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Travesseiro 8.4.0
pip 21.2.4 plataformadirs 2.5.2 enredo 5.9.0
Prometheus-cliente 0.11.0 prompt-toolkit 3.0.20 protobuf 4.21.5
PSUTIL 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 Pyodbc 4.0.31 pyparsing 3.0.4
pirsistent 0.18.0 python-dateutil 2.8.2 pytz 2021.3
Pyzmq 22.2.1 pedidos 2.26.0 pedidos-unixsocket 0.2.0
s3transferir 0.5.2 scikit-learn 0.24.2 scipy 1.7.1
seaborn 0.11.2 Enviar2Lixo 1.8.0 setuptools 58.0.4
seis 1.16.0 ssh-import-id 5.10 statsmodels 0.12.2
tenacidade 8.0.1 terminado 0.9.4 caminho de teste 0.5.0
ThreadPoolCtl 2.2.0 tokenize-rt 4.2.1 Tomli 2.0.1
tornado 6.1 traços 5.1.0 extensões de digitação 3.10.0.2
Upgrades autônomos 0.1 urllib3 1.26.7 virtualenv 20.8.0
largura de wc 0.2.5 WebEncodings 0.5.1 roda 0.37.0
widgetsnbextension 3.6.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-09-08.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
AskPass 1.1 asserçãoat 0.2.1 backports 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 blob 1.2.3 arranque 1.3-28
brew 1.0-7 Brio 1.1.3 vassoura 1.0.1
BSLIB 0.4.0 cachem 1.0.6 Chamador 3.7.2
acento circunflexo 6.0-93 Cellranger 1.1.0 crono 2.3-57
classe 7.3-20 cli 3.3.0 Clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 espaço em cores 2.0-3
marca comum 1.8.0 compilador 4.1.3 configuração 0.3.1
CPP11 0.4.2 lápis de cor 1.5.1 credentials 1.3.2
curl 4.3.2 dados.table 1.14.2 conjuntos de dados 4.1.3
DBI 1.1.3 DBPlyr 2.2.1 desc 1.4.1
devtools 2.4.4 diffobj 0.3.5 resumo 0.6.29
Iluminação reduzida 0.4.2 dplyr 1.0.10 DTPlyr 1.2.2
E1071 1.7-11 reticências 0.3.2 evaluate 0,16
Fãsi 1.0.3 Farver 2.1.1 mapa rápido 1.1.0
fontawesome 0.3.0 FORCATS 0.5.2 foreach 1.5.2
externa 0.8-82 forjar 0.2.0 FS 1.5.2
Futuro 1.28.0 future.apply 1.9.1 gargarejo 1.2.0
Genéricos 0.1.3 Gert 1.8.0 ggplot2 3.3.6
GH 1.3.0 gitcreds 0.1.1 glmnet 4.1-4
Globais 0.16.1 colar 1.6.2 GoogleDrive 2.0.0
googlesheets4 1.0.1 gower 1.0.0 gráficos 4.1.3
grDevices 4.1.3 grelha 4.1.3 gridExtra 2.3
gsubfn 0.7 gtable 0.3.1 capacete 1.2.0
Refúgio 2.5.1 mais alto 0,9 HMS 1.1.2
htmltools 0.5.3 htmlwidgets 1.5.4 httpuv 1.6.5
httr 1.4.4 IDs 1.0.1 ini 0.3.1
ipred 0.9-13 Isoband 0.2.5 iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.0 KernSmooth 2.23-20
Knitr 1.40 etiquetagem 0.4.2 mais tarde 1.3.0
lattice 0.20-45 lava 1.6.10 ciclo de vida 1.0.1
ouvirv 0.8.0 lubridate 1.8.0 magrittr 2.0.3
Marcação 1.1 MASSA 7.3-56 Matriz 1.4-1
memoise 2.0.1 métodos 4.1.3 mgcv 1.8-40
mime 0,12 miniUI 0.1.1.1 ModelMetrics 1.2.2.2
Modelador 0.1.9 munsell 0.5.0 nlme 3.1-157
nnet 7.3-17 numDeriv 2016.8-1.1 openssl 2.0.2
paralelo 4.1.3 Paralelamente 1.32.1 pilar 1.8.1
pkgbuild 1.3.1 pkgconfig 2.0.3 pkgdown 2.0.6
pkgload 1.3.0 plogr 0.2.0 plyr 1.8.7
elogiar 1.0.0 unidades bonitas 1.1.1 pROC 1.18.0
processx 3.7.0 prodlim 2019.11.13 Profvis 0.3.7
Progresso 1.2.2 progressor 0.11.0 promessas 1.2.0.1
proto 1.0.0 procuração 0.4-27 PS 1.7.1
purrr 0.3.4 r2d3 0.2.6 R6 2.5.1
RAGG 1.2.2 randomForest 4.7-1.1 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.0.9
RcppEigen 0.3.3.9.2 Leitor 2.1.2 ReadXL 1.4.1
receitas 1.0.1 revanche 1.0.1 revanche2 2.1.2
Controles remotos 2.4.2 Reprex 2.0.2 remodelar2 1.4.4
rlang 1.0.5 rmarkdown 2.16 RODBC 1.3-19
roxygen2 7.2.1 rpart 4.1.16 rprojroot 2.0.3
Rserve 1.8-11 RSQLite 2.2.16 rstudioapi 0.14
rversões 2.1.2 Rvest 1.0.3 Sass 0.4.2
escalas 1.2.1 seletor 0.4-2 sessioninfo 1.2.2
forma 1.4.6 brilhante 1.7.2 ferramentas de origem 0.1.7
sparklyr 1.7.8 SparkR 3.3.0 espacial 7.3-11
splines 4.1.3 sqldf 0.4-11 QUADRADO 2021.1
estatísticas 4.1.3 stats4 4.1.3 stringi 1.7.8
stringr 1.4.1 sobrevivência 3.4-0 sys 3.4
fontes do sistema 1.0.4 tcltk 4.1.3 testeatat 3.1.4
formatação de texto 0.3.6 tibble 3.1.8 tidyr 1.2.0
tidyselect 1.1.2 Tidyverse 1.3.2 timeDate 4021.104
Tinytex 0.41 ferramentas 4.1.3 TZDB 0.3.0
urlchecker 1.0.1 usethis 2.1.6 UTF8 1.2.2
utilitários 4.1.3 uuid 1.1-0 VCTRS 0.4.1
viridisLite 0.4.1 vroom 1.5.7 Waldo 0.4.0
whisker 0.4 withr 2.5.0 xfun 0.32
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.5 zip 2.2.0

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)

ID do Grupo ID do Artefacto Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics transmissão em fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2,12 0.4.15-10
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de turma 1.3.4
com.fasterxml.jackson.core jackson-anotações 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-módulo-scala_2.12 2.13.4
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-nativos 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben ZSTD-JNI 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink Tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger criador de perfil 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.2.1
com.typesafe.scala-logging Escala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 2.2.1
dev.ludovic.netlib Blas 2.2.1
dev.ludovic.netlib Lapack | 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.ponte aérea compressor de ar 0.21
IO.Delta delta-compartilhamento-spark_2.12 0.5.1
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics métricas-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-comum 4.1.74.Final
io.netty netty-manipulador 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty transporte de rede 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-nativo-unix-comum 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recoletor 0.12.0
jacarta.anotação Jacarta.Anotação-API 1.3.5
jacarta.servlet jacarta.servlet-api 4.0.3
jacarta.validação Jacarta.validation-api 2.0.2
jakarta.ws.rs Jacarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna JNA 5.8.0
net.razorvine picles 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve flocos de neve-ingestão-sdk 0.9.6
net.floco de neve Flocos de Neve-JDBC 3.13.14
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea Remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formato de seta 7.0.0
org.apache.arrow seta-memória-núcleo 7.0.0
org.apache.arrow seta-memória-netty 7.0.0
org.apache.arrow vetor de seta 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapeado 1.11.0
org.apache.commons colecções-commons4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.9
org.apache.curator curador-cliente 2.13.0
org.apache.curator curador-framework 2.13.0
org.apache.curator curador-receitas 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-DATABRICKS
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-cliente 2.3.9
org.apache.hive colmeia-lamp-comum 2.3.9
org.apache.hive Colmeia-Serde 2.3.9
org.apache.hive colmeias-calços 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims colmeia-calços-0,23 2.3.9
org.apache.hive.shims colmeia-calços-comum 2.3.9
org.apache.hive.shims colmeia-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy hera 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-sombreado-protobuf 1.4.0
org.apache.orc orc-núcleo 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc Orc-calços 1.7.6
org.apache.parquet parquet-column 1.12.0-DATABRICKS-0007
org.apache.parquet parquet-common 1.12.0-DATABRICKS-0007
org.apache.parquet parquet-encoding 1.12.0-DATABRICKS-0007
org.apache.parquet parquet-formato-estruturas 1.12.0-DATABRICKS-0007
org.apache.parquet parquet-hadoop 1.12.0-DATABRICKS-0007
org.apache.parquet parquet-jackson 1.12.0-DATABRICKS-0007
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4.20
org.apache.yetus anotações de audiência 0.5.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-juta 3.6.2
org.checkerframework verificador-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty cais-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket API WebSocket 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-cliente 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-Comum 9.4.46.v20220331
org.eclipse.jetty.websocket servidor websocket 9.4.46.v20220331
org.eclipse.jetty.websocket Websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 localizador hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core servidor de jersey 2.36
org.glassfish.jersey.inject Jersey-HK2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotações 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s JSON4S-ast_2.12 3.7.0-M11
org.json4s JSON4S-core_2.12 3.7.0-M11
org.json4s JSON4S-jackson_2,12 3.7.0-M11
org.json4s JSON4S-scalap_2.12 3.7.0-M11
org.lz4 LZ4-Java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow MLFLOW-Faísca 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap calços 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2.12 2.12.14
org.scala-lang Escala-library_2.12 2.12.14
org.scala-lang Escala-reflect_2,12 2.12.14
org.scala-lang.modules scala-coleção-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules Escala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp Brisa-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark não utilizado 1.0.0
org.threeten trêsdez-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel gatos-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel torre-macros_2.12 0.17.0
org.typelevel torre-platform_2.12 0.17.0
org.typelevel torre-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl mosca-selvagem-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1