Databricks Tempo de execução 15.4 LTS
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 15.4 LTS, alimentado pelo Apache Spark 3.5.0.
A Databricks lançou esta versão em agosto de 2024.
Nota
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Gorjeta
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
-
Usar a
VARIANT
como o tipo de entrada ou saída com um Python UDF, UDAF ou UDTF gera uma exceção - Alterar para o modo padrão de vinculação de schema para views
-
Não permitir o uso da sintaxe não documentada
!
em vez deNOT
expressões booleanas externas - Proibir sintaxe de definição não documentada column no views
- Tratamento consistente de erros para decodificação Base64 no Spark e Photon
-
Adicionar um
CHECK
constraint num column inválido agora retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION
Usar a VARIANT
como o tipo de entrada ou saída com um Python UDF, UDAF ou UDTF gera uma exceção
[Alteração disruptiva] No Databricks Runtime 15.3 e posteriores, chamar qualquer função definida pelo utilizador (UDF), função de agregação definida pelo utilizador (UDAF) ou função de table definida pelo utilizador (UDTF) que utilize um tipo VARIANT
como argumento ou valor de retorno gera uma exceção. Essa alteração é feita para evitar problemas que podem ocorrer devido a um valor inválido retornado por uma dessas funções. Para saber mais sobre o VARIANT
tipo, consulte Usar VARIANTES para armazenar dados semiestruturados.
Altere o modo de vinculação padrão de schema para views
Views agora adaptam-se às mudanças de schema na consulta subjacente, usando schema ajustamento com regras normais de conversão. Esta é uma alteração em relação ao padrão anterior do modo, que gerava erros quando uma transmissão segura não podia ser executada BINDING
ao fazer referência à exibição.
Veja a função de elencono
Não permitir o uso da sintaxe não documentada !
em vez de NOT
expressões booleanas externas
Com esta versão, o uso de !
como sinônimo para NOT
fora de expressões booleanas não é mais permitido. Por exemplo, afirmações como as seguintes: CREATE ... IF ! EXISTS
, IS ! NULL, uma propriedade de ! NULL
column ou campo, ! IN
e ! ENTRE, devem ser substituídas por: CREATE ... IF NOT EXISTS
, IS NOT NULL
, uma propriedade NOT NULL
column ou campo, NOT IN
e NOT BETWEEN
.
Essa alteração garante consistência, alinha-se com o padrão SQL e torna seu SQL mais portátil.
O operador!
de prefixo booleano (por exemplo, !is_mgr
ou !(true AND false)
) não é afetado por essa alteração.
Não permitir a sintaxe de definição não documentada de column em views
O Databricks suporta CREATE VIEW com comentários nomeados columns e column. Anteriormente, a especificação de tipos column, restrições NOT NULL
, ou DEFAULT
foi permitida. Com esta versão, você não pode mais usar essa sintaxe.
Essa alteração garante consistência, alinha-se com o padrão SQL e oferece suporte a aprimoramentos futuros.
Tratamento consistente de erros para decodificação Base64 no Spark e Photon
Esta versão altera como o Photon lida com erros de decodificação Base64 para corresponder ao tratamento Spark desses erros. Antes dessas alterações, o caminho de geração de código do Photon e do Spark às vezes falhava em gerar exceções de análise, enquanto o Spark interpretava a execução corretamente gerada IllegalArgumentException
ou ConversionInvalidInputError
. Esse update garante que o Photon gere consistentemente as mesmas exceções que o Spark durante erros de decodificação Base64, fornecendo um tratamento de erros mais previsível e confiável.
Adicionar um CHECK
constraint num column inválido agora retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION
Para fornecer mensagens de erro mais úteis, no Databricks Runtime 15.3 ou versões posteriores, uma instrução ALTER TABLE ADD CONSTRAINT
que inclui um CHECK
constraint referenciando um nome de column inválido retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION. Anteriormente, um INTERNAL_ERROR
foi devolvido.
Novos recursos e melhorias
- Funções de validação UTF-8
- APIs de conjunto de dados tipadas com UDFs Scala
- Habilite o UniForm Iceberg usando ALTER TABLE
- try_url_decode função
- Opcionalmente, permita que o otimizador dependa de restrições de chave estrangeira não impostas
- Execuções de trabalho paralelizadas para substituições seletivas
- Desempenho aprimorado para feed de dados de alteração com substituições seletivas
-
Latência de consulta melhorada para o
COPY INTO
comando - Suporte para eliminar as restrições de verificação table recurso
- computação de usuário único suporta controle de acesso refinado, viewsmaterializado e tables de streaming (visualização pública)
- Suporte expandido para bibliotecas Java e Scala
- Suporte expandido para operações de conjunto de dados Scala
- Scala está disponível de forma geral no Unity Catalog de computação partilhada
- Unity Catalog- acesso a serviços de nuvem externos controlado por credentials de serviço (Visualização pública)
Funções de validação UTF-8
Esta versão apresenta as seguintes funções para validar cadeias de caracteres UTF-8:
- is_valid_utf8 verificado se uma cadeia de caracteres é uma cadeia de caracteres UTF-8 válida.
- make_valid_utf8 converte uma cadeia de caracteres UTF-8 potencialmente inválida em uma cadeia de caracteres UTF-8 válida usando caracteres de substituição
- validate_utf8 gera um erro se a entrada não for uma cadeia de caracteres UTF-8 válida.
-
try_validate_utf8 retorna
NULL
se a entrada não for uma cadeia de caracteres UTF-8 válida.
APIs de conjunto de dados tipadas com UDFs Scala
Esta versão inclui suporte adicionado para APIs de conjunto de dados tipadas com funções definidas pelo utilizador em Scala (excluindo funções agregadas definidas pelo utilizador) na computação habilitada para Unity Catalogcom modo de acesso partilhado. Consulte APIs de conjunto de dados tipadas.
Habilite o UniForm Iceberg usando ALTER TABLE
Agora você pode habilitar o UniForm Iceberg em tables existentes sem reescrever arquivos de dados. Consulte Ativar leituras do Iceberg em um(a) tableexistente.
try_url_decode função
Esta versão apresenta a função try_url_decode, que decodifica uma cadeia de caracteres codificada por URL. Se a cadeia de caracteres não estiver no formato correto, a função retornará NULL
em vez de gerar um erro.
Opcionalmente, permita que o otimizador dependa de restrições de chave estrangeira não impostas
Para melhorar o desempenho da consulta, agora você pode especificar a palavra-chave RELY
em restrições de FOREIGN KEY
ao CREATE ou ALTER um table.
Execuções de trabalho paralelizadas para substituições seletivas
As substituições seletivas usando o replaceWhere
agora executam trabalhos que excluem dados e insert novos dados em paralelo, melhorando o desempenho da consulta e a utilização do cluster.
Desempenho aprimorado para feed de dados de alteração com substituições seletivas
As substituições seletivas feitas usando replaceWhere
em tables com feed de dados de alteração não gravam mais arquivos de dados de alteração separados para dados inseridos. Essas operações usam um _change_type
column oculto presente nos arquivos de dados subjacentes do Parquet para registrar alterações sem amplificação de gravação.
Latência de consulta melhorada para o COPY INTO
comando
Esta versão inclui uma alteração que melhora a latência de consulta para o COPY INTO
comando. Essa melhoria é implementada tornando o carregamento do estado pelo armazenamento de estado RocksDB assíncrono. Com essa alteração, você verá uma melhoria nos tempos de início para consultas com estados grandes, como consultas com um grande número de arquivos já ingeridos.
Suporte para suprimir o recurso de restrições de verificação table
Agora poderá remover a funcionalidade checkConstraints
table de um Delta table usando ALTER TABLE table_name DROP FEATURE checkConstraints
. Consulte Desativar restrições de verificação.
A computação de utilizador único suporta controle de acesso refinado, viewsmaterializado e streaming tables (Visualização pública)
Quando um espaço de trabalho está habilitado para computação sem servidor, o Databricks Runtime 15.4 LTS adiciona suporte para controle de acesso refinado em computação de usuário único. Quando uma consulta acessa qualquer um dos seguintes objetos, o recurso de computação de usuário único no Databricks Runtime 15.4 LTS passa a consulta para a computação sem servidor para executar a filtragem de dados:
-
Views definido sobre tables em que o utilizador não tem o privilégio
SELECT
. - Dinâmica views.
- Tables com filtros de linha ou máscaras de column aplicadas.
- Materializado views e streaming tables.
Essas consultas não são suportadas na computação de usuário único que executa o Databricks Runtime 15.3 e inferior.
Para obter mais informações, consulte Controle de acesso refinado na computação de usuário único.
Suporte expandido para bibliotecas Java e Scala
A partir do Databricks Runtime 15.4 LTS, todas as bibliotecas Java e Scala empacotadas com o Databricks Runtime estão disponíveis em todos os modos de acesso de computação quando você usa o Unity Catalog. Para saber mais sobre o suporte a idiomas na computação habilitada para Unity Catalog, consulte Limitações do modo de acesso de computação para Unity Catalog.
Suporte expandido para operações de conjunto de dados Scala
Com esta versão, os recursos de computação habilitados para o Unity Catalogque utilizam o modo de acesso partilhado suportam as operações de Scala Dataset
seguintes: map
, mapPartitions
, foreachPartition
, flatMap
, reduce
e filter
.
Scala está geralmente disponível na Unity Catalog computação partilhada
No modo de acesso compartilhado com Unity Catalog, esta versão torna o Scala geralmente disponível em computação habilitada, incluindo suporte para funções escalares definidas pelo utilizador (UDFs). Não há suporte para Streaming estruturado, UDFs do Hive e funções agregadas definidas pelo usuário do Hive. Para obter uma list completa das limitações, consulte Limitações do modo de acesso de computação para Unity Catalog.
Unity Catalog- acesso controlado a serviços de nuvem externos utilizando o serviço credentials (Pré-visualização pública)
O Serviço credentials permite uma autenticação simples e segura com os serviços do tenant da cloud usando identidades geridas do Azure (MI) e Unity Catalog. Consulte Gerenciar o acesso a serviços de nuvem externos usando o serviço credentials.
Correções de erros
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- azure-core de 1.30.1 a 1.30.2
- google-auth de 2.29.0 a 2.31.0
- google-cloud-storage de 2.16.0 a 2.17.0
- google-retomable-media de 2.7.0 a 2.7.1
- googleapis-common-protos de 1.63.0 a 1.63.2
- mlflow-skinny de 2.11.3 a 2.11.4
- proto-plus de 1.23.0 a 1.24.0
- s3transfer de 0.10.1 a 0.10.2
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- com.databricks.databricks-sdk-java de 0.17.1 a 0.27.0
- com.ibm.icu.icu4j de 72.1 a 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.1-linux-x86_64 para 1.6.2-linux-x86_64
Faísca Apache
O Databricks Runtime 15.4 LTS inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.3 e as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [FAÍSCA-48503] [DBRRM-1150][SC-172196][SQL] Permitir agrupamento em expressões em subconsultas escalares, se elas estiverem vinculadas a linhas externas
- [FAÍSCA-48834] [BEHAVE-79][SC-170972][SQL] Desative a entrada/saída variante para UDFs, UDTFs, UDAFs escalares python durante a compilação da consulta
- [FAÍSCA-48441] [SC-170980][SQL][WARMFIX] Corrigir o comportamento de StringTrim para agrupamentos não UTF8_BINARY
- [FAÍSCA-48440] [SC-170895][SQL][WARMFIX] Corrigir o comportamento StringTranslate para agrupamentos não UTF8_BINARY
- [FAÍSCA-48872] [SC-170866][PYTHON] Reduza a sobrecarga de _capture_call_site
-
[FAÍSCA-48862] [SC-170845][PYTHON][CONECTAR] Evite ligar
_proto_to_string
quando o nível INFO não estiver ativado - [FAÍSCA-48852] [SC-170837][CONECTAR] Corrigir função de corte de cadeia de caracteres na conexão
- [FAÍSCA-48791] [SC-170658][CORE] Corrigir regressão perf causada pela sobrecarga de registro de acumuladores usando CopyOnWriteArrayList
-
[FAÍSCA-48118] [SQL] Suporte
SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
env variável - [SPARK-48241] [SC-165811][SQL] Falha de análise CSV com columns tipo char/varchar
- [FAÍSCA-48168] [SC-166900][SQL] Adicionar suporte a operadores de mudança bit a bit
- [FAÍSCA-48148] [SC-165630][CORE] Os objetos JSON não devem ser modificados quando lidos como STRING
- [SPARK-46625] [SC-170561] CTE com cláusula Identifier como referência
-
[FAÍSCA-48771] [SC-170546][SQL] Acelere para
LogicalPlanIntegrity.validateExprIdUniqueness
planos de consulta grandes -
[SPARK-48831] [BEHAVE-76][SC-170554][CONNECT] Tornar o nome column padrão do
cast
compatível com o Spark Classic - [FAÍSCA-48623] [SC-170544][CORE] Migrações de log estruturado [Parte 2]
-
[FAÍSCA-48296] [SC-166138][SQL] Suporte Codegen para
to_xml
- [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter para múltiplos níveis de join deve verificar o tipo de join filho
- [FAÍSCA-48686] [SC-170365][SQL] Melhorar o desempenho de ParserUtils.unescapeSQLString
-
[FAÍSCA-48798] [SC-170588][PYTHON] Introdução
spark.profile.render
para criação de perfil baseada em SparkSession - [FAÍSCA-48048] [SC-169099] Reverter "[SC-164846][CONNECT][SS] Adicionado suporte de ouvinte do lado do cliente para Scala"
- [FAÍSCA-47910] [SC-168929][CORE] fechar fluxo quando DiskBlockObjectWriter fechaRecursos para evitar vazamento de memória
- [FAÍSCA-48816] [SC-170547][SQL] Taquigrafia para conversores de intervalo em UnivocityParser
- [FAÍSCA-48589] [SC-170132][SQL][SS] Adicionar opção snapshotStartBatchId e snapshotPartitionId à fonte de dados de estado
- [FAÍSCA-48280] [SC-170293][SQL] Melhorar a área de superfície de teste de agrupamento usando a caminhada de expressão
- [FAÍSCA-48837] [SC-170540][ML] No CountVectorizer, leia apenas o parâmetro binário uma vez por transformação, não uma vez por linha
- [FAÍSCA-48803] [SC-170541][SQL] Lançar erro interno no Orc(De)serializer para alinhar com ParquetWriteSupport
- [FAÍSCA-48764] [SC-170129][PYTHON] Filtrando quadros relacionados a IPython da pilha de usuários
-
[FAÍSCA-48818] [SC-170414][PYTHON] Simplifique
percentile
funções - [SPARK-48479] [SC-169079][SQL] Suporte à criação de UDFs SQL escalares e table no analisador
- [FAÍSCA-48697] [SC-170122][LC-4703][SQL] Adicionar filtros de cadeia de caracteres com reconhecimento de agrupamento
- [FAÍSCA-48800] [SC-170409][CONECTAR][SS] Deflake ClientStreamingQuerySuite
-
[FAÍSCA-48738] [SC-169814][SQL] Correto desde a versão para built-in func alias
random
,position
,mod
,cardinality
,current_schema
,user
,session_user
,char_length
,character_length
- [FAÍSCA-48638] [SC-169575][CONECTAR] Adicionar suporte ExecutionInfo para DataFrame
- [SPARK-48064] [SC-164697][SQL] Update mensagens de erro para classes de erro relacionadas com a rotina
- [FAÍSCA-48810] [CONECTAR] A API Session stop() deve ser idempotente e não falhar se a sessão já estiver fechada pelo servidor
- [FAÍSCA-48650] [15.x][PYTHON] Exibir o site de chamada correto do IPython Notebook
- [FAÍSCA-48271] [SC-166076][SQL] Transforme o erro de correspondência no RowEncoder em UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [FAÍSCA-48709] [SC-169603][SQL] Corrigir incompatibilidade de resolução de tipo varchar para DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][SQL] Corrigir regressão de INSERT com columnlist parcial para um table com char/varchar
-
[FAÍSCA-48767] [SC-170330][SQL] Corrigir alguns prompts de erro quando
variant
os dados de tipo são inválidos -
[FAÍSCA-48719] [SC-170339][SQL] Corrigir o bug de cálculo de
RegrSlope
&RegrIntercept
quando o primeiro parâmetro é nulo - [SPARK-48815] [SC-170334][CONNECT] Update ambiente ao interromper a sessão de conexão
- [FAÍSCA-48646] [SC-169020][PYTHON] Refine a fonte de dados Python API docstring e dicas de tipo
- [FAÍSCA-48806] [SC-170310][SQL] Passar exceção real quando url_decode falhar
- [FAÍSCA-47777] [SC-168818] corrigir python streaming fonte de dados teste de conexão
-
[FAÍSCA-48732] [SC-169793][SQL] Limpeza do uso preterido da api relacionado a
JdbcDialect.compileAggregate
- [SPARK-48675] [SC-169538][SQL] Corrigir table de cache com column agrupados
- [FAÍSCA-48623] [SC-169034][CORE] Migrações de log estruturado
- [FAÍSCA-48655] [SC-169542][SQL] SPJ: Adicionar testes para pular aleatório para consultas agregadas
- [SPARK-48586] [SC-169808][SS] Remove aquisição de bloqueio em doMaintenance() fazendo uma cópia profunda dos mapeamentos de arquivos no RocksDBFileManager em load()
- [FAÍSCA-48799] [Backport][15.x][SC-170283][SS] Refatoração de controle de versão para leitura/gravação de metadados do operador e chamadores
- [SPARK-48808] [SC-170309][SQL] Corrija o NPE ao conectar o thriftserver através do Hive 1.2.1 e o schema de resultados estiver vazio
- [FAÍSCA-48715] [SC-170291][SQL] Integre a validação UTF8String em implementações de função de cadeia de caracteres com reconhecimento de agrupamento
- [FAÍSCA-48747] [SC-170120][SQL] Adicionar iterador de ponto de código a UTF8String
- [FAÍSCA-48748] [SC-170115][SQL] Cache numChars em UTF8String
- [FAÍSCA-48744] [SC-169817][Núcleo] A entrada de log deve ser construída apenas uma vez
-
[SPARK-46122] [SC-164313][SQL] Set
spark.sql.legacy.createHiveTableByDefault
parafalse
por padrão - [FAÍSCA-48765] [SC-170119][IMPLANTAR] Melhorar a avaliação de valor padrão para SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][SQL] Adicionar documento de migração para CREATE TABLE AS SELECT mudança de comportamento desde o Spark 3.4
- [SPARK-48598] [SC-169484][PYTHON][CONNECT] Propagar a schema armazenada em cache em operações de dataframe
-
[FAÍSCA-48766] [SC-170126][PYTHON] Documentar a diferença de comportamento entre
extraction
element_at
etry_element_at
-
[FAÍSCA-48768] [SC-170124][PYTHON][CONECTAR] Não deve armazenar em cache
explain
- [SPARK-48770] [Backport][15.x][SC-170133][SS] Alterar para que a leitura dos metadados do operador seja feita uma vez no driver para verificar se é possível encontrar informações para numColsPrefixKey utilizado para consultas de agregação de sessão window
-
[FAÍSCA-48656] [SC-169529][CORE] Faça uma verificação de comprimento e lance COLLECTION_SIZE_LIMIT_EXCEEDED erro em
CartesianRDD.getPartitions
- [FAÍSCA-48597] [SC-168817][SQL] Introduzir um marcador para a propriedade isStreaming na representação de texto do plano lógico
- [FAÍSCA-48472] [SC-169044][SQL] Habilitar expressões de reflexão com cadeias de caracteres agrupadas
- [FAÍSCA-48699] [SC-169597][SQL] Refinar a API de agrupamento
- [FAÍSCA-48682] [SC-169812][SQL][BEHAVE-58] Usar UTI na expressão InitCap para cadeias de caracteres UTF8_BINARY
- [FAÍSCA-48282] [SC-169813][SQL] Alterar a lógica de pesquisa de cadeia de caracteres para agrupamento de UTF8_BINARY_LCASE (StringReplace, FindInSet)
- [FAÍSCA-47353] [SC-169599][SQL] Habilitar o suporte de agrupamento para a expressão Modo
- [SPARK-48320] [SPARK-48490] Sync a mais recente característica de registro e casos de teste do OSS Spark
- [FAÍSCA-48629] [SC-169479] Migrar o código residual para a estrutura de log estruturada
- [FAÍSCA-48681] [SC-169469][SQL][BEHAVE-58] Usar UTI em expressões inferiores/superiores para cadeias de UTF8_BINARY
- [FAÍSCA-48573] [15.x][SC-169582][SQL] Atualizar versão da UTI
- [SPARK-48687] [Backport][15.x][SS] Adicionar alteração para executar a validação de schema de estado e update no driver para consultas com monitoração de estado
- [FAÍSCA-47579] [15.x][SC-167310][CORE][PARTE 4] Migrar logInfo com variáveis para a estrutura de log estruturada
- [FAÍSCA-48008] [SC-167363][1/2] Suporta UDAFs no Spark Connect
- [FAÍSCA-48578] [SC-169505][SQL] adicionar funções relacionadas à validação de cadeia de caracteres UTF8
- [FAÍSCA-48670] [SC-169598][SQL] Fornecendo sugestão como parte da mensagem de erro quando o nome de agrupamento inválido é fornecido
- [FAÍSCA-48059] [FAÍSCA-48145][FAÍSCA-48134][FAÍSCA-48182][FAÍSCA-48209][SPA... … RK-48291] Estrutura de log estruturada no lado java
- [FAÍSCA-47599] [15.x][SC-166000][MLLIB] MLLib: Migrar logWarn com variáveis para a estrutura de log estruturada
- [FAÍSCA-48706] [SC-169589][PYTHON] Python UDF em funções de ordem superior não deve lançar erro interno
- [FAÍSCA-48498] [COMPORTAR-38][SC-168060][SQL] Faça sempre preenchimento char em predicados
- [FAÍSCA-48662] [SC-169533][SQL] Corrigir expressão StructsToXml com agrupamentos
- [FAÍSCA-48482] [SC-167702][PYTHON][15.x] dropDuplicates e dropDuplicatesWIthinWatermark deve aceitar args de comprimento variável
- [SPARK-48678] [SC-169463][CORE] Otimizações de desempenho para SparkConf.get(ConfigEntry)
- [FAÍSCA-48576] [SQL] Renomear UTF8_BINARY_LCASE para UTF8_LCASE
- [FAÍSCA-47927] [SC-164123][SQL]: Corrigir atributo de anulabilidade no decodificador UDF
- [FAÍSCA-47579] [SC-165297][CORE][PARTE 1] Migrar logInfo com variáveis para a estrutura de log estruturada (novo)
-
[FAÍSCA-48695] [SC-169473][PYTHON]
TimestampNTZType.fromInternal
não usar os métodos preteridos - [SPARK-48431] [SC-167290][LC-4066][SQL] Não encaminhar predicados em columns agrupados para leitores de arquivos
- [FAÍSCA-47579] Reverter "[SC-165297][CORE][PART1] Migrar logInfo com variáveis para a estrutura de log estruturada"
- [FAÍSCA-47585] [SC-164306][SQL] SQL core: Migrar logInfo com variáveis para a estrutura de log estruturada
- [FAÍSCA-48466] [SC-169042][SQL] Criar nó dedicado para EmptyRelation no AQE
- [FAÍSCA-47579] [SC-165297][CORE][PARTE 1] Migrar logInfo com variáveis para a estrutura de log estruturada
- [FAÍSCA-48410] [SC-168320][SQL] Corrigir expressão InitCap para agrupamentos de UTF8_BINARY_LCASE & ICU
- [SPARK-48318] [SC-167709][SQL] Habilitar suporte a join de hash para todos os agrupamentos (tipos complexos)
- [FAÍSCA-48435] [SC-168128][SQL] O agrupamento UNICODE não deve suportar igualdade binária
- [SPARK-48555] [SC-169041][SQL][PYTHON][CONNECT] Suporte usando Columns como parameters para várias funções em pyspark/scala
-
[FAÍSCA-48591] [SC-169081][PYTHON] Adicionar uma função auxiliar para simplificar
Column.py
- [FAÍSCA-48574] [SC-169043][SQL] Corrigir o suporte para StructTypes com agrupamentos
- [FAÍSCA-48305] [SC-166390][SQL] Adicionar suporte de agrupamento para expressões CurrentLike
- [FAÍSCA-48342] [SC-168941][SQL] Introdução ao SQL Scripting Parser
- [SPARK-48649] [SC-169024][SQL] Adicione as configurações "ignoreInvalidPartitionPaths" e "spark.sql.files.ignoreInvalidPartitionPaths" para permitir ignorar caminhos partition inválidos
- [SPARK-48000] [SC-167194][SQL] Habilitar suporte a hash join para todos os agrupamentos (StringType)
- [FAÍSCA-48459] [SC-168947][CONECTAR][PYTHON] Implementar DataFrameQueryContext no Spark Connect
- [FAÍSCA-48602] [SC-168692][SQL] Faça com que o gerador csv suporte um estilo de saída diferente com spark.sql.binaryOutputStyle
- [FAÍSCA-48283] [SC-168129][SQL] Modificar a comparação de cadeia de caracteres para UTF8_BINARY_LCASE
- [FAÍSCA-48610] [SC-168830][SQL] refactor: use idMap auxiliar em vez de OP_ID_TAG
- [FAÍSCA-48634] [SC-169021][PYTHON][CONECTAR] Evite inicializar estaticamente o threadpool em ExecutePlanResponseReattachableIterator
- [FAÍSCA-47911] [SC-164658][SQL] Introduz um BinaryFormatter universal para tornar a saída binária consistente
- [FAÍSCA-48642] [SC-168889][CORE] Falso SparkOutOfMemoryError causado por matar tarefa ao derramar
- [FAÍSCA-48572] [SC-168844][SQL] Corrigir expressões DateSub, DateAdd, WindowTime, TimeWindow e SessionWindow
- [FAÍSCA-48600] [SC-168841][SQL] Corrigir transmissão implícita de expressões FrameLessOffsetWindowFunction
- [FAÍSCA-48644] [SC-168933][SQL] Faça uma verificação de comprimento e lance COLLECTION_SIZE_LIMIT_EXCEEDED erro no Hex.hex
- [FAÍSCA-48587] [SC-168824][VARIANTE] Evite a amplificação de armazenamento ao acessar uma subvariante
-
[FAÍSCA-48647] [SC-168936][PYTHON][CONECTAR] Refine a mensagem de erro para
YearMonthIntervalType
emdf.collect
- [FAÍSCA-48307] [SC-167802][SQL] InlineCTE deve manter relações não embutidas no nó WithCTE original
- [FAÍSCA-48596] [SC-168581][SQL] Melhoria do Perf para calcular a cadeia hexadecimal por muito tempo
- [FAÍSCA-48621] [SC-168726][SQL] Corrigir como simplificação no Optimizer para cadeias de caracteres agrupadas
- [FAÍSCA-47148] [SC-164179][SQL] Evite materializar AQE ExchangeQueryStageExec no cancelamento
- [FAÍSCA-48584] [SC-168579][SQL] Melhoria do Perf para unescapePathName
- [FAÍSCA-48281] [SC-167260][SQL] Alterar lógica de pesquisa de cadeia de caracteres para agrupamento de UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
- [FAÍSCA-48577] [SC-168826][SQL] Substituição de sequência de bytes UTF-8 inválida
-
[FAÍSCA-48595] [SC-168580][CORE] Limpeza do uso preterido da api relacionado a
commons-compress
- [FAÍSCA-48030] [SC-164303][SQL] SPJ: cache rowOrdering e structType para InternalRowComparableWrapper
- [FAÍSCA-48004] [SC-164005][SQL] Adicionar característica WriteFilesExecBase para gravação v1
- [FAÍSCA-48551] [SC-168438][SQL] Melhoria do Perf para escapePathName
- [FAÍSCA-48565] [SC-168437][UI] Corrigir exibição de despejo de thread na interface do usuário
- [FAÍSCA-48364] [SC-166782][SQL] Adicionar transmissão de tipo AbstractMapType e corrigir o mapa de parâmetros RaiseError para trabalhar com cadeias de caracteres agrupadas
- [FAÍSCA-48421] [SC-168689][SQL] SPJ: Adicionar documentação
-
[FAÍSCA-48604] [SC-168698][SQL] Substituir chamada de método preterida
new ArrowType.Decimal(precision, scale)
- [FAÍSCA-46947] [SC-157561][CORE] Atrase a inicialização do gerenciador de memória até que o plug-in do driver seja carregado
- [FAÍSCA-48411] [SC-168576][SS][PYTHON] Adicionar teste E2E para DropDuplicateWithinWatermark
- [FAÍSCA-48543] [SC-168697][SS] Controlar falhas de validação de linha de estado usando classe de erro explícita
- [FAÍSCA-48221] [SC-167143][SQL] Alterar a lógica de pesquisa de cadeia de caracteres para agrupamento de UTF8_BINARY_LCASE (Contains, StartsWith, EndsWith, StringLocate)
- [FAÍSCA-47415] [SC-168441][SQL] Adicionar suporte de agrupamento para expressão Levenshtein
- [FAÍSCA-48593] [SC-168719][PYTHON][CONECTAR] Corrigir a representação de cadeia de caracteres da função lambda
- [SPARK-48622] [SC-168710][SQL] get SQLConf uma vez ao resolver nomes de column
-
[FAÍSCA-48594] [SC-168685][PYTHON][CONECTAR] Renomear
parent
campo parachild
inColumnAlias
- [FAÍSCA-48403] [SC-168319][SQL] Corrigir expressões Inferior ou Superior para agrupamentos de UTF8_BINARY_LCASE & UTI
- [FAÍSCA-48162] [SC-166062][SQL] Adicionar suporte de agrupamento para expressões MISC
- [FAÍSCA-48518] [SC-167718][CORE] Faça com que a compressão LZF possa ser executada em paralelo
-
[FAÍSCA-48474] [SC-167447][CORE] Corrigir o nome da classe do login
SparkSubmitArguments
&SparkSubmit
- [FAÍSCA-48012] [SC-168267][SQL] SPJ: Suporte a expressões Transfrom para embaralhamento de um lado
- [SPARK-48552] [SC-168212][SQL] a inferência de schema CSV multilinha também deverá gerar FAILED_READ_FILE
- [FAÍSCA-48560] [SC-168268][SS][PYTHON] Tornar o StreamingQueryListener.spark configurável
- [FAÍSCA-48569] [SC-168321][SS][CONECTAR] Lidar com casos de borda em query.name
- [FAÍSCA-47260] [SC-167323][SQL] Atribuir nome à classe de erro _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327][PYTHON][CONNECT] Propagar schema em cache em operações de set
- [SPARK-48155] [SC-165910][SQL] AQEPropagateEmptyRelation para join deve verificar se o filho restante é apenas BroadcastQueryStageExec
- [FAÍSCA-48506] [SC-167720][CORE] Os nomes curtos do codec de compressão não diferenciam maiúsculas de minúsculas, exceto para o registo de eventos
- [FAÍSCA-48447] [SC-167607][SS] Verifique a classe do provedor de armazenamento de estado antes de invocar o construtor
- [FAÍSCA-47977] [SC-167650] DateTimeUtils.timestampDiff e DateTimeUtils.timestampAdd não devem lançar INTERNAL_ERROR exceção
- [SPARK-48513] [Backport][15.x][SC-168085][SS] Adicionar classe de erro para compatibilidade de schema de estado e refatoração secundária
- [SPARK-48413] [SC-167669][SQL] ALTER COLUMN com agrupamento
-
[FAÍSCA-48561] [SC-168250][PS][CONECTAR] Lançar
PandasNotImplementedError
para funções de plotagem sem suporte - [FAÍSCA-48465] [SC-167531][SQL] Evite a propagação de relações vazias no-op
- [FAÍSCA-48553] [SC-168166][PYTHON][CONECTAR] Armazenar em cache mais propriedades
- [FAÍSCA-48540] [SC-168069][CORE] Evite as configurações de carregamento de saída de hera para stdout
- [SPARK-48535] [SC-168057][SS] Update documentos de configuração para indicar a possibilidade de perda ou corrupção de dados se a configuração de junções stream-stream de ignorar nulos estiver ativada
- [SPARK-48536] [SC-168059][PYTHON][CONNECT] Usuário de cache especificado schema em applyInPandas e applyInArrow
- [FAÍSCA-47873] [SC-163473][SQL] Gravar cadeias de caracteres agrupadas no metastore do Hive usando o tipo de cadeia de caracteres regular
- [FAÍSCA-48461] [SC-167442][SQL] Substitua NullPointerExceptions pela classe de erro na expressão AssertNotNull
- [FAÍSCA-47833] [SC-163191][SQL][CORE] Forneça pilhas de chamadorestrace para checkAndGlobPathIfNecessary AnalysisException
- [FAÍSCA-47898] [SC-163146][SQL] Porta HIVE-12270: Adicionar suporte DBTokenStore ao token de delegação HS2
- [FAÍSCA-47578] [SC-167497][R] Migrar RPackageUtils com variáveis para a estrutura de log estruturada
-
[SPARK-47875] [SC-162935][CORE] Remove
spark.deploy.recoverySerializer
-
[SPARK-47552] [SC-160880][CORE] Set
spark.hadoop.fs.s3a.connection.establish.timeout
a 30s se faltar - [FAÍSCA-47972] [SC-167692][SQL] Restringir expressão CAST para agrupamentos
- [FAÍSCA-48430] [SC-167489][SQL] Corrigir a extração do valor do mapa quando o mapa contém cadeias de caracteres agrupadas
- [FAÍSCA-47318] [SC-162712][CORE][3.5] Adiciona a rodada HKDF à derivação de chave AuthEngine para seguir as práticas KEX padrão
- [SPARK-48503] [BEHAVE-29][ES-1135236][SQL] Corrigir subconsultas escalares inválidas com group-by em columns não equivalentes que foram permitidas incorretamente
-
[SPARK-48508] [SC-167695][CONNECT][PYTHON] Cache dos parâmetros especificados pelo utilizador schema no
DataFrame.{to, mapInPandas, mapInArrow}
- [SPARK-23015] [SC-167188][WINDOWS] Corrigir bug no Windows where iniciar várias instâncias do Spark no mesmo segundo causa uma falha
- [FAÍSCA-45891] [SC-167608]Reverter " Descrever esquema de destruição para variante"
- [FAÍSCA-48391] [SC-167554][CORE]Usando addAll em vez de adicionar função no método fromAccumulatorInfos da classe TaskMetrics
- [FAÍSCA-48496] [SC-167600][CORE] Usar instâncias de padrão regex estático em JavaUtils.timeStringAs e JavaUtils.byteStringAs
- [FAÍSCA-48476] [SC-167488][SQL] corrigir mensagem de erro NPE para null delmiter csv
- [SPARK-48489] [SC-167598][SQL] Lançar um erro mais claro para o usuário ao tentar ler schema ilegal a partir da fonte de dados de texto
- [FAÍSCA-48471] [SC-167324][CORE] Melhorar a documentação e o guia de uso do servidor de histórico
- [FAÍSCA-45891] [SC-167597] Descrever o esquema de destruição para Variant
-
[FAÍSCA-47333] [SC-159043][SQL] Use checkInputDataTypes para verificar os tipos de parâmetros da função
to_xml
- [SPARK-47387] [SC-159310][SQL] Remove algumas classes de erro não utilizadas
- [SPARK-48265] [ES-1131440][SQL] Inferir window grupo limit lote deve fazer dobragem constante
- [FAÍSCA-47716] [SC-167444][SQL] Evitar conflito de nome de exibição no caso de teste de classificação semântica SQLQueryTestSuite
- [FAÍSCA-48159] [SC-167141][SQL] Estendendo o suporte para cadeias de caracteres agrupadas em expressões de data/hora
- [FAÍSCA-48462] [SC-167271][SQL][Testes] Use withSQLConf em testes: Refactor HiveQuerySuite e HiveTableScanSuite
-
[FAÍSCA-48392] [SC-167195][CORE] Carregue
spark-defaults.conf
também quando fornecido--properties-file
- [FAÍSCA-48468] [SC-167417] Adicionar interface LogicalQueryStage no catalyst
- [FAÍSCA-47578] [SC-164988][CORE] Backport manual para o Spark PR #46309: Migrar logWarning com variáveis para a estrutura de log estruturada
- [FAÍSCA-48415] [SC-167321]Reverter "[PYTHON] Refactor TypeName para suportar tipos de dados parametrizados"
- [SPARK-46544] [SC-151361][SQL] Suporte v2 DESCRIBE TABLE ESTENDIDO com estatísticas de table
- [FAÍSCA-48325] [SC-166963][CORE] Sempre especifique mensagens em ExecutorRunner.killProcess
- [FAÍSCA-46841] [SC-167139][SQL] Adicionar suporte de agrupamento para localidades de UTI e especificadores de agrupamento
- [FAÍSCA-47221] [SC-157870][SQL] Usa assinaturas de CsvParser para AbstractParser
-
[FAÍSCA-47246] [SC-158138][SQL] Substitua
InternalRow.fromSeq
pornew GenericInternalRow
para salvar uma conversão de coleção - [FAÍSCA-47597] [SC-163932][STREAMING] Backport manual para o Spark PR #46192: Streaming: Migrar logInfo com variáveis para a estrutura de log estruturada
-
[FAÍSCA-48415] [SC-167130][PYTHON] Refatorar
TypeName
para suportar tipos de dados parametrizados -
[SPARK-48434] [SC-167132][PYTHON][CONNECT] Faça com que
printSchema
utilize o schema armazenado em cache - [FAÍSCA-48432] [ES-1097114][SQL] Evite unboxing inteiros no UnivocityParser
- [FAÍSCA-47463] [SC-162840][SQL] Use V2Predicate para envolver a expressão com o tipo de retorno de booleano
- [FAÍSCA-47781] [SC-162293][SQL] Manipular decimais de escala negativa para fontes de dados JDBC
- [FAÍSCA-48394] [SC-166966][CORE] Limpar mapIdToMapIndex em mapoutput cancelar registro
- [FAÍSCA-47072] [SC-156933][SQL] Corrigir formatos de intervalo suportados em mensagens de erro
- [FAÍSCA-47001] [SC-162487][SQL] Verificação de pushdown no otimizador
-
[FAÍSCA-48335] [SC-166387][PYTHON][CONECTAR] Torne
_parse_datatype_string
compatível com o Spark Connect -
[FAÍSCA-48329] [SC-166518][SQL] Ativar
spark.sql.sources.v2.bucketing.pushPartValues.enabled
por padrão - [FAÍSCA-48412] [SC-166898][PYTHON] Refatorar tipo de dados json parse
- [FAÍSCA-48215] [SC-166781][SQL] Estendendo o suporte para cadeias de caracteres agrupadas em date_format expressão
- [SPARK-45009] [SC-166873][SQL][FOLLOW-UP] Adicionar classe de erro e testes para descorrelação de subconsultas de predicados em join condição que fazem referência a join filho
- [FAÍSCA-47960] [SC-165295][SS][15.x] Permitir o encadeamento de outros operadores com estado após o operador transformWithState.
- [SPARK-48340] [SC-166468][PYTHON] Suporte inferência de TimestampNTZ schema falta prefer_timestamp_ntz
- [FAÍSCA-48157] [SC-165902][SQL] Adicionar suporte de agrupamento para expressões CSV
- [FAÍSCA-48158] [SC-165652][SQL] Adicionar suporte de agrupamento para expressões XML
- [FAÍSCA-48160] [SC-166064][SQL] Adicionar suporte de agrupamento para expressões XPATH
- [FAÍSCA-48229] [SC-165901][SQL] Adicionar suporte de agrupamento para expressões inputFile
- [FAÍSCA-48367] [SC-166487][CONECTAR] Corrigir lint-scala para scalafmt para detetar arquivos para formatar corretamente
- [FAÍSCA-47858] [SC-163095][FAÍSCA-47852][PYTHON][SQL] Refatoração da estrutura para o contexto de erro do DataFrame
- [FAÍSCA-48370] [SC-166787][CONECTAR] Ponto de verificação e localCheckpoint no cliente Scala Spark Connect
- [SPARK-48247] [SC-166028][PYTHON] Use todos os values em um ditado ao inferir MapType schema
-
[FAÍSCA-48395] [SC-166794][PYTHON] Correção
StructType.treeString
para tipos parametrizados -
[FAÍSCA-48393] [SC-166784][PYTHON] Mover um grupo de constantes para
pyspark.util
-
[FAÍSCA-48372] [SC-166776][FAÍSCA-45716][PYTHON] Implementar
StructType.treeString
- [FAÍSCA-48258] [SC-166467][PYTHON][CONECTAR] Checkpoint e localCheckpoint no Spark Connect
Consulte Atualizações de manutenção do Databricks Runtime 15.4 LTS.
Ambiente do sistema
- Sistema Operacional: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Escala: 2.12.18
- Píton: 3.11.0
- R: 4.3.2
- Lago Delta: 3.2.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
AstTokens | 2.0.5 | Astunparse | 1.6.3 | azure-core | 1.30.2 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | Backcall | 0.2.0 |
preto | 23.3.0 | pisca-pisca | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | Ferramentas de cache | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | Normalizador de Charset | 2.0.4 |
clicar | 8.0.4 | Cloudpickle | 2.2.1 | Comm | 0.1.2 |
contorno | 1.0.5 | criptografia | 41.0.3 | cycler | 0.11.0 |
Quisto | 0.29.32 | Databricks-SDK | 0.20.0 | dbus-python | 1.2.18 |
depuração | 1.6.7 | decorador | 5.1.1 | Distlib | 0.3.8 |
pontos de entrada | 0.4 | execução | 0.8.3 | facetas-visão geral | 1.1.1 |
filelock | 3.13.4 | Fonttools | 4.25.0 | GitDB | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | Google-Auth | 2.31.0 |
google-nuvem-core | 2.4.1 | google-nuvem-armazenamento | 2.17.0 | Google-CRC32C | 1.5.0 |
google-retomable-media | 2.7.1 | googleapis-comuns-protos | 1.63.2 | Grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadados | 6.0.0 | ipyflow-núcleo | 0.0.198 | Ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Isodato | 0.6.1 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
jmespath | 0.10.0 | Joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | porta-chaves | 23.5.0 | Kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-em linha | 0.1.6 | mlflow-magro | 2.11.4 |
mais-itertools | 8.10.0 | mypy-extensões | 0.4.3 | Ninho-Asyncio | 1.5.6 |
numpy | 1.23.5 | OAuthlib | 3.2.0 | embalagem | 23.2 |
pandas | 1.5.3 | Parso | 0.8.3 | PathSpec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Travesseiro | 9.4.0 | pip | 23.2.1 | plataformadirs | 3.10.0 |
enredo | 5.9.0 | prompt-toolkit | 3.0.36 | Proto-Plus | 1.24.0 |
protobuf | 4.24.1 | PSUTIL | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | puro-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 | Pyccolo | 0.0.52 |
pycparser | 2.21 | Pidântico | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | Pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6,0 | Pyzmq | 23.2.0 |
pedidos | 2.31.0 | RSA | 4,9 | s3transferir | 0.10.2 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
Armazenamento Secreto | 3.3.1 | setuptools | 68.0.0 | seis | 1.16.0 |
smmap | 5.0.1 | SQLPARSE | 0.5.0 | ssh-import-id | 5.11 |
dados de pilha | 0.2.0 | statsmodels | 0.14.0 | tenacidade | 8.2.2 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traços | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
Ujson | 5.4.0 | Upgrades autônomos | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | largura de wc | 0.2.5 |
roda | 0.38.4 | zipp | | 3.11.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 14.0.0.2 | AskPass | 1.2.0 | asserçãoat | 0.2.1 |
backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | arranque | 1.3-28 |
brew | 1.0-10 | Brio | 1.1.4 | vassoura | 1.0.5 |
BSLIB | 0.6.1 | cachem | 1.0.8 | Chamador | 3.7.3 |
acento circunflexo | 6.0-94 | Cellranger | 1.1.0 | crono | 2.3-61 |
classe | 7.3-22 | cli | 3.6.2 | Clipr | 0.8.0 |
relógio | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
espaço em cores | 2.1-0 | marca comum | 1.9.1 | compilador | 4.3.2 |
configuração | 0.3.2 | conflituosos | 1.2.0 | CPP11 | 0.4.7 |
lápis de cor | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
dados.table | 1.15.0 | conjuntos de dados | 4.3.2 | DBI | 1.2.1 |
DBPlyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
diagrama | 1.6.5 | diffobj | 0.3.5 | resumo | 0.6.34 |
Iluminação reduzida | 0.4.3 | dplyr | 1.1.4 | DTPlyr | 1.3.1 |
E1071 | 1.7-14 | reticências | 0.3.2 | evaluate | 0.23 |
Fãsi | 1.0.6 | Farver | 2.1.1 | mapa rápido | 1.1.1 |
fontawesome | 0.5.2 | FORCATS | 1.0.0 | foreach | 1.5.2 |
externa | 0.8-85 | forjar | 0.2.0 | FS | 1.6.3 |
Futuro | 1.33.1 | future.apply | 1.11.1 | gargarejo | 1.5.2 |
Genéricos | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
GH | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | Globais | 0.16.2 | colar | 1.7.0 |
GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
gráficos | 4.3.2 | grDevices | 4.3.2 | grelha | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
gtable | 0.3.4 | capacete | 1.3.1 | Refúgio | 2.5.4 |
mais alto | 0.10 | HMS | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
HTTR2 | 1.0.0 | IDs | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | Isoband | 0.2.7 | iteradores | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
KernSmooth | 2.23-21 | Knitr | 1.45 | etiquetagem | 0.4.3 |
mais tarde | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
ciclo de vida | 1.0.4 | ouvirv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | Marcação | 1.12 | MASSA | 7.3-60 |
Matriz | 1.5-4.1 | memoise | 2.0.1 | métodos | 4.3.2 |
mgcv | 1.8-42 | mime | 0,12 | miniUI | 0.1.1.1 |
Mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | paralelo | 4.3.2 |
Paralelamente | 1.36.0 | pilar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | elogiar | 1.0.0 |
unidades bonitas | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | Profvis | 0.3.8 | Progresso | 1.2.3 |
progressor | 0.14.0 | promessas | 1.2.1 | proto | 1.0.0 |
procuração | 0.4-27 | PS | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | RAGG | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactável | 0.4.4 |
reactR | 0.5.0 | Leitor | 2.1.5 | ReadXL | 1.4.3 |
receitas | 1.0.9 | revanche | 2.0.0 | revanche2 | 2.1.2 |
Controles remotos | 2.4.2.1 | Reprex | 2.1.0 | remodelar2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversões | 2.1.2 | Rvest | 1.0.3 | Sass | 0.4.8 |
escalas | 1.3.0 | seletor | 0.4-2 | sessioninfo | 1.2.2 |
forma | 1.4.6 | brilhante | 1.8.0 | ferramentas de origem | 0.1.7-1 |
sparklyr | 1.8.4 | espacial | 7.3-15 | splines | 4.3.2 |
sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
sobrevivência | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
fontes do sistema | 1.0.5 | tcltk | 4.3.2 | testeatat | 3.2.1 |
formatação de texto | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | Tidyverse | 2.0.0 | mudança de hora | 0.3.0 |
timeDate | 4032.109 | Tinytex | 0.49 | ferramentas | 4.3.2 |
TZDB | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
UTF8 | 1.2.4 | utilitários | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | VCTRS | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | Waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
Zeallot | 0.1.0 | zip | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | transmissão em fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | sombreado de kryo | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotações | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-Nativos |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
com.github.luben | ZSTD-JNI | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | criador de perfil | 1.1.1 |
com.ibm.icu | ICU4J | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | JAXB-CORE | 2.2.11 |
com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.4.3 |
com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | Lapack | | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.ponte aérea | compressor de ar | 0.25 |
IO.Delta | delta-compartilhamento-client_2.12 | 1.1.1 |
io.dropwizard.metrics | métricas-anotação | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | métricas-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-meias | 4.1.96.Final |
io.netty | netty-comum | 4.1.96.Final |
io.netty | netty-manipulador | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Janelas finais x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | transporte de rede | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-nativo-unix-comum | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recoletor | 0.12.0 |
jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
jacarta.servlet | jacarta.servlet-api | 4.0.3 |
jacarta.validação | Jacarta.validation-api | 2.0.2 |
jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
javax.activation | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | picles | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | formato de seta | 15.0.0 |
org.apache.arrow | seta-memória-núcleo | 15.0.0 |
org.apache.arrow | seta-memória-netty | 15.0.0 |
org.apache.arrow | vetor de seta | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapeado | 1.11.3 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.10.0 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | curador-framework | 2.13.0 |
org.apache.curator | curador-receitas | 2.13.0 |
org.apache.datasketches | Datasketches-Java | 3.1.0 |
org.apache.datasketches | datasketches-memória | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-cliente | 2.3.9 |
org.apache.hive | colmeia-lamp-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | hera | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-modelo-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-núcleo | 1.9.2-protobuf sombreado |
org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
org.apache.orc | Orc-calços | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.23 |
org.apache.yetus | anotações de audiência | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | verificador-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-coleções | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | cais-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | servidor de jersey | 2.40 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | LZ4-Java | 1.8.0 |
org.mlflow | mlflow-spark_2,12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | calços | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
org.scala-lang | Escala-library_2.12 | 2.12.15 |
org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
org.scala-lang.modules | scala-coleção-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | SLF4J-Simples | 1.7.25 |
org.threeten | trêsdez-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | gatos-kernel_2.12 | 2.1.1 |
org.typelevel | torre-macros_2.12 | 0.17.0 |
org.typelevel | torre-platform_2.12 | 0.17.0 |
org.typelevel | torre-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | mosca-selvagem-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |