Partilhar via


Databricks Tempo de execução 15.4 LTS

As notas de versão a seguir fornecem informações sobre o Databricks Runtime 15.4 LTS, alimentado pelo Apache Spark 3.5.0.

A Databricks lançou esta versão em agosto de 2024.

Nota

LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.

Gorjeta

Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.

Mudanças comportamentais

Usar a VARIANT como o tipo de entrada ou saída com um Python UDF, UDAF ou UDTF gera uma exceção

[Alteração disruptiva] No Databricks Runtime 15.3 e posteriores, chamar qualquer função definida pelo utilizador (UDF), função de agregação definida pelo utilizador (UDAF) ou função de table definida pelo utilizador (UDTF) que utilize um tipo VARIANT como argumento ou valor de retorno gera uma exceção. Essa alteração é feita para evitar problemas que podem ocorrer devido a um valor inválido retornado por uma dessas funções. Para saber mais sobre o VARIANT tipo, consulte Usar VARIANTES para armazenar dados semiestruturados.

Altere o modo de vinculação padrão de schema para views

Views agora adaptam-se às mudanças de schema na consulta subjacente, usando schema ajustamento com regras normais de conversão. Esta é uma alteração em relação ao padrão anterior do modo, que gerava erros quando uma transmissão segura não podia ser executada BINDING ao fazer referência à exibição.

Veja a função de elencono e .

Não permitir o uso da sintaxe não documentada ! em vez de NOT expressões booleanas externas

Com esta versão, o uso de ! como sinônimo para NOT fora de expressões booleanas não é mais permitido. Por exemplo, afirmações como as seguintes: CREATE ... IF ! EXISTS, IS ! NULL, uma propriedade de ! NULLcolumn ou campo, ! IN e ! ENTRE, devem ser substituídas por: CREATE ... IF NOT EXISTS, IS NOT NULL, uma propriedade NOT NULLcolumn ou campo, NOT IN e NOT BETWEEN.

Essa alteração garante consistência, alinha-se com o padrão SQL e torna seu SQL mais portátil.

O operador! de prefixo booleano (por exemplo, !is_mgr ou !(true AND false)) não é afetado por essa alteração.

Não permitir a sintaxe de definição não documentada de column em views

O Databricks suporta CREATE VIEW com comentários nomeados columns e column. Anteriormente, a especificação de tipos column, restrições NOT NULL, ou DEFAULT foi permitida. Com esta versão, você não pode mais usar essa sintaxe.

Essa alteração garante consistência, alinha-se com o padrão SQL e oferece suporte a aprimoramentos futuros.

Tratamento consistente de erros para decodificação Base64 no Spark e Photon

Esta versão altera como o Photon lida com erros de decodificação Base64 para corresponder ao tratamento Spark desses erros. Antes dessas alterações, o caminho de geração de código do Photon e do Spark às vezes falhava em gerar exceções de análise, enquanto o Spark interpretava a execução corretamente gerada IllegalArgumentException ou ConversionInvalidInputError. Esse update garante que o Photon gere consistentemente as mesmas exceções que o Spark durante erros de decodificação Base64, fornecendo um tratamento de erros mais previsível e confiável.

Adicionar um CHECKconstraint num column inválido agora retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION

Para fornecer mensagens de erro mais úteis, no Databricks Runtime 15.3 ou versões posteriores, uma instrução ALTER TABLE ADD CONSTRAINT que inclui um CHECKconstraint referenciando um nome de column inválido retorna a classe de erro UNRESOLVED_COLUMN.WITH_SUGGESTION. Anteriormente, um INTERNAL_ERROR foi devolvido.

Novos recursos e melhorias

Funções de validação UTF-8

Esta versão apresenta as seguintes funções para validar cadeias de caracteres UTF-8:

  • is_valid_utf8 verificado se uma cadeia de caracteres é uma cadeia de caracteres UTF-8 válida.
  • make_valid_utf8 converte uma cadeia de caracteres UTF-8 potencialmente inválida em uma cadeia de caracteres UTF-8 válida usando caracteres de substituição
  • validate_utf8 gera um erro se a entrada não for uma cadeia de caracteres UTF-8 válida.
  • try_validate_utf8 retorna NULL se a entrada não for uma cadeia de caracteres UTF-8 válida.

APIs de conjunto de dados tipadas com UDFs Scala

Esta versão inclui suporte adicionado para APIs de conjunto de dados tipadas com funções definidas pelo utilizador em Scala (excluindo funções agregadas definidas pelo utilizador) na computação habilitada para Unity Catalogcom modo de acesso partilhado. Consulte APIs de conjunto de dados tipadas.

Habilite o UniForm Iceberg usando ALTER TABLE

Agora você pode habilitar o UniForm Iceberg em tables existentes sem reescrever arquivos de dados. Consulte Ativar leituras do Iceberg em um(a) tableexistente.

try_url_decode função

Esta versão apresenta a função try_url_decode, que decodifica uma cadeia de caracteres codificada por URL. Se a cadeia de caracteres não estiver no formato correto, a função retornará NULL em vez de gerar um erro.

Opcionalmente, permita que o otimizador dependa de restrições de chave estrangeira não impostas

Para melhorar o desempenho da consulta, agora você pode especificar a palavra-chave RELY em restrições de FOREIGN KEY ao CREATE ou ALTER um table.

Execuções de trabalho paralelizadas para substituições seletivas

As substituições seletivas usando o replaceWhere agora executam trabalhos que excluem dados e insert novos dados em paralelo, melhorando o desempenho da consulta e a utilização do cluster.

Desempenho aprimorado para feed de dados de alteração com substituições seletivas

As substituições seletivas feitas usando replaceWhere em tables com feed de dados de alteração não gravam mais arquivos de dados de alteração separados para dados inseridos. Essas operações usam um _change_typecolumn oculto presente nos arquivos de dados subjacentes do Parquet para registrar alterações sem amplificação de gravação.

Latência de consulta melhorada para o COPY INTO comando

Esta versão inclui uma alteração que melhora a latência de consulta para o COPY INTO comando. Essa melhoria é implementada tornando o carregamento do estado pelo armazenamento de estado RocksDB assíncrono. Com essa alteração, você verá uma melhoria nos tempos de início para consultas com estados grandes, como consultas com um grande número de arquivos já ingeridos.

Suporte para suprimir o recurso de restrições de verificação table

Agora poderá remover a funcionalidade checkConstraintstable de um Delta table usando ALTER TABLE table_name DROP FEATURE checkConstraints. Consulte Desativar restrições de verificação.

A computação de utilizador único suporta controle de acesso refinado, viewsmaterializado e streaming tables (Visualização pública)

Quando um espaço de trabalho está habilitado para computação sem servidor, o Databricks Runtime 15.4 LTS adiciona suporte para controle de acesso refinado em computação de usuário único. Quando uma consulta acessa qualquer um dos seguintes objetos, o recurso de computação de usuário único no Databricks Runtime 15.4 LTS passa a consulta para a computação sem servidor para executar a filtragem de dados:

  • Views definido sobre tables em que o utilizador não tem o privilégio SELECT.
  • Dinâmica views.
  • Tables com filtros de linha ou máscaras de column aplicadas.
  • Materializado views e streaming tables.

Essas consultas não são suportadas na computação de usuário único que executa o Databricks Runtime 15.3 e inferior.

Para obter mais informações, consulte Controle de acesso refinado na computação de usuário único.

Suporte expandido para bibliotecas Java e Scala

A partir do Databricks Runtime 15.4 LTS, todas as bibliotecas Java e Scala empacotadas com o Databricks Runtime estão disponíveis em todos os modos de acesso de computação quando você usa o Unity Catalog. Para saber mais sobre o suporte a idiomas na computação habilitada para Unity Catalog, consulte Limitações do modo de acesso de computação para Unity Catalog.

Suporte expandido para operações de conjunto de dados Scala

Com esta versão, os recursos de computação habilitados para o Unity Catalogque utilizam o modo de acesso partilhado suportam as operações de Scala Dataset seguintes: map, mapPartitions, foreachPartition, flatMap, reduce e filter.

Scala está geralmente disponível na Unity Catalog computação partilhada

No modo de acesso compartilhado com Unity Catalog, esta versão torna o Scala geralmente disponível em computação habilitada, incluindo suporte para funções escalares definidas pelo utilizador (UDFs). Não há suporte para Streaming estruturado, UDFs do Hive e funções agregadas definidas pelo usuário do Hive. Para obter uma list completa das limitações, consulte Limitações do modo de acesso de computação para Unity Catalog.

Unity Catalog- acesso controlado a serviços de nuvem externos utilizando o serviço credentials (Pré-visualização pública)

O Serviço credentials permite uma autenticação simples e segura com os serviços do tenant da cloud usando identidades geridas do Azure (MI) e Unity Catalog. Consulte Gerenciar o acesso a serviços de nuvem externos usando o serviço credentials.

Correções de erros

Atualizações da biblioteca

  • Bibliotecas Python atualizadas:
    • azure-core de 1.30.1 a 1.30.2
    • google-auth de 2.29.0 a 2.31.0
    • google-cloud-storage de 2.16.0 a 2.17.0
    • google-retomable-media de 2.7.0 a 2.7.1
    • googleapis-common-protos de 1.63.0 a 1.63.2
    • mlflow-skinny de 2.11.3 a 2.11.4
    • proto-plus de 1.23.0 a 1.24.0
    • s3transfer de 0.10.1 a 0.10.2
  • Bibliotecas R atualizadas:
  • Bibliotecas Java atualizadas:
    • com.databricks.databricks-sdk-java de 0.17.1 a 0.27.0
    • com.ibm.icu.icu4j de 72.1 a 75.1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.1-linux-x86_64 para 1.6.2-linux-x86_64

Faísca Apache

O Databricks Runtime 15.4 LTS inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 15.3 e as seguintes correções de bugs adicionais e melhorias feitas no Spark:

  • [FAÍSCA-48503] [DBRRM-1150][SC-172196][SQL] Permitir agrupamento em expressões em subconsultas escalares, se elas estiverem vinculadas a linhas externas
  • [FAÍSCA-48834] [BEHAVE-79][SC-170972][SQL] Desative a entrada/saída variante para UDFs, UDTFs, UDAFs escalares python durante a compilação da consulta
  • [FAÍSCA-48441] [SC-170980][SQL][WARMFIX] Corrigir o comportamento de StringTrim para agrupamentos não UTF8_BINARY
  • [FAÍSCA-48440] [SC-170895][SQL][WARMFIX] Corrigir o comportamento StringTranslate para agrupamentos não UTF8_BINARY
  • [FAÍSCA-48872] [SC-170866][PYTHON] Reduza a sobrecarga de _capture_call_site
  • [FAÍSCA-48862] [SC-170845][PYTHON][CONECTAR] Evite ligar _proto_to_string quando o nível INFO não estiver ativado
  • [FAÍSCA-48852] [SC-170837][CONECTAR] Corrigir função de corte de cadeia de caracteres na conexão
  • [FAÍSCA-48791] [SC-170658][CORE] Corrigir regressão perf causada pela sobrecarga de registro de acumuladores usando CopyOnWriteArrayList
  • [FAÍSCA-48118] [SQL] Suporte SPARK_SQL_LEGACY_CREATE_HIVE_TABLE env variável
  • [SPARK-48241] [SC-165811][SQL] Falha de análise CSV com columns tipo char/varchar
  • [FAÍSCA-48168] [SC-166900][SQL] Adicionar suporte a operadores de mudança bit a bit
  • [FAÍSCA-48148] [SC-165630][CORE] Os objetos JSON não devem ser modificados quando lidos como STRING
  • [SPARK-46625] [SC-170561] CTE com cláusula Identifier como referência
  • [FAÍSCA-48771] [SC-170546][SQL] Acelere para LogicalPlanIntegrity.validateExprIdUniqueness planos de consulta grandes
  • [SPARK-48831] [BEHAVE-76][SC-170554][CONNECT] Tornar o nome column padrão do cast compatível com o Spark Classic
  • [FAÍSCA-48623] [SC-170544][CORE] Migrações de log estruturado [Parte 2]
  • [FAÍSCA-48296] [SC-166138][SQL] Suporte Codegen para to_xml
  • [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter para múltiplos níveis de join deve verificar o tipo de join filho
  • [FAÍSCA-48686] [SC-170365][SQL] Melhorar o desempenho de ParserUtils.unescapeSQLString
  • [FAÍSCA-48798] [SC-170588][PYTHON] Introdução spark.profile.render para criação de perfil baseada em SparkSession
  • [FAÍSCA-48048] [SC-169099] Reverter "[SC-164846][CONNECT][SS] Adicionado suporte de ouvinte do lado do cliente para Scala"
  • [FAÍSCA-47910] [SC-168929][CORE] fechar fluxo quando DiskBlockObjectWriter fechaRecursos para evitar vazamento de memória
  • [FAÍSCA-48816] [SC-170547][SQL] Taquigrafia para conversores de intervalo em UnivocityParser
  • [FAÍSCA-48589] [SC-170132][SQL][SS] Adicionar opção snapshotStartBatchId e snapshotPartitionId à fonte de dados de estado
  • [FAÍSCA-48280] [SC-170293][SQL] Melhorar a área de superfície de teste de agrupamento usando a caminhada de expressão
  • [FAÍSCA-48837] [SC-170540][ML] No CountVectorizer, leia apenas o parâmetro binário uma vez por transformação, não uma vez por linha
  • [FAÍSCA-48803] [SC-170541][SQL] Lançar erro interno no Orc(De)serializer para alinhar com ParquetWriteSupport
  • [FAÍSCA-48764] [SC-170129][PYTHON] Filtrando quadros relacionados a IPython da pilha de usuários
  • [FAÍSCA-48818] [SC-170414][PYTHON] Simplifique percentile funções
  • [SPARK-48479] [SC-169079][SQL] Suporte à criação de UDFs SQL escalares e table no analisador
  • [FAÍSCA-48697] [SC-170122][LC-4703][SQL] Adicionar filtros de cadeia de caracteres com reconhecimento de agrupamento
  • [FAÍSCA-48800] [SC-170409][CONECTAR][SS] Deflake ClientStreamingQuerySuite
  • [FAÍSCA-48738] [SC-169814][SQL] Correto desde a versão para built-in func alias random, position, mod, cardinality, current_schema, user, session_user,char_length,character_length
  • [FAÍSCA-48638] [SC-169575][CONECTAR] Adicionar suporte ExecutionInfo para DataFrame
  • [SPARK-48064] [SC-164697][SQL] Update mensagens de erro para classes de erro relacionadas com a rotina
  • [FAÍSCA-48810] [CONECTAR] A API Session stop() deve ser idempotente e não falhar se a sessão já estiver fechada pelo servidor
  • [FAÍSCA-48650] [15.x][PYTHON] Exibir o site de chamada correto do IPython Notebook
  • [FAÍSCA-48271] [SC-166076][SQL] Transforme o erro de correspondência no RowEncoder em UNSUPPORTED_DATA_TYPE_FOR_ENCODER
  • [FAÍSCA-48709] [SC-169603][SQL] Corrigir incompatibilidade de resolução de tipo varchar para DataSourceV2 CTAS
  • [SPARK-48792] [SC-170335][SQL] Corrigir regressão de INSERT com columnlist parcial para um table com char/varchar
  • [FAÍSCA-48767] [SC-170330][SQL] Corrigir alguns prompts de erro quando variant os dados de tipo são inválidos
  • [FAÍSCA-48719] [SC-170339][SQL] Corrigir o bug de cálculo de RegrSlope & RegrIntercept quando o primeiro parâmetro é nulo
  • [SPARK-48815] [SC-170334][CONNECT] Update ambiente ao interromper a sessão de conexão
  • [FAÍSCA-48646] [SC-169020][PYTHON] Refine a fonte de dados Python API docstring e dicas de tipo
  • [FAÍSCA-48806] [SC-170310][SQL] Passar exceção real quando url_decode falhar
  • [FAÍSCA-47777] [SC-168818] corrigir python streaming fonte de dados teste de conexão
  • [FAÍSCA-48732] [SC-169793][SQL] Limpeza do uso preterido da api relacionado a JdbcDialect.compileAggregate
  • [SPARK-48675] [SC-169538][SQL] Corrigir table de cache com column agrupados
  • [FAÍSCA-48623] [SC-169034][CORE] Migrações de log estruturado
  • [FAÍSCA-48655] [SC-169542][SQL] SPJ: Adicionar testes para pular aleatório para consultas agregadas
  • [SPARK-48586] [SC-169808][SS] Remove aquisição de bloqueio em doMaintenance() fazendo uma cópia profunda dos mapeamentos de arquivos no RocksDBFileManager em load()
  • [FAÍSCA-48799] [Backport][15.x][SC-170283][SS] Refatoração de controle de versão para leitura/gravação de metadados do operador e chamadores
  • [SPARK-48808] [SC-170309][SQL] Corrija o NPE ao conectar o thriftserver através do Hive 1.2.1 e o schema de resultados estiver vazio
  • [FAÍSCA-48715] [SC-170291][SQL] Integre a validação UTF8String em implementações de função de cadeia de caracteres com reconhecimento de agrupamento
  • [FAÍSCA-48747] [SC-170120][SQL] Adicionar iterador de ponto de código a UTF8String
  • [FAÍSCA-48748] [SC-170115][SQL] Cache numChars em UTF8String
  • [FAÍSCA-48744] [SC-169817][Núcleo] A entrada de log deve ser construída apenas uma vez
  • [SPARK-46122] [SC-164313][SQL] Setspark.sql.legacy.createHiveTableByDefault para false por padrão
  • [FAÍSCA-48765] [SC-170119][IMPLANTAR] Melhorar a avaliação de valor padrão para SPARK_IDENT_STRING
  • [SPARK-48759] [SC-170128][SQL] Adicionar documento de migração para CREATE TABLE AS SELECT mudança de comportamento desde o Spark 3.4
  • [SPARK-48598] [SC-169484][PYTHON][CONNECT] Propagar a schema armazenada em cache em operações de dataframe
  • [FAÍSCA-48766] [SC-170126][PYTHON] Documentar a diferença de comportamento entre extractionelement_at e try_element_at
  • [FAÍSCA-48768] [SC-170124][PYTHON][CONECTAR] Não deve armazenar em cache explain
  • [SPARK-48770] [Backport][15.x][SC-170133][SS] Alterar para que a leitura dos metadados do operador seja feita uma vez no driver para verificar se é possível encontrar informações para numColsPrefixKey utilizado para consultas de agregação de sessão window
  • [FAÍSCA-48656] [SC-169529][CORE] Faça uma verificação de comprimento e lance COLLECTION_SIZE_LIMIT_EXCEEDED erro em CartesianRDD.getPartitions
  • [FAÍSCA-48597] [SC-168817][SQL] Introduzir um marcador para a propriedade isStreaming na representação de texto do plano lógico
  • [FAÍSCA-48472] [SC-169044][SQL] Habilitar expressões de reflexão com cadeias de caracteres agrupadas
  • [FAÍSCA-48699] [SC-169597][SQL] Refinar a API de agrupamento
  • [FAÍSCA-48682] [SC-169812][SQL][BEHAVE-58] Usar UTI na expressão InitCap para cadeias de caracteres UTF8_BINARY
  • [FAÍSCA-48282] [SC-169813][SQL] Alterar a lógica de pesquisa de cadeia de caracteres para agrupamento de UTF8_BINARY_LCASE (StringReplace, FindInSet)
  • [FAÍSCA-47353] [SC-169599][SQL] Habilitar o suporte de agrupamento para a expressão Modo
  • [SPARK-48320] [SPARK-48490] Sync a mais recente característica de registro e casos de teste do OSS Spark
  • [FAÍSCA-48629] [SC-169479] Migrar o código residual para a estrutura de log estruturada
  • [FAÍSCA-48681] [SC-169469][SQL][BEHAVE-58] Usar UTI em expressões inferiores/superiores para cadeias de UTF8_BINARY
  • [FAÍSCA-48573] [15.x][SC-169582][SQL] Atualizar versão da UTI
  • [SPARK-48687] [Backport][15.x][SS] Adicionar alteração para executar a validação de schema de estado e update no driver para consultas com monitoração de estado
  • [FAÍSCA-47579] [15.x][SC-167310][CORE][PARTE 4] Migrar logInfo com variáveis para a estrutura de log estruturada
  • [FAÍSCA-48008] [SC-167363][1/2] Suporta UDAFs no Spark Connect
  • [FAÍSCA-48578] [SC-169505][SQL] adicionar funções relacionadas à validação de cadeia de caracteres UTF8
  • [FAÍSCA-48670] [SC-169598][SQL] Fornecendo sugestão como parte da mensagem de erro quando o nome de agrupamento inválido é fornecido
  • [FAÍSCA-48059] [FAÍSCA-48145][FAÍSCA-48134][FAÍSCA-48182][FAÍSCA-48209][SPA... … RK-48291] Estrutura de log estruturada no lado java
  • [FAÍSCA-47599] [15.x][SC-166000][MLLIB] MLLib: Migrar logWarn com variáveis para a estrutura de log estruturada
  • [FAÍSCA-48706] [SC-169589][PYTHON] Python UDF em funções de ordem superior não deve lançar erro interno
  • [FAÍSCA-48498] [COMPORTAR-38][SC-168060][SQL] Faça sempre preenchimento char em predicados
  • [FAÍSCA-48662] [SC-169533][SQL] Corrigir expressão StructsToXml com agrupamentos
  • [FAÍSCA-48482] [SC-167702][PYTHON][15.x] dropDuplicates e dropDuplicatesWIthinWatermark deve aceitar args de comprimento variável
  • [SPARK-48678] [SC-169463][CORE] Otimizações de desempenho para SparkConf.get(ConfigEntry)
  • [FAÍSCA-48576] [SQL] Renomear UTF8_BINARY_LCASE para UTF8_LCASE
  • [FAÍSCA-47927] [SC-164123][SQL]: Corrigir atributo de anulabilidade no decodificador UDF
  • [FAÍSCA-47579] [SC-165297][CORE][PARTE 1] Migrar logInfo com variáveis para a estrutura de log estruturada (novo)
  • [FAÍSCA-48695] [SC-169473][PYTHON] TimestampNTZType.fromInternal não usar os métodos preteridos
  • [SPARK-48431] [SC-167290][LC-4066][SQL] Não encaminhar predicados em columns agrupados para leitores de arquivos
  • [FAÍSCA-47579] Reverter "[SC-165297][CORE][PART1] Migrar logInfo com variáveis para a estrutura de log estruturada"
  • [FAÍSCA-47585] [SC-164306][SQL] SQL core: Migrar logInfo com variáveis para a estrutura de log estruturada
  • [FAÍSCA-48466] [SC-169042][SQL] Criar nó dedicado para EmptyRelation no AQE
  • [FAÍSCA-47579] [SC-165297][CORE][PARTE 1] Migrar logInfo com variáveis para a estrutura de log estruturada
  • [FAÍSCA-48410] [SC-168320][SQL] Corrigir expressão InitCap para agrupamentos de UTF8_BINARY_LCASE & ICU
  • [SPARK-48318] [SC-167709][SQL] Habilitar suporte a join de hash para todos os agrupamentos (tipos complexos)
  • [FAÍSCA-48435] [SC-168128][SQL] O agrupamento UNICODE não deve suportar igualdade binária
  • [SPARK-48555] [SC-169041][SQL][PYTHON][CONNECT] Suporte usando Columns como parameters para várias funções em pyspark/scala
  • [FAÍSCA-48591] [SC-169081][PYTHON] Adicionar uma função auxiliar para simplificar Column.py
  • [FAÍSCA-48574] [SC-169043][SQL] Corrigir o suporte para StructTypes com agrupamentos
  • [FAÍSCA-48305] [SC-166390][SQL] Adicionar suporte de agrupamento para expressões CurrentLike
  • [FAÍSCA-48342] [SC-168941][SQL] Introdução ao SQL Scripting Parser
  • [SPARK-48649] [SC-169024][SQL] Adicione as configurações "ignoreInvalidPartitionPaths" e "spark.sql.files.ignoreInvalidPartitionPaths" para permitir ignorar caminhos partition inválidos
  • [SPARK-48000] [SC-167194][SQL] Habilitar suporte a hash join para todos os agrupamentos (StringType)
  • [FAÍSCA-48459] [SC-168947][CONECTAR][PYTHON] Implementar DataFrameQueryContext no Spark Connect
  • [FAÍSCA-48602] [SC-168692][SQL] Faça com que o gerador csv suporte um estilo de saída diferente com spark.sql.binaryOutputStyle
  • [FAÍSCA-48283] [SC-168129][SQL] Modificar a comparação de cadeia de caracteres para UTF8_BINARY_LCASE
  • [FAÍSCA-48610] [SC-168830][SQL] refactor: use idMap auxiliar em vez de OP_ID_TAG
  • [FAÍSCA-48634] [SC-169021][PYTHON][CONECTAR] Evite inicializar estaticamente o threadpool em ExecutePlanResponseReattachableIterator
  • [FAÍSCA-47911] [SC-164658][SQL] Introduz um BinaryFormatter universal para tornar a saída binária consistente
  • [FAÍSCA-48642] [SC-168889][CORE] Falso SparkOutOfMemoryError causado por matar tarefa ao derramar
  • [FAÍSCA-48572] [SC-168844][SQL] Corrigir expressões DateSub, DateAdd, WindowTime, TimeWindow e SessionWindow
  • [FAÍSCA-48600] [SC-168841][SQL] Corrigir transmissão implícita de expressões FrameLessOffsetWindowFunction
  • [FAÍSCA-48644] [SC-168933][SQL] Faça uma verificação de comprimento e lance COLLECTION_SIZE_LIMIT_EXCEEDED erro no Hex.hex
  • [FAÍSCA-48587] [SC-168824][VARIANTE] Evite a amplificação de armazenamento ao acessar uma subvariante
  • [FAÍSCA-48647] [SC-168936][PYTHON][CONECTAR] Refine a mensagem de erro para YearMonthIntervalType em df.collect
  • [FAÍSCA-48307] [SC-167802][SQL] InlineCTE deve manter relações não embutidas no nó WithCTE original
  • [FAÍSCA-48596] [SC-168581][SQL] Melhoria do Perf para calcular a cadeia hexadecimal por muito tempo
  • [FAÍSCA-48621] [SC-168726][SQL] Corrigir como simplificação no Optimizer para cadeias de caracteres agrupadas
  • [FAÍSCA-47148] [SC-164179][SQL] Evite materializar AQE ExchangeQueryStageExec no cancelamento
  • [FAÍSCA-48584] [SC-168579][SQL] Melhoria do Perf para unescapePathName
  • [FAÍSCA-48281] [SC-167260][SQL] Alterar lógica de pesquisa de cadeia de caracteres para agrupamento de UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
  • [FAÍSCA-48577] [SC-168826][SQL] Substituição de sequência de bytes UTF-8 inválida
  • [FAÍSCA-48595] [SC-168580][CORE] Limpeza do uso preterido da api relacionado a commons-compress
  • [FAÍSCA-48030] [SC-164303][SQL] SPJ: cache rowOrdering e structType para InternalRowComparableWrapper
  • [FAÍSCA-48004] [SC-164005][SQL] Adicionar característica WriteFilesExecBase para gravação v1
  • [FAÍSCA-48551] [SC-168438][SQL] Melhoria do Perf para escapePathName
  • [FAÍSCA-48565] [SC-168437][UI] Corrigir exibição de despejo de thread na interface do usuário
  • [FAÍSCA-48364] [SC-166782][SQL] Adicionar transmissão de tipo AbstractMapType e corrigir o mapa de parâmetros RaiseError para trabalhar com cadeias de caracteres agrupadas
  • [FAÍSCA-48421] [SC-168689][SQL] SPJ: Adicionar documentação
  • [FAÍSCA-48604] [SC-168698][SQL] Substituir chamada de método preterida new ArrowType.Decimal(precision, scale)
  • [FAÍSCA-46947] [SC-157561][CORE] Atrase a inicialização do gerenciador de memória até que o plug-in do driver seja carregado
  • [FAÍSCA-48411] [SC-168576][SS][PYTHON] Adicionar teste E2E para DropDuplicateWithinWatermark
  • [FAÍSCA-48543] [SC-168697][SS] Controlar falhas de validação de linha de estado usando classe de erro explícita
  • [FAÍSCA-48221] [SC-167143][SQL] Alterar a lógica de pesquisa de cadeia de caracteres para agrupamento de UTF8_BINARY_LCASE (Contains, StartsWith, EndsWith, StringLocate)
  • [FAÍSCA-47415] [SC-168441][SQL] Adicionar suporte de agrupamento para expressão Levenshtein
  • [FAÍSCA-48593] [SC-168719][PYTHON][CONECTAR] Corrigir a representação de cadeia de caracteres da função lambda
  • [SPARK-48622] [SC-168710][SQL] get SQLConf uma vez ao resolver nomes de column
  • [FAÍSCA-48594] [SC-168685][PYTHON][CONECTAR] Renomear parent campo para child in ColumnAlias
  • [FAÍSCA-48403] [SC-168319][SQL] Corrigir expressões Inferior ou Superior para agrupamentos de UTF8_BINARY_LCASE & UTI
  • [FAÍSCA-48162] [SC-166062][SQL] Adicionar suporte de agrupamento para expressões MISC
  • [FAÍSCA-48518] [SC-167718][CORE] Faça com que a compressão LZF possa ser executada em paralelo
  • [FAÍSCA-48474] [SC-167447][CORE] Corrigir o nome da classe do login SparkSubmitArguments & SparkSubmit
  • [FAÍSCA-48012] [SC-168267][SQL] SPJ: Suporte a expressões Transfrom para embaralhamento de um lado
  • [SPARK-48552] [SC-168212][SQL] a inferência de schema CSV multilinha também deverá gerar FAILED_READ_FILE
  • [FAÍSCA-48560] [SC-168268][SS][PYTHON] Tornar o StreamingQueryListener.spark configurável
  • [FAÍSCA-48569] [SC-168321][SS][CONECTAR] Lidar com casos de borda em query.name
  • [FAÍSCA-47260] [SC-167323][SQL] Atribuir nome à classe de erro _LEGACY_ERROR_TEMP_3250
  • [SPARK-48564] [SC-168327][PYTHON][CONNECT] Propagar schema em cache em operações de set
  • [SPARK-48155] [SC-165910][SQL] AQEPropagateEmptyRelation para join deve verificar se o filho restante é apenas BroadcastQueryStageExec
  • [FAÍSCA-48506] [SC-167720][CORE] Os nomes curtos do codec de compressão não diferenciam maiúsculas de minúsculas, exceto para o registo de eventos
  • [FAÍSCA-48447] [SC-167607][SS] Verifique a classe do provedor de armazenamento de estado antes de invocar o construtor
  • [FAÍSCA-47977] [SC-167650] DateTimeUtils.timestampDiff e DateTimeUtils.timestampAdd não devem lançar INTERNAL_ERROR exceção
  • [SPARK-48513] [Backport][15.x][SC-168085][SS] Adicionar classe de erro para compatibilidade de schema de estado e refatoração secundária
  • [SPARK-48413] [SC-167669][SQL] ALTER COLUMN com agrupamento
  • [FAÍSCA-48561] [SC-168250][PS][CONECTAR] Lançar PandasNotImplementedError para funções de plotagem sem suporte
  • [FAÍSCA-48465] [SC-167531][SQL] Evite a propagação de relações vazias no-op
  • [FAÍSCA-48553] [SC-168166][PYTHON][CONECTAR] Armazenar em cache mais propriedades
  • [FAÍSCA-48540] [SC-168069][CORE] Evite as configurações de carregamento de saída de hera para stdout
  • [SPARK-48535] [SC-168057][SS] Update documentos de configuração para indicar a possibilidade de perda ou corrupção de dados se a configuração de junções stream-stream de ignorar nulos estiver ativada
  • [SPARK-48536] [SC-168059][PYTHON][CONNECT] Usuário de cache especificado schema em applyInPandas e applyInArrow
  • [FAÍSCA-47873] [SC-163473][SQL] Gravar cadeias de caracteres agrupadas no metastore do Hive usando o tipo de cadeia de caracteres regular
  • [FAÍSCA-48461] [SC-167442][SQL] Substitua NullPointerExceptions pela classe de erro na expressão AssertNotNull
  • [FAÍSCA-47833] [SC-163191][SQL][CORE] Forneça pilhas de chamadorestrace para checkAndGlobPathIfNecessary AnalysisException
  • [FAÍSCA-47898] [SC-163146][SQL] Porta HIVE-12270: Adicionar suporte DBTokenStore ao token de delegação HS2
  • [FAÍSCA-47578] [SC-167497][R] Migrar RPackageUtils com variáveis para a estrutura de log estruturada
  • [SPARK-47875] [SC-162935][CORE] Removespark.deploy.recoverySerializer
  • [SPARK-47552] [SC-160880][CORE] Setspark.hadoop.fs.s3a.connection.establish.timeout a 30s se faltar
  • [FAÍSCA-47972] [SC-167692][SQL] Restringir expressão CAST para agrupamentos
  • [FAÍSCA-48430] [SC-167489][SQL] Corrigir a extração do valor do mapa quando o mapa contém cadeias de caracteres agrupadas
  • [FAÍSCA-47318] [SC-162712][CORE][3.5] Adiciona a rodada HKDF à derivação de chave AuthEngine para seguir as práticas KEX padrão
  • [SPARK-48503] [BEHAVE-29][ES-1135236][SQL] Corrigir subconsultas escalares inválidas com group-by em columns não equivalentes que foram permitidas incorretamente
  • [SPARK-48508] [SC-167695][CONNECT][PYTHON] Cache dos parâmetros especificados pelo utilizador schema no DataFrame.{to, mapInPandas, mapInArrow}
  • [SPARK-23015] [SC-167188][WINDOWS] Corrigir bug no Windows where iniciar várias instâncias do Spark no mesmo segundo causa uma falha
  • [FAÍSCA-45891] [SC-167608]Reverter " Descrever esquema de destruição para variante"
  • [FAÍSCA-48391] [SC-167554][CORE]Usando addAll em vez de adicionar função no método fromAccumulatorInfos da classe TaskMetrics
  • [FAÍSCA-48496] [SC-167600][CORE] Usar instâncias de padrão regex estático em JavaUtils.timeStringAs e JavaUtils.byteStringAs
  • [FAÍSCA-48476] [SC-167488][SQL] corrigir mensagem de erro NPE para null delmiter csv
  • [SPARK-48489] [SC-167598][SQL] Lançar um erro mais claro para o usuário ao tentar ler schema ilegal a partir da fonte de dados de texto
  • [FAÍSCA-48471] [SC-167324][CORE] Melhorar a documentação e o guia de uso do servidor de histórico
  • [FAÍSCA-45891] [SC-167597] Descrever o esquema de destruição para Variant
  • [FAÍSCA-47333] [SC-159043][SQL] Use checkInputDataTypes para verificar os tipos de parâmetros da função to_xml
  • [SPARK-47387] [SC-159310][SQL] Remove algumas classes de erro não utilizadas
  • [SPARK-48265] [ES-1131440][SQL] Inferir window grupo limit lote deve fazer dobragem constante
  • [FAÍSCA-47716] [SC-167444][SQL] Evitar conflito de nome de exibição no caso de teste de classificação semântica SQLQueryTestSuite
  • [FAÍSCA-48159] [SC-167141][SQL] Estendendo o suporte para cadeias de caracteres agrupadas em expressões de data/hora
  • [FAÍSCA-48462] [SC-167271][SQL][Testes] Use withSQLConf em testes: Refactor HiveQuerySuite e HiveTableScanSuite
  • [FAÍSCA-48392] [SC-167195][CORE] Carregue spark-defaults.conf também quando fornecido --properties-file
  • [FAÍSCA-48468] [SC-167417] Adicionar interface LogicalQueryStage no catalyst
  • [FAÍSCA-47578] [SC-164988][CORE] Backport manual para o Spark PR #46309: Migrar logWarning com variáveis para a estrutura de log estruturada
  • [FAÍSCA-48415] [SC-167321]Reverter "[PYTHON] Refactor TypeName para suportar tipos de dados parametrizados"
  • [SPARK-46544] [SC-151361][SQL] Suporte v2 DESCRIBE TABLE ESTENDIDO com estatísticas de table
  • [FAÍSCA-48325] [SC-166963][CORE] Sempre especifique mensagens em ExecutorRunner.killProcess
  • [FAÍSCA-46841] [SC-167139][SQL] Adicionar suporte de agrupamento para localidades de UTI e especificadores de agrupamento
  • [FAÍSCA-47221] [SC-157870][SQL] Usa assinaturas de CsvParser para AbstractParser
  • [FAÍSCA-47246] [SC-158138][SQL] Substitua InternalRow.fromSeq por new GenericInternalRow para salvar uma conversão de coleção
  • [FAÍSCA-47597] [SC-163932][STREAMING] Backport manual para o Spark PR #46192: Streaming: Migrar logInfo com variáveis para a estrutura de log estruturada
  • [FAÍSCA-48415] [SC-167130][PYTHON] Refatorar TypeName para suportar tipos de dados parametrizados
  • [SPARK-48434] [SC-167132][PYTHON][CONNECT] Faça com que printSchema utilize o schema armazenado em cache
  • [FAÍSCA-48432] [ES-1097114][SQL] Evite unboxing inteiros no UnivocityParser
  • [FAÍSCA-47463] [SC-162840][SQL] Use V2Predicate para envolver a expressão com o tipo de retorno de booleano
  • [FAÍSCA-47781] [SC-162293][SQL] Manipular decimais de escala negativa para fontes de dados JDBC
  • [FAÍSCA-48394] [SC-166966][CORE] Limpar mapIdToMapIndex em mapoutput cancelar registro
  • [FAÍSCA-47072] [SC-156933][SQL] Corrigir formatos de intervalo suportados em mensagens de erro
  • [FAÍSCA-47001] [SC-162487][SQL] Verificação de pushdown no otimizador
  • [FAÍSCA-48335] [SC-166387][PYTHON][CONECTAR] Torne _parse_datatype_string compatível com o Spark Connect
  • [FAÍSCA-48329] [SC-166518][SQL] Ativar spark.sql.sources.v2.bucketing.pushPartValues.enabled por padrão
  • [FAÍSCA-48412] [SC-166898][PYTHON] Refatorar tipo de dados json parse
  • [FAÍSCA-48215] [SC-166781][SQL] Estendendo o suporte para cadeias de caracteres agrupadas em date_format expressão
  • [SPARK-45009] [SC-166873][SQL][FOLLOW-UP] Adicionar classe de erro e testes para descorrelação de subconsultas de predicados em join condição que fazem referência a join filho
  • [FAÍSCA-47960] [SC-165295][SS][15.x] Permitir o encadeamento de outros operadores com estado após o operador transformWithState.
  • [SPARK-48340] [SC-166468][PYTHON] Suporte inferência de TimestampNTZ schema falta prefer_timestamp_ntz
  • [FAÍSCA-48157] [SC-165902][SQL] Adicionar suporte de agrupamento para expressões CSV
  • [FAÍSCA-48158] [SC-165652][SQL] Adicionar suporte de agrupamento para expressões XML
  • [FAÍSCA-48160] [SC-166064][SQL] Adicionar suporte de agrupamento para expressões XPATH
  • [FAÍSCA-48229] [SC-165901][SQL] Adicionar suporte de agrupamento para expressões inputFile
  • [FAÍSCA-48367] [SC-166487][CONECTAR] Corrigir lint-scala para scalafmt para detetar arquivos para formatar corretamente
  • [FAÍSCA-47858] [SC-163095][FAÍSCA-47852][PYTHON][SQL] Refatoração da estrutura para o contexto de erro do DataFrame
  • [FAÍSCA-48370] [SC-166787][CONECTAR] Ponto de verificação e localCheckpoint no cliente Scala Spark Connect
  • [SPARK-48247] [SC-166028][PYTHON] Use todos os values em um ditado ao inferir MapType schema
  • [FAÍSCA-48395] [SC-166794][PYTHON] Correção StructType.treeString para tipos parametrizados
  • [FAÍSCA-48393] [SC-166784][PYTHON] Mover um grupo de constantes para pyspark.util
  • [FAÍSCA-48372] [SC-166776][FAÍSCA-45716][PYTHON] Implementar StructType.treeString
  • [FAÍSCA-48258] [SC-166467][PYTHON][CONECTAR] Checkpoint e localCheckpoint no Spark Connect

Consulte Atualizações de manutenção do Databricks Runtime 15.4 LTS.

Ambiente do sistema

  • Sistema Operacional: Ubuntu 22.04.4 LTS
  • Java: Zulu 8.78.0.19-CA-linux64
  • Escala: 2.12.18
  • Píton: 3.11.0
  • R: 4.3.2
  • Lago Delta: 3.2.0

Bibliotecas Python instaladas

Biblioteca Versão Biblioteca Versão Biblioteca Versão
AstTokens 2.0.5 Astunparse 1.6.3 azure-core 1.30.2
azure-storage-blob 12.19.1 azure-storage-file-datalake 12.14.0 Backcall 0.2.0
preto 23.3.0 pisca-pisca 1.4 boto3 1.34.39
botocore 1.34.39 Ferramentas de cache 5.3.3 certifi 2023.7.22
cffi 1.15.1 chardet 4.0.0 Normalizador de Charset 2.0.4
clicar 8.0.4 Cloudpickle 2.2.1 Comm 0.1.2
contorno 1.0.5 criptografia 41.0.3 cycler 0.11.0
Quisto 0.29.32 Databricks-SDK 0.20.0 dbus-python 1.2.18
depuração 1.6.7 decorador 5.1.1 Distlib 0.3.8
pontos de entrada 0.4 execução 0.8.3 facetas-visão geral 1.1.1
filelock 3.13.4 Fonttools 4.25.0 GitDB 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 Google-Auth 2.31.0
google-nuvem-core 2.4.1 google-nuvem-armazenamento 2.17.0 Google-CRC32C 1.5.0
google-retomable-media 2.7.1 googleapis-comuns-protos 1.63.2 Grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 idna 3.4
importlib-metadados 6.0.0 ipyflow-núcleo 0.0.198 Ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Isodato 0.6.1 Jedi 0.18.1 Jeepney 0.7.1
jmespath 0.10.0 Joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 porta-chaves 23.5.0 Kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-em linha 0.1.6 mlflow-magro 2.11.4
mais-itertools 8.10.0 mypy-extensões 0.4.3 Ninho-Asyncio 1.5.6
numpy 1.23.5 OAuthlib 3.2.0 embalagem 23.2
pandas 1.5.3 Parso 0.8.3 PathSpec 0.10.3
patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Travesseiro 9.4.0 pip 23.2.1 plataformadirs 3.10.0
enredo 5.9.0 prompt-toolkit 3.0.36 Proto-Plus 1.24.0
protobuf 4.24.1 PSUTIL 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 puro-eval 0.2.2 pyarrow 14.0.1
pyasn1 0.4.8 pyasn1-módulos 0.2.8 Pyccolo 0.0.52
pycparser 2.21 Pidântico 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 Pyodbc 4.0.38
pyparsing 3.0.9 python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1
pytz 2022.7 PyYAML 6,0 Pyzmq 23.2.0
pedidos 2.31.0 RSA 4,9 s3transferir 0.10.2
scikit-learn 1.3.0 scipy 1.11.1 seaborn 0.12.2
Armazenamento Secreto 3.3.1 setuptools 68.0.0 seis 1.16.0
smmap 5.0.1 SQLPARSE 0.5.0 ssh-import-id 5.11
dados de pilha 0.2.0 statsmodels 0.14.0 tenacidade 8.2.2
ThreadPoolCtl 2.2.0 tokenize-rt 4.2.1 tornado 6.3.2
traços 5.7.1 typing_extensions 4.10.0 tzdata 2022.1
Ujson 5.4.0 Upgrades autônomos 0.1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 largura de wc 0.2.5
roda 0.38.4 zipp | 3.11.0

Bibliotecas R instaladas

As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager.

Biblioteca Versão Biblioteca Versão Biblioteca Versão
seta 14.0.0.2 AskPass 1.2.0 asserçãoat 0.2.1
backports 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-7 blob 1.2.4 arranque 1.3-28
brew 1.0-10 Brio 1.1.4 vassoura 1.0.5
BSLIB 0.6.1 cachem 1.0.8 Chamador 3.7.3
acento circunflexo 6.0-94 Cellranger 1.1.0 crono 2.3-61
classe 7.3-22 cli 3.6.2 Clipr 0.8.0
relógio 0.7.0 cluster 2.1.4 codetools 0.2-19
espaço em cores 2.1-0 marca comum 1.9.1 compilador 4.3.2
configuração 0.3.2 conflituosos 1.2.0 CPP11 0.4.7
lápis de cor 1.5.2 credentials 2.0.1 curl 5.2.0
dados.table 1.15.0 conjuntos de dados 4.3.2 DBI 1.2.1
DBPlyr 2.4.0 desc 1.4.3 devtools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 resumo 0.6.34
Iluminação reduzida 0.4.3 dplyr 1.1.4 DTPlyr 1.3.1
E1071 1.7-14 reticências 0.3.2 evaluate 0.23
Fãsi 1.0.6 Farver 2.1.1 mapa rápido 1.1.1
fontawesome 0.5.2 FORCATS 1.0.0 foreach 1.5.2
externa 0.8-85 forjar 0.2.0 FS 1.6.3
Futuro 1.33.1 future.apply 1.11.1 gargarejo 1.5.2
Genéricos 0.1.3 Gert 2.0.1 ggplot2 3.4.4
GH 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 Globais 0.16.2 colar 1.7.0
GoogleDrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
gráficos 4.3.2 grDevices 4.3.2 grelha 4.3.2
gridExtra 2.3 gsubfn 0.7 gt 0.10.1
gtable 0.3.4 capacete 1.3.1 Refúgio 2.5.4
mais alto 0.10 HMS 1.1.3 htmltools 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
HTTR2 1.0.0 IDs 1.0.1 ini 0.3.1
ipred 0.9-14 Isoband 0.2.7 iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 suco suculento 0.1.0
KernSmooth 2.23-21 Knitr 1.45 etiquetagem 0.4.3
mais tarde 1.3.2 lattice 0.21-8 lava 1.7.3
ciclo de vida 1.0.4 ouvirv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 Marcação 1.12 MASSA 7.3-60
Matriz 1.5-4.1 memoise 2.0.1 métodos 4.3.2
mgcv 1.8-42 mime 0,12 miniUI 0.1.1.1
Mlflow 2.10.0 ModelMetrics 1.2.2.2 Modelador 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 paralelo 4.3.2
Paralelamente 1.36.0 pilar 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 elogiar 1.0.0
unidades bonitas 1.2.0 pROC 1.18.5 processx 3.8.3
prodlim 2023.08.28 Profvis 0.3.8 Progresso 1.2.3
progressor 0.14.0 promessas 1.2.1 proto 1.0.0
procuração 0.4-27 PS 1.7.6 purrr 1.0.2
R6 2.5.1 RAGG 1.2.7 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reactável 0.4.4
reactR 0.5.0 Leitor 2.1.5 ReadXL 1.4.3
receitas 1.0.9 revanche 2.0.0 revanche2 2.1.2
Controles remotos 2.4.2.1 Reprex 2.1.0 remodelar2 1.4.4
rlang 1.1.3 rmarkdown 2,25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversões 2.1.2 Rvest 1.0.3 Sass 0.4.8
escalas 1.3.0 seletor 0.4-2 sessioninfo 1.2.2
forma 1.4.6 brilhante 1.8.0 ferramentas de origem 0.1.7-1
sparklyr 1.8.4 espacial 7.3-15 splines 4.3.2
sqldf 0.4-11 QUADRADO 2021.1 estatísticas 4.3.2
stats4 4.3.2 stringi 1.8.3 stringr 1.5.1
sobrevivência 3.5-5 swagger 3.33.1 sys 3.4.2
fontes do sistema 1.0.5 tcltk 4.3.2 testeatat 3.2.1
formatação de texto 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 Tidyverse 2.0.0 mudança de hora 0.3.0
timeDate 4032.109 Tinytex 0.49 ferramentas 4.3.2
TZDB 0.4.0 urlchecker 1.0.1 usethis 2.2.2
UTF8 1.2.4 utilitários 4.3.2 uuid 1.2-0
V8 4.4.1 VCTRS 0.6.5 viridisLite 0.4.2
vroom 1.6.5 Waldo 0.5.2 whisker 0.4.1
withr 3.0.0 xfun 0.41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 yaml 2.3.8
Zeallot 0.1.0 zip 2.3.1

Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)

ID do Grupo ID do Artefacto Versão
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws aws-java-sdk-cloudsearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws aws-java-sdk-importexport 1.12.610
com.amazonaws aws-java-sdk-kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-machinelearning 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts 1.12.610
com.amazonaws aws-java-sdk-support 1.12.610
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics transmissão em fluxo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2,12 0.4.15-10
com.esotericsoftware sombreado de kryo 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml colega de turma 1.3.4
com.fasterxml.jackson.core jackson-anotações 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-módulo-scala_2.12 2.15.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Nativos
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Nativos
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Nativos
com.github.luben ZSTD-JNI 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.helger criador de perfil 1.1.1
com.ibm.icu ICU4J 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind JAXB-CORE 2.2.11
com.sun.xml.bind JAXB-IMPL 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuração 1.4.3
com.typesafe.scala-logging Escala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
registo de comuns registo de comuns 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib ARPACK 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib Lapack | 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.ponte aérea compressor de ar 0.25
IO.Delta delta-compartilhamento-client_2.12 1.1.1
io.dropwizard.metrics métricas-anotação 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics métricas-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-meias 4.1.96.Final
io.netty netty-comum 4.1.96.Final
io.netty netty-manipulador 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Janelas finais x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty transporte de rede 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-nativo-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-nativo-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-nativo-unix-comum 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recoletor 0.12.0
jacarta.anotação Jacarta.Anotação-API 1.3.5
jacarta.servlet jacarta.servlet-api 4.0.3
jacarta.validação Jacarta.validation-api 2.0.2
jakarta.ws.rs Jacarta.ws.rs-api 2.1.6
javax.activation ativação 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transação 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna JNA 5.8.0
net.razorvine picles 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.floco de neve flocos de neve-ingestão-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea Remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant formiga 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow formato de seta 15.0.0
org.apache.arrow seta-memória-núcleo 15.0.0
org.apache.arrow seta-memória-netty 15.0.0
org.apache.arrow vetor de seta 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapeado 1.11.3
org.apache.commons colecções-commons4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-texto 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator curador-framework 2.13.0
org.apache.curator curador-receitas 2.13.0
org.apache.datasketches Datasketches-Java 3.1.0
org.apache.datasketches datasketches-memória 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-cliente 2.3.9
org.apache.hive colmeia-lamp-comum 2.3.9
org.apache.hive Colmeia-Serde 2.3.9
org.apache.hive colmeias-calços 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims colmeia-calços-0,23 2.3.9
org.apache.hive.shims colmeia-calços-comum 2.3.9
org.apache.hive.shims colmeia-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hera 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-modelo-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-núcleo 1.9.2-protobuf sombreado
org.apache.orc orc-mapreduce 1.9.2-protobuf sombreado
org.apache.orc Orc-calços 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-sombreado 4.23
org.apache.yetus anotações de audiência 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-juta 3.6.3
org.checkerframework verificador-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-coleções 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty cais-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket API WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket Websocket-cliente 9.4.52.v20230823
org.eclipse.jetty.websocket Websocket-Comum 9.4.52.v20230823
org.eclipse.jetty.websocket servidor websocket 9.4.52.v20230823
org.eclipse.jetty.websocket Websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 localizador hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jacarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core servidor de jersey 2.40
org.glassfish.jersey.inject Jersey-HK2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotações 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s JSON4S-ast_2.12 3.7.0-M11
org.json4s JSON4S-core_2.12 3.7.0-M11
org.json4s JSON4S-jackson_2,12 3.7.0-M11
org.json4s JSON4S-scalap_2.12 3.7.0-M11
org.lz4 LZ4-Java 1.8.0
org.mlflow mlflow-spark_2,12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap calços 0.9.45-databricks
org.rocksdb rocksdbjni 8.11.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang Escala-compiler_2.12 2.12.15
org.scala-lang Escala-library_2.12 2.12.15
org.scala-lang Escala-reflect_2,12 2.12.15
org.scala-lang.modules scala-coleção-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules Escala-xml_2.12 1.2.0
org.scala-sbt interface de teste 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp Brisa-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatível com scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j SLF4J-Simples 1.7.25
org.threeten trêsdez-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel gatos-kernel_2.12 2.1.1
org.typelevel torre-macros_2.12 0.17.0
org.typelevel torre-platform_2.12 0.17.0
org.typelevel torre-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl mosca-selvagem-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1