Databricks Runtime 16.1 (Beta)
Importante
O Databricks Runtime 16.1 está em Beta. O conteúdo dos ambientes suportados pode mudar durante a versão Beta. As alterações podem incluir a lista de pacotes ou versões de pacotes instalados.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.1, alimentado pelo Apache Spark 3.5.0.
Dica
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de lançamento do Databricks Runtime em fim de suporte. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
O tipo de dados VARIANT
não pode mais ser usado com operações que exigem comparações
Na DBR 16.1 e superior, não é possível usar as seguintes cláusulas ou operadores em consultas que incluam um tipo de dados VARIANT
:
DISTINCT
INTERSECT
EXCEPT
UNION
DISTRIBUTE BY
Além disso, você não pode usar essas funções de DataFrame:
df.dropDuplicates()
df.repartition()
Essas operações executam comparações e comparações que usam o tipo de dados VARIANT produzem resultados indefinidos e não são suportadas no Databricks. Se você usar o tipo VARIANT em suas cargas de trabalho ou tabelas do Azure Databricks, o Databricks recomenda as seguintes alterações:
- Atualize consultas ou expressões para converter explicitamente os valores de
VARIANT
para outros tipos de dados que não sejamVARIANT
. - Se você tiver campos que devem ser usados com qualquer uma das operações acima, extraia esses campos do tipo de dados
VARIANT
e armazene-os usando tipos de dados nãoVARIANT
.
Para saber mais, consulte Consultar dados de variante.
Novos recursos e melhorias
Suporte para agrupamentos no Apache Spark na Pré-visualização Pública
Agora pode atribuir agrupamentos com sensibilidade ao idioma, sem distinção entre maiúsculas e minúsculas e sem distinção de acesso a colunas e expressões STRING
. Esses agrupamentos são usados em comparações de cadeia de caracteres, classificação, operações de agrupamento e muitas funções de cadeia de caracteres. Consulte Classificação.
Suporte para agrupamentos no Delta Lake na visualização pública
Agora você pode definir agrupamentos para colunas ao criar ou alterar uma tabela Delta. Consulte Suporte de agrupamento para Delta Lake.
Modo Lite para vácuo na Pré-visualização Pública
Agora você pode usar VACUUM table_name LITE
para executar uma operação de vácuo mais leve que aproveita os metadados no log de transações Delta. Consulte Full vs. lite mode e VACUUM.
Parametrizar o USE CATALOG com suporte para a cláusula IDENTIFIER
No Databricks Runtime 16.1 e versões posteriores, a cláusula IDENTIFIER é suportada para a instrução USE CATALOG . Com esse suporte, você pode parametrizar o catálogo atual com base em uma variável de cadeia de caracteres ou marcador de parâmetro.
COMENTÁRIO NA COLUNA suporte para tabelas e visualizações
No Databricks Runtime 16.1 e posterior, a instrução COMMENT ON oferece suporte à alteração de comentários para colunas de exibição e tabela.
Novas funções SQL
No Databricks Runtime 16.1 e posterior, as seguintes novas funções SQL internas estão disponíveis:
- dayname(expr) retorna o acrônimo inglês de três letras para o dia da semana para a data determinada.
- uniforme(expr1, expr2 [,semente]) retorna um valor aleatório com valores independentes e distribuídos de forma idêntica dentro do intervalo especificado de números.
-
randstr(length) retorna uma sequência aleatória de caracteres alfanuméricos
length
.
Invocação de parâmetro nomeado para mais funções
A seguinte função dá suporte a invocação com parâmetros nomeados no Databricks Runtime 16.1 e posterior:
Suporte ao metastore do Hive para o argumento SYNC METADATA do comando REPAIR TABLE
No Databricks Runtime 16.1 e posteriores, é possível usar o argumento SYNC METADATA com REPAIR TABLE para atualizar os metadados de uma tabela gerida pelo metastore do Hive.
Integridade de dados aprimorada para conjuntos compactados do Apache Arrow
No Databricks Runtime 16.1 e superior, para proteger ainda mais contra a corrupção de dados, cada lote compactado de Arrow LZ4
agora inclui o conteúdo LZ4
e os checksums de bloco. Consulte LZ4 Frame Format Description.
Suporte adicionado para métodos Scala na computação do modo de acesso compartilhado do Unity Catalog
No Databricks Runtime 16.1 e posteriores, na computação do modo de acesso compartilhado do Unity Catalog, foi adicionado suporte para os seguintes métodos Scala: Dataset.flatMapGroups()
, Dataset.mapGroups()
e DataStreamWriter.foreach()
.
Suporte StreamingQueryListener para Scala
Agora você pode usar StreamingQueryListener
no Scala na computação configurada com o modo de acesso compartilhado.
Driver JDBC da Oracle integrado
No Databricks Runtime 16.1 e superior, o Oracle JDBC Driver é incorporado ao Azure Databricks. Se usares um JAR de driver JDBC carregado pelo cliente via DriverManager
, deves reescrever os scripts para usar explicitamente o JAR personalizado. Caso contrário, o driver interno é usado.
Erros mais detalhados para tabelas Delta acedidas através de caminhos
Uma nova experiência de mensagem de erro para tabelas Delta acessadas usando caminhos já está disponível. Todas as exceções agora são encaminhadas para o usuário. A exceção DELTA_MISSING_DELTA_TABLE
agora está reservada para quando os arquivos subjacentes não podem ser lidos como uma tabela Delta.
Outras alterações
Códigos de erro renomeados para a fonte Structured Streaming cloudFiles
Esta versão inclui uma alteração para renomear os seguintes códigos de erro:
-
_LEGACY_ERROR_TEMP_DBR_0143
é renomeado paraCF_INCORRECT_STREAM_USAGE
. -
_LEGACY_ERROR_TEMP_DBR_0260
é renomeado paraCF_INCORRECT_BATCH_USAGE
.
Correções de bugs
Os tipos aninhados agora aceitam corretamente restrições NULL
Esta versão corrige um bug que afeta algumas colunas geradas pelo Delta de tipos aninhados, por exemplo, STRUCT
. Às vezes, essas colunas rejeitavam incorretamente expressões com base em restrições NULL
ou NOT NULL
de campos aninhados. Isso foi corrigido.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- ipyflow-core de 0.0.198 a 0.0.201
- pyccolo de 0.0.52 a 0.0.65
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- io.delta.delta-sharing-client_2.12 de 1.2.0 para 1.2.2
- org.lz4.lz4-java de 1.8.0 a 1.8.0-databricks-1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider de 1.6.2-linux-x86_64 para 2.4.1-linux-x86_64
Apache Spark
O Databricks Runtime 16.1 inclui o Apache Spark 3.5.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.0, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
-
[SPARK-50482] [SC-182879][CORE] Configuração no-op
spark.shuffle.spill
preterida - [SPARK-50032] [SC-182706][SQL][16.x] Permitir o uso de nome de agrupamento totalmente qualificado
-
[SPARK-50467] [SC-182823][PYTHON] Adicionar
__all__
para funções incorporadas - [SPARK-48898] [SC-182828][SQL] Corrigir bug de fragmentação de variante
- [SPARK-50441] [SC-182668][SQL] Corrigir identificadores parametrizados que não funcionam ao fazer referência a CTEs
- [SPARK-50446] [SC-182639][PYTHON] Nível de concorrência em UDF Python otimizado para Arrow
- [SPARK-50430] [SC-182536][CORE] Use o padrão Properties.clone em vez do clone manual
- [SPARK-50471] [SC-182790][PYTHON] Escritora de Fonte de Dados em Python Baseada em Arrow
- [SPARK-50466] [SC-182791][PYTHON] Refinar o docstring para funções de string - parte 1
- [SPARK-50194] [DBR16.x][SC-182593][SS][PYTHON] Integração de Nova API de Timer e API de Estado Inicial com Timer
- [SPARK-50437] [SC-182586][SS] Reduza a sobrecarga de criação de desserializadores em TransformWithStateExec
- [SPARK-49676] [DBR16.x][SC-182538][SS][PYTHON] Adicionar suporte para encadeamento de...
- [SPARK-49294] [SC-182730][UI] Adicionar atributo width para a caixa de seleção shuffle-write-time.
- [SPARK-50426] [SC-182540][PYTHON] Evite a pesquisa de fontes de dados Python estáticas ao usar fontes de dados incorporadas ou Java
- [SPARK-48356] [SC-182603][SQL] Suporte para a instrução FOR
-
[SPARK-50333] [SC-182136][SQL] Codegen Suporte para
CsvToStructs
(invocando & RuntimeReplaceable) - [SPARK-50285] [SC-182575] Métricas para confirmações em instâncias StagedTable
-
[SPARK-50081] [SC-182344][SQL] Codegen Suporte para
XPath*
(invocando & RuntimeReplaceable) - [SPARK-50440] [SC-182592] [SQL] Refactor AttributeSeq.resolveCandidates
- [SPARK-50067] [SC-179648][SQL] Suporte de Codegen para SchemaOfCsv (por invocar & RuntimeReplaceable)
- [SPARK-49873] [SC-178577][SQL] corrigir falha após a mesclagem no teste de erro
- [SPARK-50118] [SC-181259][CONNET] Redefinir cache de estado isolado quando as tarefas estão em execução
- [SPARK-49873] [SC-178577][SQL] Atribuir classe de erro adequada para _LEGACY_ERROR_TEMP_1325
-
[SPARK-50381] [SC-182197][CORE] Suporte
spark.master.rest.maxThreads
- [SPARK-46725] [SC-182448][SQL] Adicionar função DAYNAME
- [SPARK-50270] [SC-181179][SS][PYTHON] Adicionadas métricas de estado personalizadas para TransformWithStateInPandas
- [SPARK-50118] Reverter "[SC-181259][CONNET] Redefinir cache de estado isolado quando as tarefas estão em execução"
- [SPARK-50075] [SC-181820][SQL][PYTHON][CONNECT] Adicionar APIs DataFrame para funções com valor de tabela
- [SPARK-49470] [SC-175736][UI] Atualizar dataTables, folhas de estilo e javascripts de 1.13.5 para 1.13.11
- [SPARK-50235] Reverter “[SC-180786][SQL] Liberar o recurso ColumnVector após o processamento de todas as linhas em ColumnarToRowExec”
-
[SPARK-50324] [SC-182278][PYTHON][CONNECT] Faça
createDataFrame
acionarConfig
RPC no máximo uma vez - [SPARK-50387] [SC-182441][SS] Condição de atualização para expiração do temporizador e teste relevante
- [SPARK-50287] [SC-182400][SQL] Opções de mesclagem de tabela e relação ao criar o WriteBuilder em FileTable
-
[SPARK-50066] [SC-181484][SQL] Suporte para Codegen para
SchemaOfXml
(invocando & RuntimeReplaceable) - [SPARK-50092] [SC-181568][SQL] Corrigir o comportamento do conector PostgreSQL para matrizes multidimensionais
- [SPARK-50318] [SC-181641][SQL] Adicionar IntervalUtils.makeYearMonthInterval para eliminar a duplicação de código entre interpretados e codegen
- [SPARK-50312] [SC-181646][SQL] Erro de passagem de parâmetro na função createServer do SparkThriftServer quando kerberos é verdade
-
[SPARK-50246] [SC-181468][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_2167
:INVALID_JSON_RECORD_TYPE
- [SPARK-50214] [SC-180692][SQL] De json/xml não deve alterar agrupamentos no esquema fornecido
-
[SPARK-50250] [SC-181466][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_2075
:UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
-
[SPARK-50248] [SC-181467][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_2058
:INVALID_PARTITION_VALUE
- [SPARK-50118] [SC-181259][CONNET] Redefinir cache de estado isolado quando as tarefas estão em execução
- [SPARK-50235] [SC-180786][SQL] Limpar recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
-
[SPARK-50156] [SC-180781][SQL] Integre
_LEGACY_ERROR_TEMP_2113
noUNRECOGNIZED_STATISTIC
-
[SPARK-50069] [SC-180163][SQL] Integre
_LEGACY_ERROR_TEMP_0028
noUNSUPPORTED_FROM_TO_EXPRESSION
-
[SPARK-50154] [SC-180663][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_0043
:INVALID_RESET_COMMAND_FORMAT
-
[SPARK-49967] [SC-179534][SQL] Suporte de Codegen para
StructsToJson
(to_json
) - [SPARK-50055] [SC-180978][SQL] Adicionar alternativa TryMakeInterval
-
[SPARK-50397] [SC-182367][CORE] Remover argumentos
--ip
e-i
preteridos deMaster/Worker
- [SPARK-50238] [SC-181434][PYTHON] Adicionar suporte a variantes em UDFs/UDTFs/UDAFs do PySpark e UDFs de UC Python
-
[SPARK-50079] [SC-179830][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_2013
:NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
-
[SPARK-50182] [SC-180346][EXEMPLO] Adicionar
submit-sql.sh
exemplo de API REST -
[SPARK-49966] [SC-179501][SQL] Use
Invoke
para implementarJsonToStructs
(from_json
) - [SPARK-50302] [SC-182518][SS] Garanta tamanhos de índice secundário iguais aos tamanhos de índice primário para variáveis com estado TransformWithState com TTL
- [SPARK-50301] [SC-182241][SS][16.x] Faça com que as métricas TransformWithState reflitam seus significados intuitivos
- [SPARK-50175] [SC-182140][SQL] Alterar cálculo de precedência de agrupamento
-
[SPARK-50148] [SC-180292][SQL] Tornar
StaticInvoke
compatível com o método que declara exceção throw -
[SPARK-50280] [SC-181214][PYTHON] Refatore a classificação dos resultados e o preenchimento do recipiente vazio
compute_hist
- [SPARK-50190] [SC-182458][PYTHON] Remover a dependência direta do Numpy do histograma
- [SPARK-50382] [SC-182368][CONNECT] Adicionar documentação para obter informações gerais sobre o desenvolvimento de aplicativos com/extensão do Spark Connect
- [SPARK-50296] [SC-181464][PYTHON][CONNECT] Evite usar uma propriedade de classe no threadpool para o cliente Python Connect
- [SPARK-49566] [SC-182239][SQL] Adicionar sintaxe de pipe SQL para o operador EXTEND
- [SPARK-50036] [SC-179533][CORE][PYTHON] Incluir SPARK_LOG_SCHEMA no contexto do shell REPL
- [SPARK-49859] [SC-178259][CONNECT] Substitua multiprocessing.ThreadPool com ThreadPoolExecutor
-
[SPARK-50141] [SC-182378][PYTHON] Fazer
lpad
erpad
aceitarem argumentos do tipo Column - [SPARK-50379] [SC-182142][SQL] Corrigir manipulação DayTimeIntevalType no WindowExecBase
- [SPARK-49954] [SC-179110][SQL] Geração de código suporte para SchemaOfJson (invocando & RuntimeReplaceable)
-
[SPARK-50398] [SC-182341][CORE] Use o
0
ExitCode para uso--help
em scripts do Spark - [SPARK-50377] [SC-182238][SQL] Permitir avaliar o RuntimeReplaceable dobrável
- [SPARK-50241] [SC-181444][SQL] Substitua NullIntolerant Mixin pelo método Expression.nullIntolerant
-
[SPARK-50084] [SC-179672][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_3168
:MISSING_TIMEOUT_CONFIGURATION
-
[SPARK-50078] [SC-179649][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_0038
:DUPLICATED_CTE_NAMES
-
[SPARK-50057] [SC-179573][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_1049
:INVALID_ATTRIBUTE_NAME_SYNTAX
-
[SPARK-50070] [SC-179579][SQL] Integre
_LEGACY_ERROR_TEMP_0039
noUNSUPPORTED_SQL_STATEMENT
- [SPARK-50378] [SC-182235][SS] Adicionar métrica personalizada para rastrear gastos para o estado inicial proc em transformWithState
-
[SPARK-50029] [SC-179531][SQL] Tornar
StaticInvoke
compatível com o método que retornaAny
-
[SPARK-49990] [SC-179497][SQL] Melhorar o desempenho do
randStr
-
[SPARK-50048] [SC-179528][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_2114
:UNRECOGNIZED_STATISTIC
-
[SPARK-50053] [SC-179532][SQL] Transforme
_LEGACY_ERROR_TEMP_2104
emINTERNAL_ERROR
- [SPARK-49665] [SC-180054][SQL] Suporte de agrupamento de corte para funções de cadeia de caracteres
-
[SPARK-48549] [SC-176472][SQL][PYTHON] Melhorar a função SQL
sentences
-
[SPARK-50022] [SC-179503][CORE][UI] Corrigir
MasterPage
para ocultar links da interface do aplicativo quando a interface está desabilitada - [SPARK-50087] [SC-182152] Manipulação robusta de expressões booleanas em CASE WHEN para MsSqlServer e conectores futuros
- [SPARK-49991] [SC-179481][SQL] Faça HadoopMapReduceCommitProtocol respeitar 'mapreduce.output.basename' para gerar nomes de arquivo
-
[SPARK-50038] [SC-179521][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_0008
:MERGE_WITHOUT_WHEN
-
[SPARK-50236] [SC-181671][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_1156
:COLUMN_NOT_DEFINED_IN_TABLE
-
[SPARK-50021] [SC-179500][CORE][UI] Corrigir
ApplicationPage
para ocultar links da interface da aplicação quando a interface está desativada - [SPARK-49911] [SC-179111][SQL] Corrigir semântica de suporte à igualdade binária
-
[SPARK-50025] [SC-179496][SQL] Integre
_LEGACY_ERROR_TEMP_1253
noEXPECT_VIEW_NOT_TABLE
- [SPARK-49829] [SC-179480][SS] Corrigir o bug na otimização de adicionar entrada ao armazenamento de estado na junção entre fluxos.
-
[SPARK-50004] [SC-179499][SQL] Integre
_LEGACY_ERROR_TEMP_3327
noFIELD_NOT_FOUND
- [SPARK-50380] [SC-182210][SQL] ReorderAssociativeOperator deve cumprir o contrato em ConstantFolding
- [SPARK-50340] [SC-181859][SQL] Unwrap UDT na consulta de entrada INSERT
-
[SPARK-50237] [SC-181660][SQL] Atribuir condição de erro apropriada para
_LEGACY_ERROR_TEMP_2138-9
:CIRCULAR_CLASS_REFERENCE
- [SPARK-50258] [SC-181993][SQL] Corrigir problema alterado na ordem da coluna de saída após a otimização do AQE
-
[SPARK-49773] [SC-178369][SQL] Exceção Java não detetada de
make_timestamp()
com fuso horário incorreto - [SPARK-49977] [SC-179265][SQL] Use computação iterativa baseada em pilha para evitar a criação de muitos objetos Scala List para árvores de expressão profunda
-
[SPARK-50153] [SC-181591][SQL] Adicione
name
aoRuleExecutor
para clarificar a impressão dos registos deQueryExecutionMetrics
-
[SPARK-50320] [SC-181668][CORE] Torne
--remote
uma opção oficial removendo o avisoexperimental
- [SPARK-49909] [SC-179492]Reverter "[SQL] Corrigir o nome bonito de algumas expressões"
- [SPARK-50330] [SC-180720][SC-181764][SQL] Adicionar dicas aos nós Classificar e Janela
- [SPARK-50364] [SC-182003][SQL] Implementar serialização para o tipo LocalDateTime em Row.jsonValue
-
[SPARK-50016] [SC-182139][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_2067
:UNSUPPORTED_PARTITION_TRANSFORM
- [SPARK-49899] [SC-181175][PYTHON][SS] Suporte para eliminarSeExistir no TransformWithStateInPandas
- [SPARK-49757] [SC-177824][SQL] Suporte a expressão IDENTIFIER na instrução SET CATALOG
- [SPARK-50315] [SC-181886][SQL] Suporte a métricas personalizadas para gravações V1Fallback
- [SPARK-42838] [SC-181509][SQL] Atribua um nome à classe de erro _LEGACY_ERROR_TEMP_2000
- [SPARK-50353] [SC-181985][SQL] Refactor ResolveSQLOnFile
- [SPARK-48344] [SC-181967][SQL] Preparar scripts SQL para adição do Execution Framework
- [SPARK-49345] [SC-174786][CONNECT] Certifique-se de usar a Sessão Spark em execução atual
- [SPARK-49925] [SC-178882][SQL] Adicionar testes para ordem com cadeias de caracteres agrupadas
- [SPARK-50167] [SC-181199][PYTHON][CONNECT] Melhorar as mensagens de erro ao plotar e as importações no PySpark
- [SPARK-49368] [SC-174999][CONNECT] Evite acessar classes protobuf lite diretamente
- [SPARK-50056] [SC-181378][SQL] Suporte Codegen para ParseUrl (invocando & RuntimeReplaceable)
- [SPARK-49601] [SC-180770][SS][PYTHON] Suporta manipulação de estado inicial para TransformWithStateInPandas
- [SPARK-49908] [SC-178768][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_0044
- [SPARK-50144] [SC-180307][SS] Resolva a limitação do cálculo de métricas com fontes de streaming DSv1
- [SPARK-49874] [SC-178303][SQL] Remova os especificadores de agrupamento trim e ltrim.
- [SPARK-49513] [SC-180339][SS] Adicionar suporte para temporizador na API transformWithStateInPandas
-
[SPARK-49119] [SC-175607][SQL] Corrigir a inconsistência da sintaxe
show columns
entre v1 e v2 -
[SPARK-49206] [SC-173704][CORE][UI] Adicionar
Environment Variables
tabela ao MasterEnvironmentPage
- [SPARK-49934] [SC-179581][SQL] Adicionar elenco implícito para acessar mapa agrupado com literal
- [SPARK-50049] [SC-181659][SQL] Suporta métricas de driver personalizadas na escrita na tabela v2
- [SPARK-50171] [SC-180295][PYTHON] Tornar o numpy opcional para o gráfico do KDE
- [SPARK-49962] [SC-179320][SQL] Simplifique a hierarquia de classes AbstractStringTypes
- [SPARK-50226] [SC-181483][SQL] Corrigir MakeDTInterval e MakeYMInterval para capturar exceções Java
- [SPARK-48775] [SC-170801][SQL][STS] Substitua SQLContext por SparkSession no STS
-
[SPARK-49015] [SC-175688][CORE] O Connect Server deve respeitar
spark.log.structuredLogging.enabled
- [SPARK-50327] [SC-181667][SQL][16.x] Extração da resolução de função para reutilização no analisador de passagem única
- [SPARK-49995] [SC-180762][SQL] Adicionar suporte a argumentos nomeados a mais TVFs
- [SPARK-49268] [SC-174903][CORE] Registar exceções de E/S no provedor de histórico do SHS
- [SPARK-48123] [SC-164989][Core] Fornecer um esquema de tabela constante para consultar logs estruturados
- [SPARK-49217] [SC-174904][CORE] Suporta configuração de tamanho de buffer separado no UnsafeShuffleWriter
- [SPARK-50325] [SC-181664][SQL][16.x] Isolar a resolução de alias para ser reutilizada no Analisador de Passagem Única
- [SPARK-50322] [SC-181665][SQL] Corrigir identificador parametrizado em uma subconsulta
-
[SPARK-48400] [SC-175283][CORE] Promova
PrometheusServlet
paraDeveloperApi
- [SPARK-50118] Reverter "[SC-181259][CONNET] Redefinir cache de estado isolado quando as tarefas estão em execução"
- [SPARK-50306] [SC-181564][PYTHON][CONNECT] Suportar Python 3.13 no Spark Connect
- [SPARK-50152] [SC-181264][SS] Suporte a handleInitialState com leitor de dados de estado.
- [SPARK-50260] [SC-181271][CONNECT] Refatorar e otimizar o Spark C...
- [SPARK-47591] [SC-163090][SQL] Hive-thriftserver: Migrar logInfo com variáveis para o framework de logging estruturado
-
[SPARK-49312] [SC-174672][PYTHON] Melhorar mensagem de erro para
assertSchemaEqual
-
[SPARK-49439] [SC-175236][SQL] Corrija o nome bonito da expressão
FromProtobuf
&ToProtobuf
- [SPARK-50092] [ES-1258521] Corrigir o comportamento do conector PostgreSQL para matrizes multidimensionais
- [SPARK-49913] [SC-181565][SQL] Adicionar verificação de nomes de rótulos exclusivos em escopos rotulados aninhados
- [SPARK-49563] [SC-181465][SQL] Adicionar sintaxe de pipe SQL para o operador WINDOW
- [SPARK-49661] [SC-179021][SQL] Implemente o hashing e a comparação do agrupamento de cortes.
- [SPARK-38912] [SC-181543][PYTHON] Remova o comentário relacionado com o classmethod e a propriedade
- [SPARK-49770] [16.x][SC-179802][SC-179270][SS][RocksDB Hardening] Melhore o gerenciamento de mapeamento de arquivos SST do RocksDB e corrija o problema de recarregar a mesma versão com o snapshot existente
- [SPARK-49002] Reverter “[SC-172846][SQL] Tratar consistentemente locais inválidos em WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY”
- [SPARK-50290] [SC-181453][SQL] Adicionar um sinalizador para desativar a criação de DataFrameQueryContext
- [SPARK-49668] [SC-178268][SQL] Implementar suporte de chave de agrupamento para agrupamento de corte
- [SPARK-50262] [SC-181193][SQL] Proibir a especificação de tipos complexos durante a alteração do agrupamento
- [SPARK-48898] [SC-181435][SQL] Adicionar funções de destruição de variantes
- [SPARK-48273] [SC-181381] Reverter "[SQL] Corrigir a reescrita tardia de PlanWithUnresolvedIdentifier
-
[SPARK-50222] [SC-180706][CORE] Suporte
spark.submit.appName
-
[SPARK-50208] [SC-180662][CORE] Suporte
spark.master.useDriverIdAsAppName.enabled
- [SPARK-50224] [SC-180689][SQL] As substituições de IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 devem ser NullIntolerant
-
[SPARK-50247] [SC-180962][CORE] Defina
BLOCK_MANAGER_REREGISTRATION_FAILED
comoExecutorExitCode
-
[SPARK-50282] [SC-181221][ML] Simplifique
TargetEncoderModel.transform
- [SPARK-50112] [SC-180763][SQL] Permitindo que o operador TransformWithState use a codificação Avro
-
[SPARK-50267] [SC-181180][ML] Melhorar
TargetEncoder.fit
com APIs de DataFrame - [SPARK-37178] [SC-180939][ML] Adicionar codificação de destino a ml.feature
- [SPARK-50118] [SC-181259][CONNET] Redefinir cache de estado isolado quando as tarefas estão em execução
-
[SPARK-50085] [BEHAVE-176][SC-179809][PYTHON] Fazer com que
lit(ndarray)
com np.int8 respeite o tipo de dados numpy - [SPARK-50256] [SC-181048][SQL] Adicione uma validação leve para verificar se um plano lógico fica sem solução após cada regra de otimização
- [SPARK-50196] [SC-180932][CONNECT] Corrija o contexto de erro Python para usar um contexto adequado
- [SPARK-50274] [SC-181181][CORE] Proteção contra uso após fechamento em DirectByteBufferOutputStream
- [SPARK-49999] [SC-180063][PYTHON][CONNECT] Suporta parâmetro opcional "coluna" em gráficos de caixa, kde e hist
- [SPARK-50273] [SC-181178][SS] Melhorar o registo para os casos de aquisição e libertação de bloqueio no RocksDB
- [SPARK-50033] [SC-180720][SC-180659][SQL] Adicione uma dica ao nó lógico de Aggregate()
- [SPARK-50163] [16.x][SC-180201][SC-180664][SS] Corrigir a liberação extra do acquireLock do RocksDB devido ao listener de conclusão
- [SPARK-50253] [SC-180969][SS] Stream-Stream Join não deve buscar o ID do ponto de verificação se não for suportado.
-
[SPARK-50255] [SC-180964][PYTHON] Evite fundição desnecessária no
compute_hist
-
[SPARK-50228] [SC-180780][SQL] Mover a regra de
RewriteCollationJoin
paraFinishAnalysis
- [SPARK-50001] [SC-179524][PYTHON][PS][CONNECT] Ajuste a "precisão" para fazer parte dos kwargs para gráficos de caixa
- [SPARK-49637] [SC-180160][SQL] Alterou-se a mensagem de erro para INVALID_FRACTION_OF_SECOND
- [SPARK-49530] [SC-180658][PYTHON] Obter sessão ativa a partir de dataframes
-
[SPARK-50195] [SC-180654][CORE] Corrigir
StandaloneRestServer
para propagarspark.app.name
paraSparkSubmit
corretamente - [SPARK-50229] [SC-180773] Reduza o uso de memória no driver para esquemas amplos reduzindo a vida útil dos objetos AttributeReference criados durante o planejamento lógico
-
[SPARK-50231] [SC-180815][PYTHON] Faça a função
instr
aceitar Colunasubstring
- [SPARK-49854] [SC-179812][16.x][SQL] Clonar o gestor de artefatos durante a clonagem da sessão
- [SPARK-50028] [SC-180699][CONNECT] Substitua bloqueios globais no ouvinte do servidor Spark Connect por bloqueios refinados
- [SPARK-49615] [SC-180672] [ML] Garanta que todas as validações de esquema para conjuntos de dados de transformadores de características de ML estejam em conformidade com a configuração "spark.sql.caseSensitive".
-
[SPARK-50219] [SC-180694][SQL] Refatore
ApplyCharTypePadding
para que métodos auxiliares possam ser usados em um resolvedor de passagem única - [SPARK-50077] [SC-179827][SQL] Introduza um novo objeto pattern para LogicalRelation para ajudar a evitar o padrão padrão de parâmetros completos
- [SPARK-50128] [Backport][16x][SC-180677][SS] Adicionar APIs para processadores com gestão de estado usando codificadores implícitos em Scala
- [SPARK-50061] [SC-179961][SQL] Habilitar tabela de análise para colunas agrupadas
- [SPARK-49993] [SC-180084][SQL] Melhorar mensagens de erro para Soma e Média
- [SPARK-49638] [SC-179665][SQL] Remova a sugestão de configuração ANSI no INVALID_URL
-
[SPARK-50204] [SC-180660][SQL] Fator out
HiveTableRelation
resolução do caminho de leitura - [SPARK-50193] [SC-180651][SS] Corrigir o tratamento de exceções para validar modos de tempo
-
[SPARK-50179] [SC-180342][CORE] Tornar
spark.app.name
propriedade opcional na API REST -
[SPARK-50068] [SC-180300][SQL] Refatorar
TypeCoercion
eAnsiTypeCoercion
para separar transformações de nó único - [SPARK-49411] [SC-179483][SS] Comunicar o ID do ponto de verificação do State Store entre o driver e os operadores com estado
- [SPARK-50124] [SC-180294][SQL] LIMIT/OFFSET deve preservar a ordenação de dados
- [SPARK-49506] [SC-180165][SQL] Otimizar ArrayBinarySearch para vetor dobrável
-
[SPARK-50097] [SC-179908][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_1248
:ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
- [SPARK-50071] [SC-180159][SQL][PYTHON] Adicionar try_make_timestamp(_ltz e _ntz) e testes relacionados
- [SPARK-50024] Reverter "[SC-179515][PYTHON][CONNECT] Alternar para usar o logger em vez do módulo de avisos no cliente"
- [SPARK-50054] [SC-180228][PYTHON][CONNECT] Suporte para gráficos de histograma
-
[SPARK-50015] [SC-179964][SQL] Atribua a condição de erro apropriada para
_LEGACY_ERROR_TEMP_1125
:MISSING_DATABASE_FOR_V1_SESSION_CATALOG
- [SPARK-50155] [SC-180240][3.5] Mover arquivos scala e java para suas pastas padrão
- [SPARK-49980] [SC-180353][CORE][SQL] Corrigir possíveis vazamentos de fluxo de arquivos causados por interrupção em tarefas canceladas
- [SPARK-49010] [SC-172304][SQL][XML] Adicionar testes de unidade para inferência de esquema XML sensível a maiúsculas e minúsculas
- [SPARK-50024] [SC-179515][PYTHON][CONNECT] Alternar para usar o logger em vez do módulo de avisos no cliente
- [SPARK-49562] [SC-180211][SQL] Adicionar sintaxe de pipe SQL para agregação
- [SPARK-49663] [SC-180239][SQL] Habilitar sugestões RTRIM em expressões de agrupamento
-
[SPARK-48965] [SC-175926][SQL] Use o esquema correto no
Dataset#toJSON
- [SPARK-48493] [SC-175893][PYTHON] Melhore o leitor de fontes de dados Python com suporte direto a Batch de Arrow para melhorar o desempenho
-
[SPARK-49734] [SC-180226][PYTHON] Adicionar
seed
argumento para a funçãoshuffle
- [SPARK-50174] [16.x][SC-180253][SQL] Fatorar resolução UnresolvedCatalogRelation
- [SPARK-49989] [SC-179512][PYTHON][CONNECT] Suporte a gráficos de densidade kde
-
[SPARK-49805] [SC-180218][SQL][ML] Remover funções private[xxx] do
function.scala
- [SPARK-49808] [SC-179490][SQL] Corrigir um impasse na execução de subconsultas devido a vals preguiçosos
- [SPARK-49929] [SC-180144][PYTHON][CONNECT] Gráficos de caixa de suporte
-
[SPARK-50008] [SC-179290][PS][CONNECT] Evite operações desnecessárias no
attach_distributed_sequence_column
- [SPARK-49767] [SC-180161][PS][CONNECT] Refatorar a invocação da função interna
- [SPARK-49683] [SC-178341][SQL] Agrupamento de corte de bloco
- pt-PT: [SPARK-49939] [SC-178941][SQL] Suporte para Codegen no json_object_keys (através de Invoke & RuntimeReplaceable)
-
[SPARK-50031] [SC-179582][SQL] Adicionar a expressão
TryParseUrl
-
[SPARK-49766] [SC-178933][SQL] Suporte de Codegen para
json_array_length
(porInvoke
&RuntimeReplaceable
) - [SPARK-50046] [SC-180026][SS] Use a ordem estável do nó EventTimeWatermark para calcular a marca d'água
-
[SPARK-49540] [SC-180145][PS] Unifique o uso de
distributed_sequence_id
- [SPARK-50060] [SC-179965][SQL] Conversão desabilitada entre diferentes tipos agrupados em TypeCoercion e AnsiTypeCoercion
- [SPARK-49004] [SC-173244][CONNECT] Usar registo separado para funções internas da API de colunas
- [SPARK-49811] [SC-177888][SQL]Renomear StringTypeAnyCollation
-
[SPARK-49202] [SC-180059][PS] Aplicar
ArrayBinarySearch
para histograma -
[SPARK-49203] [SC-175734][SQL] Adicionar expressão para
java.util.Arrays.binarySearch
-
[SPARK-50034] [SC-179816][CORE] Corrigir relatórios incorretos de erros fatais como exceções não detetadas em
SparkUncaughtExceptionHandler
- [SPARK-50093] [SC-179836][SQL] As classificações que usam ICU devem indicar a versão da biblioteca ICU utilizada.
- [SPARK-49985] [SC-179644][SQL] Remover suporte para tipos de intervalo em Variant
-
[SPARK-49103] [SC-173066][CORE] Suporte
spark.master.rest.filters
- [SPARK-50090] [SC-179819] Refatorar ResolveBinaryArithmetic para separar a transformação de nó único
-
[SPARK-49902] [SC-179650][SQL] Detetar erros de tempo de execução subjacentes no
RegExpReplace
-
[SPARK-49126] [SC-173342][CORE] Mover
spark.history.ui.maxApplications
definição de configuração paraHistory.scala
- [SPARK-50094] [SC-179820][PYTHON][CONNECT] Melhor mensagem de erro ao usar a ferramenta de perfil de memória em editores sem números de linha
-
[SPARK-50062] [SC-179835][SQL] Suporta agrupamentos por
InSet
- [SPARK-50035] [Backport][16x][SC-179530][SS] Adicionar suporte para a função explícita handleExpiredTimer do processador de estado
- [SPARK-49982] [SC-179814][SQL] Corrigir cache negativo em InMemoryRelation
-
[SPARK-49082] [SC-173350][SQL] Alargamento das promoções de tipo em
AvroDeserializer
-
[SPARK-50088] [SC-179680][SQL] Refatorar
UnresolvedStarBase.expand
- [SPARK-49802] [SC-179482][SS] Adicionar suporte para leitura de feed de alterações para tipos de mapa e lista usados em processadores com estado monitorado
- [SPARK-49846] [SC-179506][SS] Adicione métricas numUpdatedStateRows e numRemovedStateRows para uso com o operador transformWithState
- [SPARK-50050] [SC-179643][PYTHON][CONNECT][16.X] Permitir que lit aceite ndarray do tipo str e bool do numpy
- [SPARK-49821] [SC-179527][SS][PYTHON] Implemente o suporte MapState e TTL para TransformWithStateInPandas
- [SPARK-49558] [SC-179485][SQL] Adicionar sintaxe de pipe SQL para LIMIT/OFFSET e ORDER/SORT/CLUSTER/DISTRIBUTE BY
-
[SPARK-48144] [SC-165725][LC-4080][SQL] Corrija
canPlanAsBroadcastHashJoin
para respeitar as dicas de junção aleatória -
[SPARK-50051] [SC-179571][PYTHON][CONNECT] Torne
lit
compatível com ndarray numpy vazio - [SPARK-50018] [SC-179488][SQL] Tornar AbstractStringType serializável
- [SPARK-50016] [SC-179491][SQL] Melhorar erro de incompatibilidade de agrupamento explícito
- [SPARK-50010] [SC-179487][SQL] Detalhar erro de incompatibilidade de agrupamento implícito
- [SPARK-48749] [SC-170116][SQL] Simplifique o UnaryPositive e elimine suas regras do Catalyst com RuntimeReplaceable
- [SPARK-49857] [SC-178576][SQL] Adicionar StorageLevel à API localCheckpoint do DataSet
- [SPARK-50058] [SC-179538][SQL] Extrair funções de normalização do plano para usá-las posteriormente no teste do analisador de passagem única.
- [SPARK-50052] [SC-179535][PYTHON][16.X] Fazer com que o NumpyArrayConverter suporte ndarray de string vazio
- [SPARK-47261] [SC-173665][SQL] Atribua um nome melhor para erros _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 e _LEGACY_ERROR_TEMP_1174
-
[SPARK-49147] [SC-173471][CORE] Identificar
KryoRegistrator
com a interface DeveloperApi - [SPARK-48949] [SC-173070][SQL] SPJ: Filtragem de partição em tempo de execução
- [SPARK-50044] [SC-179523][PYTHON] Refinar o docstring de várias funções matemáticas
-
[SPARK-48757] [SC-170113][CORE] Fazer
IndexShuffleBlockResolver
ter construtores explícitos - [SPARK-50037] [SQL] Refactor AttributeSeq.resolve(...)
- [SPARK-48782] [SC-177056][SQL] Adicionar suporte para executar procedimentos em catálogos
- [SPARK-49057] [SC-173081][SQL] Não bloqueie o loop AQE ao enviar estágios de consulta
- [SPARK-48824] [SC-176772][BEHAVE-167][SQL] Adicionar coluna de identidade Sintaxe SQL
- [SPARK-48773] [SC-170773] Configuração do documento "spark.default.parallelism" por config builder framework
- [SPARK-48735] [SC-169810][SQL] Melhoria de desempenho para a função BIN
-
[SPARK-48900] [SC-172433] Adicionar campo
reason
para todas as chamadas internas para cancelamento de trabalho/estágio -
[SPARK-48488] [SC-167605][CORE] Corrigir métodos
log[info|warning|error]
noSparkSubmit
-
[SPARK-48708] [SC-169809][CORE] Remova três registros de tipo desnecessários do
KryoSerializer
- [SPARK-49958] [SC-179312][PYTHON] API Python para funções de validação de cadeia de caracteres
- [SPARK-49979] [SC-179264][SQL] Corrigir problema de suspensão do AQE ao coletar duas vezes em um plano com falha
- [SPARK-48729] [SC-169795][SQL] Adicionar uma interface UserDefinedFunction para representar uma função SQL
-
[SPARK-49997] [SC-179279][SQL] Integrar
_LEGACY_ERROR_TEMP_2165
noMALFORMED_RECORD_IN_PARSING
- [SPARK-49259] [SC-179271][SS]Criação de partição baseada em tamanho durante a leitura do Kafka
- [SPARK-48129] [SC-165006][PYTHON] Fornecer um esquema de tabela constante no PySpark para consultar logs estruturados
- [SPARK-49951] [SC-179259][SQL] Atribuir condição de erro adequada para LEGACY_ERROR_TEMP(1099|3085)
- [SPARK-49971] [SC-179278][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_1097
-
[SPARK-49998] [SC-179277][SQL] Integração de
_LEGACY_ERROR_TEMP_1252
noEXPECT_TABLE_NOT_VIEW
- [SPARK-49876] [SC-179262][CONNECT] Livre-se das fechaduras globais do Serviço Spark Connect
- [SPARK-49957] [SC-179202][SQL] API Scala para funções de validação de cadeia de caracteres
- [SPARK-48480] [SC-173055][SS][CONNECT] StreamingQueryListener não deve ser afetado por spark.interrupt()
- [SPARK-49643] [SC-179239][SQL] Mesclar _LEGACY_ERROR_TEMP_2042 em ARITHMETIC_OVERFLOW
- [SPARK-49959] [SC-179109][SQL] Corrigir ColumnarArray.copy() para ler nulos a partir do deslocamento correto
- [SPARK-49956] Reverter "[SC-179070] Agrupamentos desativados com expressão collect_set"
-
[SPARK-49987] [SC-179180][SQL] Corrija o prompt de erro quando
seedExpression
não é dobrável norandstr
- [SPARK-49948] [SC-179158][PS][CONNECT] Adicionar parâmetro "precision" aos pandas no gráfico de caixa Spark
- [SPARK-49970] [SC-179167][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2069
- [SPARK-49916] [SC-179108][SQL] Lançar exceção apropriada para incompatibilidade de tipo entre ColumnType e tipo de dados em algumas linhas
- [SPARK-49956] [SC-179070] Agrupamentos desativados com expressão collect_set
- [SPARK-49974] [16.x][SC-179071][SQL] Mover resolveRelations(...) para fora do Analyzer.scala
- [SPARK-47259] [SC-176437][SQL] Atribuir nomes a condições de erro para erros de intervalo
- [SPARK-47430] [SC-173679][SQL] Revisão do agrupamento por tipo de mapa para corrigir exceção de referência de associação
- [SPARK-49067] [SC-172616][SQL] Mover utf-8 literal para métodos internos da classe UrlCodec
- [SPARK-49955] [SC-178989][SQL] valor nulo não significa arquivo corrompido ao analisar JSON string RDD
- [SPARK-49393] [SC-175212][SQL] Falha por padrão em APIs de plug-in de catálogo preteridas
- [SPARK-49952] [SC-178985][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_1142
- [SPARK-49405] [SC-175224][SQL] Restringir conjuntos de caracteres em JsonOptions
- [SPARK-49892] [SC-178975][SQL] Atribuir classe de erro adequada para _LEGACY_ERROR_TEMP_1136
- [SPARK-49904] [SC-178973][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2140
- [SPARK-47257] [SC-174244][SQL] Atribuir nomes a classes de erro _LEGACY_ERROR_TEMP_105[3-4] e _LEGACY_ERROR_TEMP_1331
- [SPARK-49915] [SC-178869][SQL] Manipular zeros e uns em ReorderAssociativeOperator
- [SPARK-49891] [SC-178970][SQL] Atribuir condição de erro adequada para _LEGACY_ERROR_TEMP_2271
- [SPARK-49829] [ES-1254513] Revisar a otimização na adição de entrada ao armazenamento de estado na junção de fluxos contínuos (correção de precisão)
-
[SPARK-49918] [SC-178748][CORE] Utilize acesso apenas de leitura para conf em
SparkContext
quando apropriado - [SPARK-49666] [SC-177891][SQL] Adicionar sinalizador de recurso para o recurso de agrupamento de corte
- [SPARK-48885] [SC-171050][SQL] Alterar algumas subclasses de RuntimeReplaceable para que utilizem lazy val na substituição
-
[SPARK-49932] [SC-178931][CORE] Use
tryWithResource
liberar recursosJsonUtils#toJsonString
para evitar vazamentos de memória -
[SPARK-49949] [SC-178978][PS] Evite tarefas de análise desnecessárias no
attach_sequence_column
-
[SPARK-49924] [SC-178935][SQL] Manter
containsNull
apósArrayCompact
substituição - [SPARK-49905] [ES-1265435] Use um ShuffleOrigin dedicado para o operador com estado para evitar que a operação de shuffle seja modificada por causa do AQE.
-
[SPARK-49615] [SC-178877] Correção de bugs: Faça com que a validação do esquema da coluna ML esteja em conformidade com o spark config
spark.sql.caseSensitive
. -
[SPARK-49121] [SC-174787][SQL] Suporte
from_protobuf
eto_protobuf
para funções SQL - [SPARK-47496] [SC-160529][SQL] Suporte Java SPI para registro dinâmico de dialetos JDBC
- [SPARK-49359] [SC-174895][SQL] Permitir que implementações StagedTableCatalog retornem à gravação não atômica
- [SPARK-49895] [SC-178543][SQL][ES-1270338] Melhorar o erro ao encontrar vírgula à direita na cláusula SELECT
- [SPARK-47945] [SC-163457][SQL] MsSQLServer: Documentar o mapeamento de Data Types do Spark SQL para o Microsoft SQL Server e adicionar testes
- [SPARK-46037] [SC-175495][SQL] Correção de precisão para Shuffled Hash Join construído à esquerda sem geração de código
- [SPARK-47813] [SC-162615][SQL] Substitua getArrayDimension por updateExtraColumnMeta
- [SPARK-49542] [SC-178765][SQL] Erro na avaliação da exceção de transformação de partição
- [SPARK-47172] [SC-169537][CORE] Adicionar suporte para AES-GCM para criptografia RPC
- [SPARK-47666] [SC-161476][SQL] Corrigir o NPE ao ler a matriz de bits do MySQL como LongType
- [SPARK-48947] [SC-174239][SQL] Use o nome do conjunto de caracteres em caixa baixa para diminuir o cache ausente em Charset.forName
- [SPARK-49909] [SC-178552][SQL] Corrija o nome bonito de algumas expressões
- [SPARK-47647] [SC-161377][SQL] Faça com que a fonte de dados MySQL seja capaz de ler bit(n>1) como BinaryType, tal como no Postgres
-
[SPARK-46622] [SC-153004][CORE] Substituir método
toString
poro.a.s.network.shuffledb.StoreVersion
- [SPARK-48961] [SC-171910][PYTHON] Torne a nomenclatura do parâmetro PySparkException consistente com a JVM
-
[SPARK-49889] [SC-178474][PYTHON] Adicionar
trim
de argumento para funçõestrim/ltrim/rtrim
- [SPARK-49863] [ES-1184693][SC-178546][SQL] Corrija NormalizeFloatingNumbers para preservar a anulabilidade de estruturas aninhadas
- [SPARK-47537] [SC-160747][SQL] Corrigir erro de mapeamento de tipo de dados no MySQL Connector/J
- [SPARK-47628] [SC-161257][SQL] Corrigir problema de matriz de bits Postgres 'Não é possível converter para booleano'
- [SPARK-49843] [SC-178084][ES-1268164][SQL] Corrigir alteração de comentário em colunas char/varchar
- [SPARK-49549] [SC-178764][SQL] Atribua um nome às condições de erro _LEGACY_ERROR_TEMP_3055, 3146
- [SPARK-49782] [SC-178756][SQL] A regra ResolveDataFrameDropColumns resolve UnresolvedAttribute com saída do filho
- [SPARK-49791] [SC-177730][SQL] Tornar DelegatingCatalogExtension mais extensível
- [SPARK-49559] [SC-178551][SQL] Adicionar sintaxe de pipe SQL para operações definidas
- [SPARK-49906] [SC-178536][SQL] Introduzir e usar CONFLICTING_DIRECTORY_STRUCTURES erro para PartitioningUtils
- [SPARK-49877] [SC-178392][SQL] Alterar assinatura da função classifyException: adicionar argumento isRuntime
- [SPARK-47501] [SC-160532][SQL] Adicione convertDateToDate como o convertTimestampToTimestamp existente para JdbcDialect
- [SPARK-49044] [SC-175746][SQL] ValidateExternalType deve retornar o elemento filho em caso de erro.
- [SPARK-47462] [SC-160460][SQL] Alinhar mapeamentos de outros tipos numéricos não assinados com TINYINT no MySQLDialect
- [SPARK-47435] [SC-160129][SQL] Corrigir problema de estouro de MySQL TINYINT NÃO ASSINADO causado por SPARK-45561
- [SPARK-49398] [SC-176377][SQL] Melhorar o erro para parâmetros na consulta de CACHE TABLE e CREATE VIEW
- [SPARK-47263] [SC-177012][SQL] Atribuir nomes às condições herdadas _LEGACY_ERROR_TEMP_13[44-46]
-
[SPARK-49605] [SC-176605][SQL] Corrigir a mensagem quando
ascendingOrder
estiverDataTypeMismatch
noSortArray
-
[SPARK-49806] [SC-178304][SQL][CONNECT] Remover
blank space
redundantes apósshow
em clientesScala
eConnect
- [SPARK-47258] [SC-175032][SQL] Atribuir nomes a classes de erro _LEGACY_ERROR_TEMP_127[0-5]
- [SPARK-49564] [SC-178461][SQL] Adicionar sintaxe de pipe SQL para o operador JOIN
- [SPARK-49836] [SC-178339][SQL][SS] Corrigir consulta possivelmente quebrada quando a janela é fornecida para window/session_window fn
- [SPARK-47390] [SC-163306][SC-159312][SPARK-47396][SC-159376][SPARK-47406] Manipular mapeamento de timestamps SQL para Postgres e MySQL
- [SPARK-49776] [SC-177818][PYTHON][CONNECT] Suporte gráficos de pizza
- [SPARK-49824] [SC-178251][SS][CONNECT] Melhorar o registo no SparkConnectStreamingQueryCache
- [SPARK-49894] [SC-178460][PYTHON][CONNECT] Refinar a representação de string das operações de campos de coluna
- [SPARK-49764] [SC-177491][PYTHON][CONNECT] Suporte para gráficos de área
- [SPARK-49694] [SC-177376][PYTHON][CONNECT] Suporte a gráficos de dispersão
- [SPARK-49744] [SC-178363][SS][PYTHON] Implementar suporte TTL para ListState em TransformWithStateInPandas
-
[SPARK-49879] [SC-178334][CORE] Mover
TransportCipherUtil
para um arquivo separado para eliminar avisos de compilação Java - [SPARK-49866] [SC-178353][SQL] Melhorar a mensagem de erro para descrever tabela com colunas de partição
- [SPARK-49867] [SC-178302][ES-1260570][SQL] Melhorar a mensagem de erro quando o índice está fora dos limites ao chamar GetColumnByOrdinal
- [SPARK-49607] [SC-177373][PYTHON] Atualizar a abordagem de amostragem para parcelas baseadas em amostra
- [SPARK-49626] [SC-177276][PYTHON][CONNECT] Suporta gráficos de barras horizontais e verticais
- [SPARK-49531] [SC-177770][PYTHON][CONNECT] Suporte para a criação de um gráfico de linhas com o backend plotly
- [SPARK-49444] [SC-177692][ES-1203248][SQL] UnivocityParser modificado para lançar exceções de tempo de execução causadas por ArrayIndexOutOfBounds com mensagens mais orientadas ao usuário
- [SPARK-49870] [SC-178262][PYTHON] Adicionar suporte a Python 3.13 no Spark Classic
- [SPARK-49560] [SC-178121][SQL] Adicionar sintaxe de pipe SQL para o operador TABLESAMPLE
- [SPARK-49864] [SC-178305][SQL] Melhore a mensagem de BINARY_ARITHMETIC_OVERFLOW
- [SPARK-48780] [SC-170274][SQL] Tornar o tratamento de erros em NamedParametersSupport mais genérico para lidar com funções e procedimentos
- [SPARK-49358] [SC-178158][SQL] Expressão de modo para tipos de mapa com cadeias de caracteres agrupadas
- [SPARK-47341] [SC-178157][SQL] Corrigir documentação imprecisa de RuntimeConfig#get
- [SPARK-48357] [SC-178153][SQL] Suporte para instrução LOOP
-
[SPARK-49845] [SC-178059][CORE] Tornar
appArgs
eenvironmentVariables
opcionais na API REST - [SPARK-49246] [SC-174679][SQL] TableCatalog#loadTable deve indicar se é para escrever
- [SPARK-48048] [SC-177525][SC-164846][CONNECT][SS] Adicionado suporte de ouvinte do lado do cliente para Scala
- [SPARK-48700] [SC-177978][SQL] Expressão de modo para tipos complexos (todos os agrupamentos)
- [SPARK-48196] [SC-177899][SQL] Transforme planos val preguiçosos QueryExecution em LazyTry
- [SPARK-49749] [16.x][SC-177877][CORE] Alterar o nível de log para debug em BlockManagerInfo
- [SPARK-49561] [SC-177897][SQL] Adicionar sintaxe de pipe SQL para os operadores PIVOT e UNPIVOT
- [SPARK-49823] [SC-177885][SS] Evite a descarga durante o desligamento no processo de encerramento do RocksDB
-
[SPARK-49820] [SC-177855] [PYTHON] Alterar
raise IOError
pararaise OSError
- [SPARK-49653] [SC-177266][SQL] Junção única para subconsultas escalares correlacionadas
- [SPARK-49552] [SC-177477][PYTHON] Adicionar suporte à API DataFrame para as novas funções SQL 'randstr' e 'uniform'
- [SPARK-48303] [16.x][SC-166251][CORE] Reorganizar LogKeys
- [SPARK-49656] [16x][Backport][SS] Adicione suporte para variáveis de estado com tipos de coleção de estado de valor e opções de leitura de alterações de feed
- [SPARK-48112] [SC-165129][CONNECT] Expor sessão no SparkConnectPlanner aos plugins
- [SPARK-48126] [16.x][SC-165309][Core] Fazer com que o spark.log.structuredLogging.enabled seja eficaz
- [SPARK-49505] [SC-176873][SQL] Crie novas funções SQL "randstr" e "uniforme" para gerar cadeias de caracteres ou números aleatórios dentro de intervalos
- [SPARK-49463] [SC-177474] Suporte ListState para TransformWithStateInPandas
-
[SPARK-48131] [SC-165007][Core] Unifique
mdc.taskName
etask_name
de chaves MDC - [SPARK-49557] [SC-177227][SQL] Adicionar sintaxe de pipe SQL para o operador WHERE
- [SPARK-49323] [16.x][SC-174689][CONNECT] Mover o MockObserver da pasta de teste do Spark Connect Server para a pasta principal do servidor
- [SPARK-49745] [SC-177501][SS] Adicionar uma alteração para ler os temporizadores registados através do leitor de fonte de dados de estado
- [SPARK-49772] [16.x][SC-177478][SC-177214][SS] Remova ColumnFamilyOptions e adicione configurações diretamente a dbOptions no RocksDB
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixar ODBC, baixar JDBC).
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.1 LTS
- Java : Zulu17.54+21-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
tipos anotados | 0.7.0 | AstTokens | 2.0.5 | Astunparse | 1.6.3 |
Comando automático | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
pisca | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clique | 8.1.7 |
Cloudpickle | 2.2.1 | Comm | 0.2.1 | contorno | 1.2.0 |
Criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
Decorador | 5.1.1 | Preterido | 1.2.14 | Distlib | 0.3.8 |
docstring-para-markdown | 0.11 | pontos de entrada | 0.4 | executando | 0.8.3 |
facetas-visão geral | 1.1.1 | bloqueio de ficheiro | 3.15.4 | Fonttools | 4.51.0 |
GitDB | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
Google-Auth | 2.35.0 | google-nuvem-core | 2.4.1 | Google Cloud Storage | 2.18.2 |
Google-CRC32C | 1.6.0 | google-recomeçável-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
Grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
Idna | 3.7 | importlib-metadados | 6.0.0 | importlib_resources | 6.4.0 |
flexionar | 7.3.1 | ipyflow-core | 0.0.201 | Ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Isodate | 0.6.1 | jaraco.contexto | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | Jedi | 0.19.1 | JmesPath | 1.0.1 |
Joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
Kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | Matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | dormência | 1.26.4 | OAuthlib | 3.2.2 |
OpenTelemetry-API | 1.27.0 | OpenTelemetry-SDK | 1.27.0 | OpenTelemetry-Convenções Semânticas | 0,48b0 |
embalagem | 24.1 | pandas | 1.5.3 | Parso | 0.8.3 |
PathSpec | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
almofada | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
enredo | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
Proto-Plus | 1.24.0 | Protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
Pyarrow | 15.0.2 | Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
Pyccolo | 0.0.65 | Pycparser | 2.21 | Pidântico | 2.8.2 |
pydantic_core | 2.20.1 | Pyflakes | 3.2.0 | Pigmentos | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
Pyparsing | 3.0.9 | Pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 |
Pytz | 2024.1 | PyYAML | 6.0.1 | Pyzmq | 25.1.2 |
pedidos | 2.32.2 | corda | 1.12.0 | RSA | 4.9 |
s3transfer | 0.10.2 | scikit-aprender | 1.4.2 | Scipy | 1.13.1 |
Seaborn | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
smmap | 5.0.0 | SQLPARSE | 0.5.1 | ssh-import-id | 5.11 |
dados da estrutura de pilha | 0.2.0 | modelos de estatísticas | 0.14.2 | tenacidade | 8.2.2 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.4.1 | traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 |
tipos-protobuf | 3.20.3 | tipos-psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 |
tipos-PyYAML | 6.0.0 | tipos de pedidos | 2.31.0.0 | tipos-setuptools | 68.0.0.0 |
seis tipos | 1.16.0 | tipos-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
Ujson | 5.10.0 | Atualizações automáticas | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | roda | 0.43.0 | embrulhado | 1.14.1 |
Yapf | 0.33.0 | zipp | 3.17.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager em 2024-08-04.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 16.1.0 | AskPass | 1.2.0 | afirmar que | 0.2.1 |
Backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | pouco | 4.0.5 | bit64 | 4.0.5 |
Bitops | 1.0-8 | aglomerado | 1.2.4 | Bota | 1.3-30 |
cerveja artesanal | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
bslib | 0.8.0 | cachem | 1.1.0 | Chamador | 3.7.6 |
Caret | 6.0-94 | Cellranger | 1.1.0 | Chron | 2.3-61 |
Classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
relógio | 0.7.1 | aglomeração | 2.1.6 | CodeTools | 0.2-20 |
espaço de cores | 2.1-1 | marca comum | 1.9.1 | Compilador | 4.4.0 |
Configuração | 0.3.2 | conflituosos | 1.2.0 | CPP11 | 0.4.7 |
giz de cera | 1.5.3 | Credenciais | 2.0.1 | ondulação | 5.2.1 |
data.table | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
diagrama | 1.6.5 | diffobj | 0.3.5 | Resumo | 0.6.36 |
Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
e1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
fansi | 1.0.6 | Farver | 2.1.2 | mapa rápido | 1.2.0 |
fontawesome | 0.5.2 | FORCATS | 1.0.0 | para cada | 1.5.2 |
estrangeiro | 0.8-86 | forjar | 0.2.0 | fs | 1.6.4 |
Futuro | 1.34.0 | future.apply | 1.11.2 | gargarejo | 1.5.2 |
Genéricos | 0.1.3 | Gert | 2.1.0 | GGPLOT2 | 3.5.1 |
GH | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
GLMNET | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0.7 | GT | 0.11.0 |
gtable | 0.3.5 | capacete de segurança | 1.4.0 | Refúgio | 2.5.4 |
mais alto | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
httr2 | 1.0.2 | identificadores | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | Isoband | 0.2.7 | iteradores | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
KernSmooth | 2.23-22 | Knitr | 1.48 | rotulagem | 0.4.3 |
mais tarde | 1.3.2 | treliça | 0.22-5 | lava | 1.8.0 |
ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.3 |
Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
Matriz | 1.6-5 | memorização | 2.0.1 | Metodologia | 4.4.0 |
MGCV | 1.9-1 | mímica | 0.12 | miniUI | 0.1.1.1 |
Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
Munsell | 0.5.1 | NLME | 3.1-165 | NNET | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
unidades elegantes | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
Prodlim | 2024.06.25 | Profvis | 0.3.8 | Progressos | 1.2.3 |
progressr | 0.14.0 | promessas | 1.3.0 | proto | 1.0.0 |
procuração | 0.4-27 | PS | 1.7.7 | ronronar | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | floresta aleatória | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reagível | 0.4.4 |
reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
Controles remotos | 2.5.0 | Reprex | 2.1.1 | remodelação2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
oxigénio2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversões | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
balanças | 1.3.0 | seletor | 0.4-2 | informação da sessão | 1.2.2 |
forma | 1.4.6.1 | brilhante | 1.9.1 | ferramentas de origem | 0.1.7-1 |
sparklyr | 1.8.6 | espacial | 7.3-17 | estrias | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.4.0 |
Estatísticas4 | 4.4.0 | stringi | 1.8.4 | stringr | 1.5.1 |
Sobrevivência | 3.6-4 | Charme | 5.17.14.1 | Sistema | 3.4.2 |
fontes do sistema | 1.1.0 | TCLTK | 4.4.0 | testthat | 3.2.1.1 |
formatação de texto | 0.4.0 | Tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | Tidyverse | 2.0.0 | mudança de hora | 0.3.0 |
data/hora | 4032.109 | Tinytex | 0.52 | Ferramentas | 4.4.0 |
TZDB | 0.4.0 | verificador de URLs | 1.0.1 | usethis | 3.0.0 |
UTF8 | 1.2.4 | utilitários | 4.4.0 | UUID | 1.2-1 |
V8 | 4.4.2 | VCTRS | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | Waldo | 0.5.2 | vibrissas | 0.4.1 |
murchar | 3.0.1 | xfun | 0.46 | XML2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
Zeallot | 0.1.0 | zip | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
Antlr | Antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | ** aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | Kryo-sombreamento | 4.0.2 |
com.esotericsoftware | Minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | Jackson anotações | 2.15.2 |
com.fasterxml.jackson.core | Jackson-Core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-módulo-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | Jniloader | 1.1 |
com.github.fommil.netlib | native_ref-Java | 1.1 |
com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
com.github.luben | ZSTD-JNI | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | JSR305 | 3.0.0 |
com.google.code.gson | GSON | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | anotações_propensasa_erros | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | Goiaba | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | ferramenta de análise de desempenho | 1.1.1 |
com.ibm.icu | ICU4J | 75.1 |
com.jcraft | JSCH | 0.1.55 |
com.jolbox | BONECP | 0.8.0.LANÇAMENTO |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | JAXB-CORE | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | Json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | Chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | Configuração | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
coleções commons | coleções commons | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
Commons-Logging | Commons-Logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | LAPACK | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compressor de ar | 0.27 |
IO.Delta | delta-compartilhamento-cliente_2.12 | 1.2.2 |
io.dropwizard.metrics | métricas-anotação | 4.2.19 |
io.dropwizard.metrics | métricas-núcleo | 4.2.19 |
io.dropwizard.metrics | métricas-grafite | 4.2.19 |
io.dropwizard.metrics | métricas-verificações de integridade | 4.2.19 |
io.dropwizard.metrics | métricas-Jetty9 | 4.2.19 |
io.dropwizard.metrics | métricas-jmx | 4.2.19 |
io.dropwizard.metrics | métricas-json | 4.2.19 |
io.dropwizard.metrics | métricas JVM | 4.2.19 |
io.dropwizard.metrics | métricas-servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-comum | 4.1.108.Final |
io.netty | netty-manipulador | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | transporte Netty | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
io.prometeu | cliente simples | 0.7.0 |
io.prometeu | simpleclient_common | 0.7.0 |
io.prometeu | simpleclient_dropwizard | 0.7.0 |
io.prometeu | simpleclient_pushgateway | 0.7.0 |
io.prometeu | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jacarta.anotação | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | JDO-API | 3.0.1 |
javax.transaction | JTA | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | JAXB-API | 2.2.11 |
Javolution | Javolution | 5.5.1 |
Jline | Jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | conserva | 1.3 |
net.sf.jpam | JPAM | 1.1 |
net.sf.opencsv | OpenCSV | 2.3 |
net.sf.supercsv | Super-CSV | 2.2.0 |
net.floco de neve | Snowflake-Ingest-SDK | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-tempo de execução | 3.5.2 |
org.antlr | antlr4-tempo de execução | 4.9.3 |
org.antlr | modelo de cadeia de caracteres | 3.2.1 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | ANT-JSCH | 1.10.11 |
org.apache.ant | lançador de formigas | 1.10.11 |
org.apache.arrow | formato de flecha | 15.0.0 |
org.apache.arrow | seta-memória-núcleo | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | seta-vetor | 15.0.0 |
org.apache.avro | Avro | 1.11.3 |
org.apache.avro | AVRO-IPC | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-cripto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.10.0 |
org.apache.curador | curador-cliente | 2.13.0 |
org.apache.curador | Curadoria-quadro | 2.13.0 |
org.apache.curador | receitas do curador | 2.13.0 |
org.apache.datasketches | Datasketches-Java | 3.1.0 |
org.apache.datasketches | datasketches-memória | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | colmeia-abelha | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | API de armazenamento Hive | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | Núcleo HTTP | 4.4.16 |
org.apache.ivy | Hera | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-núcleo | 1.9.2-protobuf sombreado |
org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
org.apache.orc | Shim de orc | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.23 |
org.apache.yetus | notas do público | 0.13.0 |
org.apache.zookeeper | tratador de jardins zoológicos | 3.9.2 |
org.apache.zookeeper | guarda de zoológico-juta | 3.9.2 |
org.checkerframework | verificador de qualidade | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-coleções | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | Jetty-Cliente | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Continuação | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-JNDI | 9.4.52.v20230823 |
org.eclipse.jetty | Cais-Plus | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty Security | 9.4.52.v20230823 |
org.eclipse.jetty | servidor Jetty | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty Webapp | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-XML | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | HK2-API | 2.6.1 |
org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
org.glassfish.hk2 | HK2-Utils | 2.6.1 |
org.glassfish.hk2 | OSGI-Localizador de Recursos | 1.0.3 |
org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-cliente | 2.40 |
org.glassfish.jersey.core | Jersey-Comum | 2.40 |
org.glassfish.jersey.core | jersey-servidor | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | Hibernate-Validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | Javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-converter | 1.7 |
org.jodd | JODD-CORE | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2,12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | PostgreSQL | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | calços | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-sobre-slf4j | 2.0.7 |
org.slf4j | jul-para-slf4j | 2.0.7 |
org.slf4j | SLF4J-API | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | XZ | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | WildFly-OpenSSL | 1.1.3.Final |
org.xerial | SQLITE-JDBC | 3.42.0.0 |
org.xerial.snappy | Snappy-java | 1.1.10.3 |
org.yaml | Snakeyaml | 2.0 |
ouro | ouro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
Stax | Stax-API | 1.0.1 |