Tempo de execução do Databricks 13.1 (EoS)
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 13.1, alimentado pelo Apache Spark 3.4.0.
A Databricks lançou esta versão em maio de 2023.
Novos recursos e melhorias
- Suporte de cluster para JDK 17 (visualização pública)
- Adicionar, alterar ou excluir dados em tabelas de streaming
- Leia Kafka com SQL
- Novas funções internas do SQL
- Suporte do Unity Catalog para bibliotecas Python com escopo de cluster
- Ativação padrão expandida para gravações otimizadas no Unity Catalog
- Suporte avançado para operadores com monitoração de estado em cargas de trabalho de Streaming estruturado
- O clone Delta para o Unity Catalog está em visualização pública
- Suporte Pub/Sub para Streaming Estruturado
- Soltar duplicatas dentro de marcas d'água no Streaming estruturado
- Suporte expandido para conversões Delta de tabelas Iceberg com colunas de partição truncadas
- Alterações de esquema de fluxo com mapeamento de coluna no Delta Lake
- Remover START VERSION
- Novas expressões H3 disponíveis com Python
Suporte de cluster para JDK 17 (visualização pública)
O Databricks agora fornece suporte a cluster para Java Development Kit (JDK) 17. Consulte Databricks SDK para Java.
Adicionar, alterar ou excluir dados em tabelas de streaming
Agora você pode usar instruções DML para modificar tabelas de streaming publicadas no Unity Catalog por pipelines Delta Live Tables. Consulte Adicionar, alterar ou excluir dados em uma tabela de streaming e Adicionar, alterar ou excluir dados em uma tabela de streaming de destino. Você também pode usar instruções DML para modificar tabelas de streaming criadas no Databricks SQL.
Leia Kafka com SQL
Agora você pode usar a read_kafka
função SQL para ler dados Kafka. O streaming com SQL é suportado apenas em Delta Live Tables ou com tabelas de streaming em Databricks SQL. Consulte read_kafka função com valor de tabela.
Novas funções internas do SQL
Foram adicionadas as seguintes funções:
- array_prepend(array, elem) Devoluções
array
precedidas porelem
. - try_aes_decrypt(expr, key [, mode [, padding]]) Descriptografa um binário produzido usando criptografia AES e retorna
NULL
se houver um erro. - sql_keywords() Retorna uma tabela de palavras-chave SQL do Azure Databricks.
Suporte do Unity Catalog para bibliotecas Python com escopo de cluster
O Unity Catalog tem algumas limitações no uso da biblioteca. No Databricks Runtime 13.1 e superior, há suporte para bibliotecas Python com escopo de cluster, incluindo arquivos de roda Python que são carregados como arquivos de espaço de trabalho. Não há suporte para bibliotecas referenciadas usando caminhos de arquivo DBFS, seja na raiz DBFS ou em um local externo montado no DBFS. As bibliotecas não Python não são suportadas. Veja Bibliotecas de cluster.
No Databricks Runtime 13.0 e inferior, não há suporte para bibliotecas com escopo de cluster em clusters que usam o modo de acesso compartilhado em um espaço de trabalho habilitado para Catálogo Unity.
Ativação padrão expandida para gravações otimizadas no Unity Catalog
O suporte de gravação otimizado padrão para tabelas Delta registradas no Unity Catalog foi expandido para incluir CTAS
instruções e INSERT
operações para tabelas particionadas. Esse comportamento se alinha aos padrões em armazéns SQL. Consulte Gravações otimizadas para Delta Lake no Azure Databricks.
Suporte avançado para operadores com monitoração de estado em cargas de trabalho de Streaming estruturado
Agora você pode encadear vários operadores com monitoração de estado, o que significa que você pode alimentar a saída de uma operação, como uma agregação em janela, para outra operação com monitoração de estado, como uma junção. Consulte O que é streaming stateful?.
O clone Delta para o Unity Catalog está em visualização pública
Agora você pode usar o clone superficial para criar novas tabelas gerenciadas do Unity Catalog a partir de tabelas gerenciadas existentes do Unity Catalog. Consulte Clone superficial para tabelas do Catálogo Unity.
Suporte Pub/Sub para Streaming Estruturado
Agora você pode usar um conector integrado para assinar o Google Pub/Sub com o Structured Streaming. Consulte Subscrever o Google Pub/Sub.
Soltar duplicatas dentro de marcas d'água no Streaming estruturado
Agora você pode usar dropDuplicatesWithinWatermark
em combinação com um limite de marca d'água especificado para desduplicar registros no Structured Streaming. Consulte Soltar duplicatas na marca d'água.
Suporte expandido para conversões Delta de tabelas Iceberg com colunas de partição truncadas
Agora você pode usar CLONE
e CONVERT TO DELTA
com tabelas Iceberg que têm partições definidas em colunas truncadas dos tipos int
, long
, e string
. Não há suporte para colunas truncadas do tipo decimal
.
Alterações de esquema de fluxo com mapeamento de coluna no Delta Lake
Agora você pode fornecer um local de rastreamento de esquema para habilitar o streaming de tabelas Delta com o mapeamento de colunas habilitado. Consulte Transmissão em fluxo com mapeamento de colunas e alterações de esquema.
Remover START VERSION
START VERSION
agora foi preterido para ALTER SHARE
.
Novas expressões H3 disponíveis com Python
As h3_coverash3
expressões e h3_coverash3string
estão disponíveis com Python.
Correções de erros
Parquet failOnUnknownFields não solta mais dados silenciosamente em incompatibilidade de tipo
Se um arquivo Parquet foi lido apenas com a opção ou com o failOnUnknownFields
Auto Loader no modo de evolução do esquema, as failOnNewColumns
colunas que têm diferentes tipos de dados agora falham e recomendam o uso do rescuedDataColumn
. O Auto Loader agora lê corretamente e não resgata mais os tipos Integer, Short ou Byte se um desses tipos de dados for fornecido. O arquivo Parquet sugere um dos outros dois tipos.
Alterações interruptivas
Atualize a versão sqlite-jdbc para 3.42.0.0 para abordar CVE-2023-32697
Atualize a versão sqlite-jdbc de 3.8.11.2 para 3.42.0.0. As APIs da versão 3.42.0.0 não são totalmente compatíveis com a versão 3.8.11.2. Se estiver usando sqlite-jdbc em seu código, verifique o relatório de compatibilidade sqlite-jdbc para obter detalhes. Se você migrar para 13.1 e usar sqlite, confirme seus métodos e digite de retorno na versão 3.42.0.0.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- facetas-visão geral de 1.0.2 a 1.0.3
- filelock de 3.10.7 a 3.12.0
- Pyarrow de 7.0.0 a 8.0.0
- tenacidade de 8.0.1 a 8.1.0
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- com.github.ben-manes.caffeine.caffeine de 2.3.4 a 2.9.3
- io.delta.delta-sharing-spark_2.12 de 0.6.8 a 0.6.4
- net.snowflake.snowflake-jdbc de 3.13.29 a 3.13.22
- org.checkerframework.checker-qual de 3.5.0 a 3.19.0
- org.scalactic.scalactic_2.12 de 3.0.8 a 3.2.15
- org.scalatest.scalatest_2.12 de 3.0.8 a 3.2.15
- org.xerial.sqlite-jdbc de 3.8.11.2 a 3.42.0.0
Faísca Apache
O Databricks Runtime 13.1 inclui o Apache Spark 3.4.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 13.0 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [FAÍSCA-42719] [DBRRM-199][SC-131578] Reverter "[SC-125225] 'MapOutputTracker#getMap...
- [FAÍSCA-39696] [DBRRM-166][SC-130056][CORE] Reverter [SC-127830]/
- [FAÍSCA-43331] [SC-130064][CONECTAR] Adicionar Spark Connect SparkSession.interruptAll
- [FAÍSCA-43332] [SC-130051][CONECTAR][PYTHON] Tornar possível estender o ChannelBuilder para SparkConnectClient
- [FAÍSCA-43323] [SC-129966][SQL][PYTHON] Corrigir DataFrame.toPandas com Seta ativada para lidar com exceções corretamente
- [FAÍSCA-42940] [SC-129896][SS][CONECTAR] Melhorar o gerenciamento de sessão para consultas de streaming
- [FAÍSCA-43032] [SC-125756] [CONECTAR][SS] Adicionar gerenciador de consultas de streaming
- [FAÍSCA-16484] [SC-129975][SQL] Adicionar suporte para Datasketches HllSketch
- [FAÍSCA-43260] [SC-129281][PYTHON] Migre os erros de tipo de seta do Spark SQL pandas para a classe de erro.
- [FAÍSCA-41766] [SC-129964][CORE] Lidar com a solicitação de descomissionamento enviada antes do registro do executor
- [FAÍSCA-43307] [SC-129971][PYTHON] Migrar erros de valor PandasUDF para a classe de erro
- [FAÍSCA-43206] [SC-129903] [SS] [CONECTAR] StreamingQuery exception() incluem rastreamento de pilha
- [FAÍSCA-43311] [SC-129905][SS] Adicionar aprimoramentos de gerenciamento de memória do provedor de armazenamento de estado RocksDB
- [FAÍSCA-43237] [SC-129898][CORE] Manipular mensagem de exceção nula no log de eventos
- [FAÍSCA-43320] [SC-129899][SQL][VIH] Ligue diretamente para a API do Hive 2.3.9
- [FAÍSCA-43270] [SC-129897][PYTHON] Implementar
__dir__()
empyspark.sql.dataframe.DataFrame
para incluir colunas - [FAÍSCA-43183] Reverter "[SC-128938][SS] Introduzir um novo retorno de chamada "...
- [FAÍSCA-43143] [SC-129902] [SS] [CONECTAR] Scala StreamingQuery awaitTermination()
- [FAÍSCA-43257] [SC-129675][SQL] Substitua a classe de erro _LEGACY_ERROR_TEMP_2022 por um erro interno
- [FAÍSCA-43198] [SC-129470][CONECTAR] Corrigir "Não foi possível inicializar a classe amonite..." erro ao usar o filtro
- [FAÍSCA-43165] [SC-129777][SQL] Mover canWrite para DataTypeUtils
- [FAÍSCA-43298] [SC-129729][PYTHON][ML] predict_batch_udf com entrada escalar falha com tamanho de lote de um
- [FAÍSCA-43298] [SC-129700]Reverter "[PYTHON][ML] predict_batch_udf com entrada escalar falha com tamanho de lote de um"
- [FAÍSCA-43052] [SC-129663][CORE] Manipular stacktrace com nome de arquivo nulo no log de eventos
- [FAÍSCA-43183] [SC-128938][SS] Introduza um novo retorno de chamada "onQueryIdle" para StreamingQueryListener
- [FAÍSCA-43209] [SC-129190][CONECTAR][PYTHON] Migrar erros de expressão para a classe de erro
- [FAÍSCA-42151] [SC-128754][SQL] Alinhar atribuições UPDATE com atributos de tabela
- [FAÍSCA-43134] [SC-129468] [CONECTAR] [SS] API StreamingQuery exception() do cliente JVM
- [FAÍSCA-43298] [SC-129699][PYTHON][ML] predict_batch_udf com entrada escalar falha com tamanho de lote de um
- [FAÍSCA-43248] [SC-129660][SQL] Serialização/desserialização desnecessária de Path em estatísticas de partição de coleta paralela
- [FAÍSCA-43274] [SC-129464][FAÍSCA-43275][PYTHON][CONECTAR] Apresentar
PySparkNotImplementedError
- [FAÍSCA-43146] [SC-128804][CONECTAR][PYTHON] Implementar uma avaliação ansiosa para repr e repr_html
- [FAÍSCA-42953] [SC-129469][Conectar][Seguimento] Corrigir compilação de teste maven para testes UDF do cliente Scala
- [FAÍSCA-43144] [SC-129280] API da tabela() DataStreamReader do Cliente Scala
- [FAÍSCA-43136] [SC-129358][CONECTAR] Adicionando funções groupByKey + mapGroup + coGroup
- [FAÍSCA-43156] [SC-129672][SC-128532][SQL] Corrigir
COUNT(*) is null
bug na subconsulta escalar correlacionada - [FAÍSCA-43046] [SC-129110] [SS] [Conectar] API Python dropDuplicatesWithinWatermark implementada para Spark Connect
- [FAÍSCA-43199] [SC-129467][SQL] Tornar o InlineCTE idempotente
- [FAÍSCA-43293] [SC-129657][SQL]
__qualified_access_only
deve ser ignorado em colunas normais - [FAÍSCA-43276] [SC-129461][CONECTAR][PYTHON] Migrar erros da janela do Spark Connect para a classe de erro
- [FAÍSCA-43174] [SC-129109][SQL] Corrigir SparkSQLCLIDriver completer
- [FAÍSCA-43084] [SC-128654] [SS] Adicionar suporte applyInPandasWithState para conexão de faísca
- [FAÍSCA-43119] [SC-129040][SQL] Suporte Obter palavras-chave SQL dinamicamente através de API JDBC e TVF
- [FAÍSCA-43082] [SC-129112][CONECTAR][PYTHON] UDFs Python otimizadas para setas no Spark Connect
- [FAÍSCA-43085] [SC-128432][SQL] Coluna de suporte Atribuição PADRÃO para nomes de tabelas com várias partes
- [FAÍSCA-43226] [LC-671] Definir extratores para metadados constantes de arquivo
- [FAÍSCA-43210] [SC-129189][CONECTAR][PYTHON] Apresentar
PySparkAssertionError
- [FAÍSCA-43214] [SC-129199][SQL] Postar métricas do lado do driver para LocalTableScanExec/CommandResultExec
- [FAÍSCA-43285] [SC-129347] Corrigir ReplE2ESuite consistentemente falhando com JDK 17
- [FAÍSCA-43268] [SC-129249][SQL] Use classes de erro adequadas quando exceções são construídas com uma mensagem
- [FAÍSCA-43142] [SC-129299] Corrigir expressões DSL em atributos com caracteres especiais
- [FAÍSCA-43129] [SC-128896] API principal do Scala para streaming do Spark Connect
- [FAÍSCA-43233] [SC-129250] [SS] Adicionar log para Kafka Batch Reading para partição de tópico, intervalo de deslocamento e ID de tarefa
- [FAÍSCA-43249] [SC-129195][CONECTAR] Corrigir estatísticas ausentes para o comando SQL
- [FAÍSCA-42945] [SC-129188][CONECTAR] Suporte PYSPARK_JVM_STACKTRACE_ENABLED no Spark Connect
- [FAÍSCA-43178] [SC-129197][CONECTAR][PYTHON] Migrar erros UDF para a estrutura de erros do PySpark
- [FAÍSCA-43123] [SC-128494][SQL] Os metadados de campo interno não devem ser vazados para catálogos
- [FAÍSCA-43217] [SC-129205] Recursar corretamente em mapas/matrizes aninhados em findNestedField
- [FAÍSCA-43243] [SC-129294][PYTHON][CONECTAR] Adicionar level param a printSchema para Python
- [FAÍSCA-43230] [SC-129191][CONECTAR] Simplifique
DataFrameNaFunctions.fillna
- [FAÍSCA-43088] [SC-128403][SQL] Respeito ExigeDistribuição e Ordenação em CTAS/RTAS
- [FAÍSCA-43234] [SC-129192][CONECTAR][PYTHON] Migrar
ValueError
do Conect DataFrame para a classe de erro - [FAÍSCA-43212] [SC-129187][SS][PYTHON] Migrar erros de Streaming estruturado para a classe de erro
- [FAÍSCA-43239] [SC-129186][PS] Remover
null_counts
de info() - [FAÍSCA-43190] [SC-128930][SQL] ListQuery.childOutput deve ser consistente com a saída filho
- [FAÍSCA-43191] [SC-128924][CORE] Substitua a reflexão por chamada direta para o Hadoop CallerContext
- [FAÍSCA-43193] [SC-129042][SS] Remover solução alternativa para HADOOP-12074
- [FAÍSCA-42657] [SC-128621][CONECTAR] Suporte para localizar e transferir arquivos de classe REPL do lado do cliente para o servidor como artefatos
- [FAÍSCA-43098] [SC-77059][SQL] Corrigir o bug COUNT de correção quando a subconsulta escalar tem grupo por cláusula
- [FAÍSCA-43213] [SC-129062][PYTHON] Adicionar
DataFrame.offset
à baunilha PySpark - [FAÍSCA-42982] [SC-128400][CONECTAR][PYTHON] Corrija createDataFrame para respeitar o esquema ddl dado
- [FAÍSCA-43124] [SC-129011][SQL] Dataset.show projetos CommandResults localmente
- [FAÍSCA-42998] [SC-127422][CONECTAR][PYTHON] Corrigir DataFrame.collect com null struct
- [FAÍSCA-41498] [SC-125343]Reverter "Propagar metadados através da União"
- [FAÍSCA-42960] [SC-129010] [CONECTAR] [SS] Adicionar API await_termination() e exception() para Streaming Query em Python
- [FAÍSCA-42552] [SC-128824][SQL] Corrigir a estratégia de análise de dois estágios do analisador antlr
- [FAÍSCA-43207] [SC-128937][CONECTAR] Adicionar funções auxiliares para extrair valor da expressão literal
- [FAÍSCA-43186] [SC-128841][SQL][VIH] Remover solução alternativa para FileSinkDesc
- [FAÍSCA-43107] [SC-128533][SQL] Coalesce buckets na junção aplicada no lado do fluxo de junção de transmissão
- [FAÍSCA-43195] [SC-128922][CORE] Remover wrapper serializável desnecessário no HadoopFSUtils
- [FAÍSCA-43137] [SC-128828][SQL] Melhore o ArrayInsert se a posição for dobrável e positiva.
- [FAÍSCA-37829] [SC-128827][SQL] Dataframe.joinWith outer-join deve retornar um valor nulo para linha incomparável
- [FAÍSCA-43042] [SC-128602] [SS] [Conectar] Adicionar suporte à API table() para DataStreamReader
- [FAÍSCA-43153] [SC-128753][CONECTAR] Ignorar a execução do Spark quando o dataframe é local
- [FAÍSCA-43064] [SC-128496][SQL] A guia Spark SQL CLI SQL deve mostrar apenas uma instrução uma vez
- [FAÍSCA-43126] [SC-128447][SQL] Marcar duas expressões UDF do Hive como stateful
- [FAÍSCA-43111] [SC-128750][PS][CONECTAR][PYTHON] Mesclar instruções aninhadas
if
em instruções únicasif
- [FAÍSCA-43113] [SC-128749][SQL] Avaliar variáveis do lado do fluxo ao gerar código para uma condição acoplada
- [FAÍSCA-42895] [SC-127258][CONECTAR] Melhorar mensagens de erro para sessões interrompidas do Spark
- [FAÍSCA-42884] [SC-126662][CONECTAR] Adicionar integração Ammonite REPL
- [FAÍSCA-43168] [SC-128674][SQL] Remover o método get PhysicalDataType da classe Datatype
- [FAÍSCA-43121] [SC-128455][SQL] Use
BytesWritable.copyBytes
em vez de cópia manual em 'HiveInspectors - [FAÍSCA-42916] [SC-128389][SQL] JDBCTableCatalog mantém a meta Char/Varchar no lado da leitura
- [FAÍSCA-43050] [SC-128550][SQL] Corrigir expressões agregadas de construção substituindo funções de agrupamento
- [FAÍSCA-43095] [SC-128549][SQL] Evite Uma vez que a idempotência da estratégia é quebrada para o lote:
Infer Filters
- [FAÍSCA-43130] [SC-128597][SQL] Mover InternalType para PhysicalDataType
- [FAÍSCA-43105] [SC-128456][CONECTAR] Abreviar bytes e cadeias de caracteres na mensagem proto
- [FAÍSCA-43099] [SC-128596][SQL] Use
getName
em vez de obter o nome dagetCanonicalName
classe builder ao registrar udf para FunctionRegistry - [FAÍSCA-42994] [SC-128586][ML][CONECTAR] Suporte ao Distribuidor PyTorch Modo Local
- [FAÍSCA-42859] Reverter "[SC-127935][CONNECT][PS] Suporte básico para pandas API no Spark Connect"
- [FAÍSCA-43021] [SC-128472][SQL]
CoalesceBucketsInJoin
não funciona quando se utiliza o AQE - [FAÍSCA-43125] [SC-128477][CONECTAR] Fix Connect Server não pode lidar com exceção com mensagem nula
- [FAÍSCA-43147] [SC-128594] fixar fiapos flake8 para verificação local
- [FAÍSCA-43031] [SC-128360] [SS] [Conectar] Habilite o teste de unidade e o doctest para streaming
- [FAÍSCA-43039] [LC-67] Suporte a campos personalizados na coluna _metadata de origem do arquivo.
- [FAÍSCA-43120] [SC-128407][SS] Adicione suporte para rastrear o uso de memória de blocos fixos para armazenamento de estado RocksDB
- [FAÍSCA-43110] [SC-128381][SQL] Mover asIntegral para PhysicalDataType
- [FAÍSCA-43118] [SC-128398][SS] Remover asserção desnecessária para UninterruptibleThread no KafkaMicroBatchStream
- [FAÍSCA-43055] [SC-128331][CONECTAR][PYTHON] Suporte a nomes de campos aninhados duplicados
- [FAÍSCA-42437] [SC-128339][PYTHON][CONECTAR] PySpark catalog.cacheTable permitirá especificar o nível de armazenamento
- [FAÍSCA-42985] [SC-128332][CONECTAR][PYTHON] Corrija createDataFrame para respeitar as configurações SQL
- [FAÍSCA-39696] [SC-127830][CORE] Corrija a corrida de dados no acesso a TaskMetrics.externalAccums
- [FAÍSCA-43103] [SC-128335][SQL] Movendo integral para PhysicalDataType
- [FAÍSCA-42741] [SC-125547][SQL] Não desembrulhe moldes na comparação binária quando literal é nulo
- [FAÍSCA-43057] [SC-127948][CONECTAR][PYTHON] Migrar erros de coluna do Spark Connect para a classe de erro
- [FAÍSCA-42859] [SC-127935][CONECTAR][PS] Suporte básico para pandas API no Spark Connect
- [FAÍSCA-43013] [SC-127773][PYTHON] Migrar
ValueError
do DataFrame para oPySparkValueError
. - [FAÍSCA-43089] [SC-128051][CONECTAR] Seqüência de depuração do Redact na interface do usuário
- [FAÍSCA-43028] [SC-128070][SQL] Adicionar classe de erro SQL_CONF_NOT_FOUND
- [FAÍSCA-42999] [SC-127842][Conectar] Dataset#foreach, foreachPartition
- [FAÍSCA-43066] [SC-127937][SQL] Adicionar teste para dropDuplicates em JavaDatasetSuite
- [FAÍSCA-43075] [SC-127939][CONECTAR] Mude
gRPC
paragrpcio
quando não estiver instalado. - [FAÍSCA-42953] [SC-127809][Conectar] Filtro digitado, mapa, flatMap, mapPartitions
- [FAÍSCA-42597] [SC-125506][SQL] Suporte a desempacotar tipo de data para tipo de carimbo de data/hora
- [FAÍSCA-42931] [SC-127933][SS] Introduzir dropDuplicatesWithinWatermark
- [FAÍSCA-43073] [SC-127943][CONECTAR] Adicionar constantes de tipos de dados proto
- [FAÍSCA-43077] [SC-128050][SQL] Melhorar a mensagem de erro do UNRECOGNIZED_SQL_TYPE
- [FAÍSCA-42951] [SC-128030][SS][Conectar] DataStreamReader APIs
- [FAÍSCA-43049] [SC-127846][SQL] Use CLOB em vez de VARCHAR(255) para StringType for Oracle JDBC
- [FAÍSCA-43018] [SC-127762][SQL] Corrigir bug para comandos INSERT com literais de carimbo de data/hora
- [FAÍSCA-42855] [SC-127722][SQL] Usar verificações nulas de tempo de execução em TableOutputResolver
- [FAÍSCA-43030] [SC-127847][SQL] Eliminar a duplicação de relações com colunas de metadados
- [FAÍSCA-42993] [SC-127829][ML][CONECTAR] Tornar o PyTorch Distributor compatível com o Spark Connect
- [FAÍSCA-43058] [SC-128072][SQL] Mover numérico e fracionário para PhysicalDataType
- [FAÍSCA-43056] [SC-127946][SS] A confirmação do armazenamento de estado do RocksDB deve continuar o trabalho em segundo plano somente se for pausada
- [FAÍSCA-43059] [SC-127947][CONECTAR][PYTHON] Migrar TypeError de DataFrame(Reader|Writer) em classe de erro
- [FAÍSCA-43071] [SC-128018][SQL] Suporte SELECT DEFAULT com ORDER BY, LIMIT, OFFSET para INSERT source relation
- [FAÍSCA-43061] [SC-127956][CORE][SQL] Introduzir o PartitionEvaluator para a execução do operador SQL
- [FAÍSCA-43067] [SC-127938][SS] Corrigir o local do arquivo de recurso de classe de erro no conector Kafka
- [FAÍSCA-43019] [SC-127844][SQL] Mover pedidos para PhysicalDataType
- [FAÍSCA-43010] [SC-127759][PYTHON] Migrar erros de coluna para a classe de erro
- [FAÍSCA-42840] [SC-127782][SQL] Alterar
_LEGACY_ERROR_TEMP_2004
erro para erro interno - [FAÍSCA-43041] [SC-127765][SQL] Restaurar construtores de exceções para compatibilidade na API do conector
- [FAÍSCA-42939] [SC-127761][SS][CONECTAR] Core streaming Python API para Spark Connect
- [FAÍSCA-42844] [SC-127766][SQL] Atualize a classe
_LEGACY_ERROR_TEMP_2008
de erro paraINVALID_URL
- [FAÍSCA-42316] [SC-127720][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_2044
- [FAÍSCA-42995] [SC-127723][CONECTAR][PYTHON] Migrar erros do Spark Connect DataFrame para a classe de erro
- [FAÍSCA-42983] [SC-127717][CONECTAR][PYTHON] Corrija createDataFrame para manipular a matriz numpy 0-dim corretamente
- [FAÍSCA-42955] [SC-127476][SQL] Ignorar classifyException e encapsular AnalysisException para SparkThrowable
- [FAÍSCA-42949] [SC-127255][SQL] Simplifique o código para NAAJ
- [FAÍSCA-43011] [SC-127577][SQL]
array_insert
deve falhar com índice 0 - [FAÍSCA-42974] [SC-127487][CORE] Restaure
Utils.createTempDir
para usar oShutdownHookManager
método e limpeJavaUtils.createTempDir
. - [FAÍSCA-42964] [SC-127585][SQL] PosgresDialect '42P07' também significa que a tabela já existe
- [FAÍSCA-42978] [SC-127351][SQL] Derby&PG: RENAME não pode qualificar um new-table-Name com um schema-Name
- [FAÍSCA-37980] [SC-127668][SQL] Acesso row_index via _metadata se possível em testes
- [FAÍSCA-42655] [SC-127591][SQL] Erro de referência de coluna ambíguo incorreto
- [FAÍSCA-43009] [SC-127596][SQL] Parametrizado
sql()
comAny
constantes - [FAÍSCA-43026] [SC-127590][SQL] Aplicar AQE com cache de tabela que não seja do Exchange
- [FAÍSCA-42963] [SC-127576][SQL] Estenda SparkSessionExtensions para injetar regras no otimizador de estágio de consulta AQE
- [FAÍSCA-42918] [SC-127357] Generalizar a manipulação de atributos de metadados no FileSourceStrategy
- [FAÍSCA-42806] [SC-127452][FAÍSCA-42811][CONECTAR] Adicionar
Catalog
suporte - [FAÍSCA-42997] [SC-127535][SQL] TableOutputResolver deve usar caminhos de coluna corretos em mensagens de erro para matrizes e mapas
- [FAÍSCA-43006] [SC-127486][PYSPARK] Corrigir erro de digitação no StorageLevel eq()
- [FAÍSCA-43005] [SC-127485][PYSPARK] Corrigir erro de digitação em pyspark/pandas/config.py
- [FAÍSCA-43004] [SC-127457][CORE] Corrigir erro de digitação em ResourceRequest.equals()
- [FAÍSCA-42907] [SC-126984][CONECTAR][PYTHON] Implementar funções Avro
- [FAÍSCA-42979] [SC-127272][SQL] Definir construtores literais como palavras-chave
- [FAÍSCA-42946] [SC-127252][SQL] Redigir dados confidenciais aninhados por substituição de variáveis
- [FAÍSCA-42952] [SC-127260][SQL] Simplifique o parâmetro da regra do analisador PreprocessTableCreation e DataSourceAnalysis
- [FAÍSCA-42683] [LC-75] Renomear automaticamente colunas de metadados conflitantes
- [FAÍSCA-42853] [SC-126101][Seguimento] Corrigir conflitos
- [FAÍSCA-42929] [SC-126748][CONNECT] fazer mapInPandas / mapInArrow suporte "is_barrier"
- [FAÍSCA-42968] [SC-127271][SS] Adicionar opção para ignorar o coordenador de confirmação como parte da API StreamingWrite para fontes/coletores DSv2
- [FAÍSCA-42954] [SC-127261][PYTHON][CONECTAR] Adicionar
YearMonthIntervalType
ao PySpark e Spark Connect Python Client - [FAÍSCA-41359] [SC-127256][SQL] Use
PhysicalDataType
em vez de DataType em UnsafeRow - [FAÍSCA-42873] [SC-127262][SQL] Definir tipos Spark SQL como palavras-chave
- [FAÍSCA-42808] [SC-126302][CORE] Evite ficar disponívelProcessadores sempre que entrar
MapOutputTrackerMaster#getStatistics
- [FAÍSCA-42937] [SC-126880][SQL]
PlanSubqueries
deve ser definidoInSubqueryExec#shouldBroadcast
como true - [FAÍSCA-42896] [SC-126729][SQL][PYTHON] Faça
mapInPandas
/mapInArrow
a execução do modo de barreira de suporte - [FAÍSCA-42874] [SC-126442][SQL] Habilite a nova estrutura de teste de arquivo dourado para análise de todos os arquivos de entrada
- [FAÍSCA-42922] [SC-126850][SQL] Mover de Random para SecureRandom
- [FAÍSCA-42753] [SC-126369] ReusedExchange refere-se a nós inexistentes
- [FAÍSCA-40822] [SC-126274][SQL] Aliases de coluna derivados estáveis
- [FAÍSCA-42908] [SC-126856][PYTHON] Raise RuntimeError quando SparkContext é necessário, mas não inicializado
- [FAÍSCA-42779] [SC-126042][SQL] Permitir gravações V2 para indicar o tamanho da partição de shuffle consultivo
- [FAÍSCA-42914] [SC-126727][PYTHON] Reutilização
transformUnregisteredFunction
paraDistributedSequenceID
. - [FAÍSCA-42878] [SC-126882][CONECTAR] A API de tabela em DataFrameReader também pode aceitar opções
- [FAÍSCA-42927] [SC-126883][CORE] Altere o escopo de
o.a.spark.util.Iterators#size
acesso de paraprivate[util]
- [FAÍSCA-42943] [SC-126879][SQL] Use LONGTEXT em vez de TEXT para StringType para comprimento efetivo
- [FAÍSCA-37677] [SC-126855][CORE] Descompactar pode manter permissões de arquivo
- [FAÍSCA-42891] [13.x][SC-126458][CONECTAR][PYTHON] Implementar API de Mapa Coagrupado
- [FAÍSCA-41876] [SC-126849][CONECTAR][PYTHON] Implementar DataFrame.toLocalIterator
- [FAÍSCA-42930] [SC-126761][CORE][SQL] Altere o escopo de acesso de
ProtobufSerDe
implementações relacionadas paraprivate[protobuf]
- [FAÍSCA-42819] [SC-125879][SS] Adicione suporte para definir max_write_buffer_number e write_buffer_size para RocksDB usados em streaming
- [FAÍSCA-42924] [SC-126737][SQL][CONECTAR][PYTHON] Esclarecer o comentário de args SQL parametrizados
- [FAÍSCA-42748] [SC-126455][CONECTAR] Gerenciamento de artefatos do lado do servidor
- [FAÍSCA-42816] [SC-126365][CONECTAR] Suporte Max Tamanho da mensagem de até 128MB
- [FAÍSCA-42850] [SC-126109][SQL] Remover regra duplicada CombineFilters no Optimizer
- [FAÍSCA-42662] [SC-126355][CONECTAR][PS] Adicionar mensagem proto para a API pandas no índice padrão do Spark
- [FAÍSCA-42720] [SC-126136][PS][SQL] Usa expressão para índice padrão de sequência distribuída em vez de plano
- [FAÍSCA-42790] [SC-126174][SQL] Abstraia o método excluído para um melhor teste para testes JDBC docker.
- [FAÍSCA-42900] [SC-126473][CONECTAR][PYTHON] Corrija createDataFrame para respeitar a inferência e os nomes das colunas
- [FAÍSCA-42917] [SC-126657][SQL] Corrigir getUpdateColumnNullabilityQuery para DerbyDialect
- [FAÍSCA-42684] [SC-125157]O catálogo [SQL] v2 não deve permitir o valor padrão da coluna por padrão
- [FAÍSCA-42861] [SC-126635][SQL] Use private[sql] em vez de protected[sql] para evitar a geração de documentos de API
- [FAÍSCA-42920] [SC-126728][CONECTAR][PYTHON] Habilitar testes para UDF com UDT
- [FAÍSCA-42791] [SC-126617][SQL] Crie uma nova estrutura de teste de arquivo dourado para análise
- [FAÍSCA-42911] [SC-126652][PYTHON] Introduzir exceções mais básicas
- [FAÍSCA-42904] [SC-126634][SQL] Suporte a Char/Varchar para catálogo JDBC
- [FAÍSCA-42901] [SC-126459][CONECTAR][PYTHON] Mover
StorageLevel
para um arquivo separado para evitar possíveisfile recursively imports
- [FAÍSCA-42894] [SC-126451][CONECTAR] Suporte
cache
unpersist
storageLevel
/persist
//para o cliente jvm Spark connect - [FAÍSCA-42792] [SC-125852][SS] Adicione suporte para WRITE_FLUSH_BYTES para RocksDB usados em operadores stateful de streaming
- [FAÍSCA-41233] [SC-126441][CONECTAR][PYTHON] Adicionar array_prepend ao cliente Python do Spark Connect
- [FAÍSCA-42681] [SC-125149][SQL] Relaxe a restrição de pedidos para ALTER TABLE ADD|SUBSTITUIR descritor de coluna
- [FAÍSCA-42889] [SC-126367][CONECTAR][PYTHON] Implementar cache, persistir, não persistir e nível de armazenamento
- [FAÍSCA-42824] [SC-125985][CONECTAR][PYTHON] Fornecer uma mensagem de erro clara para atributos JVM não suportados
- [FAÍSCA-42340] [SC-126131][CONECTAR][PYTHON] Implementar API de Mapa Agrupado
- [FAÍSCA-42892] [SC-126454][SQL] Mover sameType e métodos relevantes para fora de DataType
- [FAÍSCA-42827] [SC-126126][CONECTAR] Suporte
functions#array_prepend
para o cliente Scala connect - [FAÍSCA-42823] [SC-125987][SQL]
spark-sql
O shell suporta namespaces de várias partes para inicialização - [FAÍSCA-42817] [SC-125960][CORE] Registrando o nome do serviço aleatório uma vez no ApplicationMaster
- [FAÍSCA-42786] [SC-126438][Conectar] Seleção digitada
- [FAÍSCA-42800] [SC-125868][CONECTAR][PYTHON][ML] Implementar a função ml
{array_to_vector, vector_to_array}
- [FAÍSCA-42052] [SC-126439][SQL] Suporte Codegen para HiveSimpleUDF
- [FAÍSCA-41233] [SC-126110][SQL][PYTHON] Adicionar
array_prepend
função - [FAÍSCA-42864] [SC-126268][ML][3.4] Tornar
IsotonicRegression.PointsAccumulator
privado - [FAÍSCA-42876] [SC-126281][SQL] O physicalDataType do DataType deve ser private[sql]
- [FAÍSCA-42101] [SC-125437][SQL] Tornar o suporte AQE InMemoryTableScanExec
- [FAÍSCA-41290] [SC-124030][SQL] Suporte a expressões GENERATED ALWAYS AS para colunas em instruções create/replace table
- [FAÍSCA-42870] [SC-126220][CONECTAR] Mover
toCatalystValue
paraconnect-common
- [FAÍSCA-42247] [SC-126107][CONECTAR][PYTHON] Corrija UserDefinedFunction para ter returnType
- [FAÍSCA-42875] [SC-126258][CONECTAR][PYTHON] Corrigir toPandas para lidar com os tipos de fuso horário e mapa corretamente
- [FAÍSCA-42757] [SC-125626][CONECTAR] Implementar textFile para DataFrameReader
- [FAÍSCA-42803] [SC-126081][CORE][SQL][ML] Use a função getParameterCount em vez de getParameterTypes.length
- [FAÍSCA-42833] [SC-126043][SQL] Refatorar
applyExtensions
emSparkSession
- [FAÍSCA-41765] Reverter "[SC-123550][SQL] Extrair métricas de gravação v1...
- [FAÍSCA-42848] [SC-126105][CONECTAR][PYTHON] Implementar DataFrame.registerTempTable
- [FAÍSCA-42020] [SC-126103][CONECTAR][PYTHON] Suporte UserDefinedType no Spark Connect
- [FAÍSCA-42818] [SC-125861][CONECTAR][PYTHON] Implementar DataFrameReader/Writer.jdbc
- [FAÍSCA-42812] [SC-125867][CONECTAR] Adicionar client_type a AddArtifactsRequest protobuf message
- [FAÍSCA-42772] [SC-125860][SQL] Altere o valor padrão das opções JDBC sobre push down para true
- [FAÍSCA-42771] [SC-125855][SQL] refatorar HiveGenericUDF
- [FAÍSCA-25050] [SC-123839][SQL] Avro: escrevendo uniões complexas
- [FAÍSCA-42765] [SC-125850][CONECTAR][PYTHON] Habilitar importação
pandas_udf
depyspark.sql.connect.functions
- [FAÍSCA-42719] [SC-125225][CORE]
MapOutputTracker#getMapLocation
deve respeitarspark.shuffle.reduceLocality.enabled
- [FAÍSCA-42480] [SC-125173][SQL] Melhorar o desempenho de partições de queda
- [FAÍSCA-42689] [SC-125195][CORE][BARALHAR] Permitir que ShuffleDriverComponent declare se os dados aleatórios são armazenados de forma confiável
- [FAÍSCA-42726] [SC-125279][CONECTAR][PYTHON] Implementar
DataFrame.mapInArrow
- [FAÍSCA-41765] [SC-123550][SQL] Extraia métricas de gravação v1 para WriteFiles
- [FAÍSCA-41171] [SC-124191][SQL] Inferir e empurrar para baixo o limite da janela através da janela se partitionSpec estiver vazio
- [FAÍSCA-42686] [SC-125292][CORE] Adiar formatação para mensagens de depuração no TaskMemoryManager
- [FAÍSCA-42756] [SC-125443][CONECTAR][PYTHON] Função auxiliar para converter proto literal em valor no Python Client
- [FAÍSCA-42793] [SC-125627][CONECTAR]
connect
módulo requerbuild_profile_flags
- [FAÍSCA-42701] [SC-125192][SQL] Adicionar a
try_aes_decrypt()
função - [FAÍSCA-42679] [SC-125438][CONECTAR][PYTHON] createDataFrame não funciona com esquema não anulável
- [FAÍSCA-42733] [SC-125542][CONECTAR][Seguimento] Escrever sem caminho ou tabela
- [FAÍSCA-42777] [SC-125525][SQL] Suporte a conversão de estatísticas de catálogo TimestampNTZ para estatísticas de planejamento
- [FAÍSCA-42770] [SC-125558][CONECTAR] Adicionar
truncatedTo(ChronoUnit.MICROS)
para fazerSQLImplicitsTestSuite
em Java 17 teste diário GA task pass - [FAÍSCA-42752] [SC-125550][PYSPARK][SQL] Torne as exceções do PySpark imprimíveis durante a inicialização
- [FAÍSCA-42732] [SC-125544][PYSPARK][CONECTAR] Suporte spark connect session getActiveSession método
- [FAÍSCA-42755] [SC-125442][CONECTAR] Fator de conversão de valor literal para fora para
connect-common
- [FAÍSCA-42747] [SC-125399][ML] Corrigir status interno incorreto de LoR e AFT
- [FAÍSCA-42740] [SC-125439][SQL] Corrija o bug de que o deslocamento pushdown ou a paginação são inválidos para algum dialeto interno
- [FAÍSCA-42745] [SC-125332][SQL] AliasAwareOutputExpression melhorado funciona com DSv2
- [FAÍSCA-42743] [SC-125330][SQL] Suporte analisar colunas TimestampNTZ
- [FAÍSCA-42721] [SC-125371][CONECTAR] Intercetador de log RPC
- [FAÍSCA-42691] [SC-125397][CONECTAR][PYTHON] Implementar Dataset.semanticHash
- [FAÍSCA-42688] [SC-124922][CONECTAR] Renomear client_id de solicitação do Connect proto para session_id
- [FAÍSCA-42310] [SC-122792][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1289
- [FAÍSCA-42685] [SC-125339][CORE] Otimizar rotinas Utils.bytesToString
- [FAÍSCA-42725] [SC-125296][CONECTAR][PYTHON] Fazer com que LiteralExpression suporte parâmetros de matriz
- [FAÍSCA-42702] [SC-125293][FAÍSCA-42623][SQL] Suporte a consulta parametrizada em subconsulta e CTE
- [FAÍSCA-42697] [SC-125189][WEBUI] Corrija /api/v1/applications para retornar o tempo de atividade total em vez de 0 para o campo de duração
- [FAÍSCA-42733] [SC-125278][CONECTAR][PYTHON] Corrigir DataFrameWriter.save para trabalhar sem parâmetro path
- [FAÍSCA-42376] [SC-124928][SS] Introduzir a propagação de marcas d'água entre os operadores
- [FAÍSCA-42710] [SC-125205][CONECTAR][PYTHON] Renomeie FrameMap proto para MapPartitions
- [FAÍSCA-37099] [SC-123542][SQL] Introduza o limite de grupo de Janela para filtro baseado em classificação para otimizar a computação top-k
- [FAÍSCA-42630] [SC-125207][CONECTAR][PYTHON] Introduza UnparsedDataType e atrase a análise da cadeia de caracteres DDL até que o SparkConnectClient esteja disponível
- [FAÍSCA-42690] [SC-125193][CONECTAR] Implementar funções de análise CSV/JSON para o cliente Scala
- [FAÍSCA-42709] [SC-125172][PYTHON] Remover a suposição de
__file__
estar disponível - [FAÍSCA-42318] [SC-122648][FAÍSCA-42319][SQL] Atribuir nome a LEGACY_ERROR_TEMP(2123|2125)
- [FAÍSCA-42723] [SC-125183][SQL] Suporte ao tipo de dados do analisador json "timestamp_ltz" como TimestampType
- [FAÍSCA-42722] [SC-125175][CONECTAR][PYTHON] Python Connect def schema() não deve armazenar em cache o esquema
- [FAÍSCA-42643] [SC-125152][CONECTAR][PYTHON] Registrar funções Java (agregadas) definidas pelo usuário
- [FAÍSCA-42656] [SC-125177][CONECTAR][Seguimento] Corrigir o script spark-connect
- [FAÍSCA-41516] [SC-123899] [SQL] Permitir que dialetos jdbc substituam a consulta usada para criar uma tabela
- [FAÍSCA-41725] [SC-124396][CONECTAR] Execução ansiosa de DF.sql()
- [FAÍSCA-42687] [SC-124896][SS] Melhor mensagem de erro para a operação sem suporte
pivot
no Streaming - [FAÍSCA-42676] [SC-124809][SS] Gravar pontos de verificação temporários para transmitir consultas para o sistema de arquivos local, mesmo que o FS padrão seja definido de forma diferente
- [FAÍSCA-42303] [SC-122644][SQL] Atribuir nome a _LEGACY_ERROR_TEMP_1326
- [FAÍSCA-42553] [SC-124560][SQL] Assegure-se de pelo menos uma unidade de tempo após o "intervalo"
- [FAÍSCA-42649] [SC-124576][CORE] Remova o cabeçalho da Licença Apache padrão da parte superior dos arquivos de origem de terceiros
- [FAÍSCA-42611] [SC-124395][SQL] Inserir verificações de comprimento char/varchar para campos internos durante a resolução
- [FAÍSCA-42419] [SC-124019][CONECTAR][PYTHON] Migre para a estrutura de erro para a API de coluna do Spark Connect.
- [FAÍSCA-42637] [SC-124522][CONECTAR] Adicionar SparkSession.stop()
- [FAÍSCA-42647] [SC-124647][PYTHON] Alterar o alias para tipos preteridos e removidos do numpy
- [FAÍSCA-42616] [SC-124389][SQL] SparkSQLCLIDriver só deve fechar iniciado hive sessionState
- [FAÍSCA-42593] [SC-124405][PS] Deprecate & remove as APIs que serão removidas no pandas 2.0.
- [FAÍSCA-41870] [SC-124402][CONECTAR][PYTHON] Corrigir createDataFrame para lidar com nomes de colunas duplicados
- [FAÍSCA-42569] [SC-124379][CONECTAR] Lançar exceções para API de sessão sem suporte
- [FAÍSCA-42631] [SC-124526][CONECTAR] Suporte a extensões personalizadas no cliente Scala
- [FAÍSCA-41868] [SC-124387][CONECTAR][PYTHON] Corrigir createDataFrame para suportar durações
- [FAÍSCA-42572] [SC-124171][SQL][SS] Corrigir comportamento para StateStoreProvider.validateStateRowFormat
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 13.1.
Ambiente do sistema
- Sistema Operacional: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Escala: 2.12.15
- Píton: 3.10.12
- R: 4.2.2
- Lago Delta: 2.4.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
Appdirs | 1.4.4 | Argônio2-CFFI | 21.3.0 | argon2-cffi-ligações | 21.2.0 |
AstTokens | 2.2.1 | ATRs | 21.4.0 | Backcall | 0.2.0 |
sopa bonita4 | 4.11.1 | preto | 22.6.0 | lixívia | 4.1.0 |
pisca-pisca | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
Normalizador de Charset | 2.0.4 | clicar | 8.0.4 | criptografia | 37.0.1 |
cycler | 0.11.0 | Quisto | 0.29.32 | dbus-python | 1.2.18 |
depuração | 1.5.1 | decorador | 5.1.1 | DeUsedXML | 0.7.1 |
Distlib | 0.3.6 | docstring-para-markdown | 0,12 | pontos de entrada | 0.4 |
execução | 1.2.0 | facetas-visão geral | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | Fonttools | 4.25.0 | googleapis-comuns-protos | 1.56.4 |
Grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadados | 4.6.4 | Ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | Joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-cliente | 7.3.4 | jupyter_core | 4.11.2 | Jupyterlab-Pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | porta-chaves | 23.5.0 | Kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-em linha | 0.1.6 |
Mccabe | 0.7.0 | Mistune | 0.8.4 | mais-itertools | 8.10.0 |
mypy-extensões | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | Ninho-Asyncio | 1.5.5 | nodeenv | 1.7.0 |
bloco de notas | 6.4.12 | numpy | 1.21.5 | OAuthlib | 3.2.0 |
embalagem | 21,3 | pandas | 1.4.4 | PandocFilters | 1.5.0 |
Parso | 0.8.3 | PathSpec | 0.9.0 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Travesseiro | 9.2.0 |
pip | 22.2.2 | plataformadirs | 2.5.2 | enredo | 5.9.0 |
pluggy | 1.0.0 | Prometheus-cliente | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | PSUTIL | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | puro-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | Pidântico | 1.10.6 | Pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
Pyodbc | 4.0.32 | pyparsing | 3.0.9 | Pyright | 1.1.294 |
pirsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-servidor | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
Pyzmq | 23.2.0 | pedidos | 2.28.1 | corda | 1.7.0 |
s3transferir | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | Armazenamento Secreto | 3.3.1 | Enviar2Lixo | 1.8.0 |
setuptools | 63.4.1 | seis | 1.16.0 | Soupsieve | 2.3.1 |
ssh-import-id | 5.11 | dados de pilha | 0.6.2 | statsmodels | 0.13.2 |
tenacidade | 8.1.0 | terminado | 0.13.1 | caminho de teste | 0.6.0 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.1 | traços | 5.1.1 | typing_extensions | 4.3.0 |
Ujson | 5.4.0 | Upgrades autônomos | 0.1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | largura de wc | 0.2.5 |
WebEncodings | 0.5.1 | whatthepatch | 1.0.2 | roda | 0.37.1 |
widgetsnbextension | 3.6.1 | Yapf | 0.31.0 | zipp | | 1.0.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2023-02-10.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 10.0.1 | AskPass | 1.1 | asserçãoat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
arranque | 1.3-28 | brew | 1.0-8 | Brio | 1.1.3 |
vassoura | 1.0.3 | BSLIB | 0.4.2 | cachem | 1.0.6 |
Chamador | 3.7.3 | acento circunflexo | 6.0-93 | Cellranger | 1.1.0 |
crono | 2.3-59 | classe | 7.3-21 | cli | 3.6.0 |
Clipr | 0.8.0 | relógio | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | espaço em cores | 2.1-0 | marca comum | 1.8.1 |
compilador | 4.2.2 | configuração | 0.3.1 | CPP11 | 0.4.3 |
lápis de cor | 1.5.2 | credenciais | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | conjuntos de dados | 4.2.2 | DBI | 1.1.3 |
DBPlyr | 2.3.0 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | resumo | 0.6.31 | Iluminação reduzida | 0.4.2 |
dplyr | 1.1.0 | DTPlyr | 1.2.2 | E1071 | 1.7-13 |
reticências | 0.3.2 | evaluate | 0.20 | Fãsi | 1.0.4 |
Farver | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
FORCATS | 1.0.0 | foreach | 1.5.2 | externa | 0.8-82 |
forjar | 0.2.0 | FS | 1.6.1 | Futuro | 1.31.0 |
future.apply | 1.10.0 | gargarejo | 1.3.0 | Genéricos | 0.1.3 |
Gert | 1.9.2 | ggplot2 | 3.4.0 | GH | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | Globais | 0.16.2 |
colar | 1.6.2 | GoogleDrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.1 | gráficos | 4.2.2 | grDevices | 4.2.2 |
grelha | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | capacete | 1.2.0 | Refúgio | 2.5.1 |
mais alto | 0.10 | HMS | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
IDs | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
Isoband | 0.2.7 | iteradores | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | Knitr | 1.42 |
etiquetagem | 0.4.2 | mais tarde | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.1 | ciclo de vida | 1.0.3 | ouvirv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | Marcação | 1.5 |
MASSA | 7.3-58.2 | Matriz | 1.5-1 | memoise | 2.0.1 |
métodos | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modelador | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | paralelo | 4.2.2 |
Paralelamente | 1.34.0 | pilar | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | elogiar | 1.0.0 |
unidades bonitas | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | Profvis | 0.3.7 | Progresso | 1.2.2 |
progressor | 0.13.0 | promessas | 1.2.0.1 | proto | 1.0.0 |
procuração | 0.4-27 | PS | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | RAGG | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
Leitor | 2.1.3 | ReadXL | 1.4.2 | receitas | 1.0.4 |
revanche | 1.0.1 | revanche2 | 2.1.2 | Controles remotos | 2.4.2 |
Reprex | 2.0.2 | remodelar2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | rversões | 2.1.2 |
Rvest | 1.0.3 | Sass | 0.4.5 | escalas | 1.2.1 |
seletor | 0.4-2 | sessioninfo | 1.2.2 | forma | 1.4.6 |
brilhante | 1.7.4 | ferramentas de origem | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | espacial | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | QUADRADO | 2021.1 | estatísticas | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
sobrevivência | 3.5-3 | sys | 3.4.1 | fontes do sistema | 1.0.4 |
tcltk | 4.2.2 | testeatat | 3.1.6 | formatação de texto | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
Tidyverse | 1.3.2 | mudança de hora | 0.2.0 | timeDate | 4022.108 |
Tinytex | 0.44 | ferramentas | 4.2.2 | TZDB | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.3 |
utilitários | 4.2.2 | uuid | 1.1-0 | VCTRS | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | Waldo | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | transmissão em fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | sombreado de kryo | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotações | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.14.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-Nativos |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
com.github.luben | ZSTD-JNI | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | Tink | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | criador de perfil | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | JAXB-CORE | 2.2.11 |
com.sun.xml.bind | JAXB-IMPL | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | Lapack | | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.ponte aérea | compressor de ar | 0.21 |
IO.Delta | delta-compartilhamento-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | métricas-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-meias | 4.1.87.Final |
io.netty | netty-comum | 4.1.87.Final |
io.netty | netty-manipulador | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | transporte de rede | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-nativo-unix-comum | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recoletor | 0.12.0 |
jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
jacarta.servlet | jacarta.servlet-api | 4.0.3 |
jacarta.validação | Jacarta.validation-api | 2.0.2 |
jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
javax.activation | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | picles | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
net.floco de neve | Flocos de Neve-JDBC | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | formato de seta | 11.0.0 |
org.apache.arrow | seta-memória-núcleo | 11.0.0 |
org.apache.arrow | seta-memória-netty | 11.0.0 |
org.apache.arrow | vetor de seta | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapeado | 1.11.1 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.10.0 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | curador-framework | 2.13.0 |
org.apache.curator | curador-receitas | 2.13.0 |
org.apache.datasketches | Datasketches-Java | 3.1.0 |
org.apache.datasketches | datasketches-memória | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-cliente | 2.3.9 |
org.apache.hive | colmeia-lamp-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | hera | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-protobuf sombreado |
org.apache.orc | orc-núcleo | 1.8.3-protobuf sombreado |
org.apache.orc | orc-mapreduce | 1.8.3-protobuf sombreado |
org.apache.orc | Orc-calços | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.22 |
org.apache.yetus | anotações de audiência | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-juta | 3.6.3 |
org.checkerframework | verificador-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | cais-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | servidor de jersey | 2.36 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | LZ4-Java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | MLFLOW-Faísca | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | calços | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
org.scala-lang | Escala-library_2.12 | 2.12.15 |
org.scala-lang | Escala-reflect_2,12 | 2.12.15 |
org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | Brisa-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | trêsdez-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | gatos-kernel_2.12 | 2.1.1 |
org.typelevel | torre-macros_2.12 | 0.17.0 |
org.typelevel | torre-platform_2.12 | 0.17.0 |
org.typelevel | torre-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | mosca-selvagem-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |