Databricks Runtime 7.5 (EoS)
Nota:
El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.
Databricks publicó esta versión en diciembre de 2020.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 7.5, con tecnología Apache Spark 3.0.
Nuevas características
Característica y mejoras de Delta Lake
En esta versión se proporcionan las siguientes características y mejoras de Delta Lake:
- Los puntos de comprobación asincrónicos eliminan los picos de duración de microlotes de streaming
- La información de tabla más reciente ahora se propaga a los catálogos
MERGE INTO
La operación ahora admite la evolución del esquema de las columnas anidadasMERGE INTO
La operación ahora usa automáticamente las escrituras optimizadas- Las operaciones
UPDATE
yMERGE INTO
ahora resuelven las columnas struct anidadas por nombre CLONE
está disponible de forma general y ahora puede invalidar las propiedades de tablaRESTORE
está disponible de forma general- Los implícitos de Scala simplifican las API de lectura y escritura de Spark
- Mejora del rendimiento de streaming con la opción de conector
fetchParallelism
- Seguimiento del progreso de streaming con nuevas métricas de Auto Loader
Los puntos de comprobación asincrónicos eliminan los picos de duración de microlotes de streaming
Delta Lake realiza puntos de comprobación cada 10 confirmaciones de forma predeterminada. En las cargas de trabajo de streaming, los puntos de comprobación pueden provocar picos menores en la duración del microlote cada 10 confirmaciones. Los puntos de comprobación asincrónicos eliminan estos picos.
Los puntos de comprobación asincrónicos están habilitados de forma predeterminada para todas las cargas de trabajo de streaming que no son de desencadenador de un uso. Con los puntos de comprobación asincrónicos, los escritores de streaming también escriben puntos de control mejorados, por lo que no es necesario participar explícitamente en puntos de control mejorados.
Para deshabilitar los puntos de comprobación asincrónicos, establezca la configuración SQL spark.databricks.delta.checkpoint.async.enabled false
.
Las cargas de trabajo por lotes siguen escribiendo puntos de comprobación de forma sincrónica y se recomienda no habilitar los puntos de comprobación asincrónicos para las cargas de trabajo por lotes.
La información de tabla más reciente ahora se propaga a los catálogos
Delta Lake ahora propaga la información de tabla más reciente, como las propiedades de esquema y tabla, a catálogos como el metastore de Hive, siguiendo una estrategia de máximo esfuerzo. Esta información puede ayudarle a aprovechar las herramientas de catalogación para comprender el esquema de las tablas Delta.
Delta Lake no depende internamente de esta información, pero intenta mantenerla actualizada. Además, Delta Lake almacena las propiedades de tabla delta.lastUpdateVersion
y delta.lastCommitTimestamp
para indicar la versión y la marca de tiempo de la confirmación que insertó por última vez un cambio en el metastore. El metastore solo se actualiza cuando el esquema de la tabla o las propiedades de la tabla no coinciden.
Por lo tanto, las propiedades de tabla mencionadas anteriormente no reflejan necesariamente la versión más reciente de la tabla.
Si la información de la tabla y la información del metastore no están sincronizadas, puede ejecutar un comando como DESCRIBE <table>
para actualizar el metastore.
Nota:
Dado que Hive no permite cambiar las columnas de partición, pero las tablas Delta pueden cambiar sus particiones, las tablas Delta no se muestran como particionadas en Hive.
La operación MERGE INTO
ahora admite la evolución del esquema de las columnas anidadas
La evolución del esquema de las columnas anidadas ahora tiene la misma semántica que la de las columnas de nivel superior. Por ejemplo, las nuevas columnas anidadas se pueden agregar automáticamente a una columna StructType
. Consulte Evolución automática del esquema en combinación para obtener más información.
La operación MERGE INTO
ahora usa automáticamente las escrituras optimizadas
Las escrituras optimizadas pueden proporcionar un rendimiento mucho mejor para MERGE INTO
de serie, especialmente para MERGE INTO
en las tablas con particiones. Para deshabilitar las escrituras optimizadas, establezca la configuración de Spark spark.databricks.delta.optimizeWrite.enabled
en false
.
Las operaciones MERGE INTO
y UPDATE
ahora resuelven las columnas struct anidadas por nombre
Los comandos UPDATE
y MERGE INTO
de las operaciones de actualización resuelven las columnas struct anidadas por nombre. Es decir, al comparar o asignar columnas de tipo StructType, el orden de las columnas anidadas no importa (exactamente de la misma manera que el orden de las columnas de nivel superior). Para revertir a la resolución por posición, establezca la configuración de Spark spark.databricks.delta.resolveMergeUpdateStructsByName.enabled
en false
.
CLONE
está disponible de forma general y ahora puede invalidar las propiedades de tabla
El comando CLONE
ahora está disponible con carácter general. Consulte CREATE TABLE CLONE. Además, ahora puede especificar invalidaciones de propiedades de tabla al usar CLONE
. Para ver ejemplos, consulte Clonación de una tabla en Azure Databricks.
RESTORE
está disponible de forma general
El comando RESTORE
ahora está disponible con carácter general. Consulte RESTORE.
Los implícitos de Scala simplifican las API de lectura y escritura de Spark
Puede importar io.delta.implicits._
para usar el método delta
con las API de lectura y escritura de Spark.
import io.delta.implicits._
spark.read.delta("/my/table/path")
df.write.delta("/my/table/path")
spark.readStream.delta("/my/table/path")
df.writeStream.delta("/my/table/path")
Mejora del rendimiento de streaming con la opción de conector fetchParallelism
El conector de AQS ahora admite una nueva opción fetchParallelism
para especificar el paralelismo para capturar mensajes de Queue service.
Seguimiento del progreso de streaming con nuevas métricas de Auto Loader
Auto Loader ahora notifica cuántos archivos existen en el trabajo pendiente y el tamaño del trabajo pendiente después de cada lote. Puede usar estas métricas para hacer un seguimiento del progreso de streaming. Para obtener más información sobre cómo ver las métricas, consulte ¿Qué es Auto Loader?.
Mejoras
Compatibilidad más amplia con bibliotecas de ámbito de cuaderno mediante los comandos magic %pip
y %conda
Ahora puede instalar bibliotecas con ámbito de cuaderno mediante los comandos magic %pip
y %conda
en clústeres de alta simultaneidad con listas de control de acceso de tabla o acceso directo a credenciales habilitado.
Visualización precisa de Spark SQL DECIMAL
El tipo de datos de SQL Spark DECIMAL
se muestra ahora en tablas sin pérdida de precisión ni escala.
Conector de almacenamiento de ADLS Gen 2 basado en Hadoop 3.3 para ABFS
Una versión actualizada del conector de almacenamiento de ADLS Gen 2 se basa en Hadoop 3.3 para ABFS. El conector actualizado contiene muchas mejoras de estabilidad (consulte Estabilidad de Hadoop) e incluye compatibilidad con la Autenticación de tokens de SAS.
Otras correcciones
Se ha quitado el conector de Kafka de Databricks para Spark Streaming. Use el conector de Apache Spark.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- Koalas se ha actualizado de 1.3.0 a 1.4.0.
- Se han actualizado varias bibliotecas de R instaladas. Consulte Bibliotecas de R instaladas.
- Compilación de OpenJDK 8 actualizada a Zulu 8.50.0.51-CA-linux64 (compilación 1.8.0_275-b01).
Apache Spark
Databricks Runtime 7.5 incluye Apache Spark 3.0.1. En esta versión, se incluyen todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 7.4 (EoS), junto con las siguientes correcciones de errores y mejoras de Spark:
- [SPARK-33611] [UI] Evitar la codificación dos veces en el parámetro de consulta de la dirección URL de proxy reescrita
- [SPARK-33587][CORE] Terminación del ejecutor en errores irrecuperables anidados (7.x)
- [SPARK-33140] [SQL] Reversión del código que no usa SparkSession pasado para obtener SQLConf.
- [SPARK-33472] [SQL] Ajuste del orden de regla RemoveRedundantSorts
- [SPARK-33422] [DOC] Corrección de la visualización correcta del elemento de menú izquierdo
- [SPARK-27421] [SQL] Corrección del filtro para la columna int y la clase de valor java.lang.String al eliminar la columna de partición
- [SPARK-33483] [INFRA][TESTS] Corrección de patrones de exclusión de rat y adición de una licencia
- [SPARK-33464] [INFRA] Agregar o quitar memoria caché (in)necesaria y reestructurar las acciones yaml de GitHub
- [SPARK-33407] [PYTHON][7.X] Simplificación del mensaje de excepción de las UDF de Python (deshabilitadas de forma predeterminada)
- [SPARK-33435] [SQL] DSv2: REFRESH TABLE debe invalidar las memorias caché que hacen referencia a la tabla
- [SPARK-33358] [SQL] Código de retorno cuando se ha generado un error en el proceso de comando
- [SPARK-33183] [DBCONNECT] Adición de RemoveRedundantSorts.scala a ALLOW_LIST.txt
- [SPARK-33290] [SQL] REFRESH TABLE debe invalidar la memoria caché aunque la propia tabla no se almacene en caché.
- [SPARK-33140] [SQL] Corrección de la compilación delta
- [SPARK-33316] [SQL] Adición de pruebas unitarias para from_avro y to_avro con el Registro de esquema y el esquema de Avro que admite un valor NULL proporcionado por el usuario
- [SPARK-33404] [SQL] Corrección de resultados incorrectos en la expresión
date_trunc
- [SPARK-33339] [PYTHON] Bloqueo de la aplicación Pyspark debido a un error que no es de excepción
- [SPARK-33412] [SQL] OverwriteByExpression debe resolver su condición de eliminación en función de la relación de tabla y no de la consulta de entrada
- [SPARK-33391] [SQL] Incumplimiento de un índice basado por parte de element_at con CreateArray
- [SPARK-33316] [SQL] El usuario de soporte ha proporcionado un esquema de Avro que acepta valores NULL para el esquema de Catalyst que no acepta valores NULL en la escritura de Avro
- [SPARK-33372] [SQL] Corrección de la eliminación de cubos InSet
- [SPARK-33371] [PYTHON] Actualización de setup.py y pruebas para Python 3.9
- [SPARK-33140] [SQL] Eliminación de SQLConf y SparkSession en todas las subclases de Rule[QueryPlan]
- [SPARK-33338] [SQL] No debería producirse un error cuando GROUP BY usa una asignación literal
- [SPARK-33306] [SQL] Zona horaria necesaria al convertir fecha en cadena
- [SPARK-33284] [WEB-UI] En la página de interfaz de usuario de Storage, al hacer clic en cualquier campo para ordenar la tabla, se perderá el contenido del encabezado.
- [SPARK-33362] [SQL] skipSchemaResolution todavía debería requerir que se resuelva la consulta
- [SPARK-32257] [SQL] Notifica errores explícitos para el uso no válido del comando SET/RESET
- [SPARK-32406] [SQL] Hacer que la sintaxis RESET admita un restablecimiento de configuración único
- [SPARK-32376] [SQL] Hacer que el comportamiento de unionByName con relleno nulo funcione con columnas struct
- [SPARK-32308] [SQL] Mover la lógica de resolución por nombre de unionByName del código de API a la fase de análisis
- [SPARK-20044] [UI] Compatibilidad con la interfaz de usuario de Spark situada detrás del proxy inverso de front-end mediante una URL proxy de reversión de prefijo de ruta de acceso
- [SPARK-33268] [SQL][PYTHON] Corrección de errores para convertir datos desde o hacia PythonUserDefinedType
- [SPARK-33292] [SQL] Desambiguación de la representación de cadena de ArrayBasedMapData literal
- [SPARK-33183] [SQL] Corrección de la regla del optimizador EliminateSorts y adición de una regla física para quitar las ordenaciones redundantes
- [SPARK-33272] [SQL] Eliminación de la asignación de atributos en QueryPlan.transformUpWithNewOutput
- [SPARK-32090] [SQL] Mejora de UserDefinedType.equal() para que sea simétrico
- [SPARK-33267] [SQL] Corrección del problema de NPE en el filtro "In" cuando uno de los valores contiene NULL
- [SPARK-33208] [SQL] Actualización del documento de SparkSession#sql
- [SPARK-33260] [SQL] Corrección de resultados incorrectos de SortExec cuando sortOrder es Stream
- [SPARK-33230] [SQL] Los confirmadores de Hadoop para obtener un identificador de trabajo único en "spark.sql.sources.writeJobUUID"
- [SPARK-33197] [SQL] Los cambios en spark.sql.analyzer.maxIterations se hacen efectivos en tiempo de ejecución
- [SPARK-33228] [SQL] No eliminar de caché los datos al reemplazar una vista que tiene el mismo plan lógico
- [SPARK-32557] [CORE] Registro e ingesta de la excepción por entrada en el servidor de historial
- [SPARK-32436] [CORE] Inicialización de numNonEmptyBlocks en HighlyCompressedMapStatus.readExternal
- [SPARK-33131] [SQL] Corregir conjuntos de agrupación con cláusula having no puede resolver el nombre col completo
- [SPARK-32761] [SQL] Permitir la agregación de varias expresiones distintas que se pueden plegar
- [SPARK-33094] [SQL] Hacer que el formato ORC propague la configuración de Hadoop desde las opciones de DS hata el sistema de archivos HDFS subyacente
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 7.5.
Entorno del sistema
- Sistema operativo: Ubuntu 18.04.5 LTS
- Java: Zulu 8.50.0.51-CA-linux64 (compilación 1.8.0_275-b01)
- Scala: 2.12.10
- Python: 3.7.5
- R: Versión R 3.6.3 (29-02-2020)
- Delta Lake 0.7.0
Bibliotecas de Python instaladas
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
asn1crypto | 1.3.0 | backcall | 0.1.0 | boto3 | 1.12.0 |
botocore | 1.15.0 | certifi | 2020.6.20 | cffi | 1.14.0 |
chardet | 3.0.4 | criptografía | 2.8 | cycler | 0.10.0 |
Cython | 0.29.15 | decorator | 4.4.1 | docutils | 0.15.2 |
entrypoints | 0,3 | idna | 2.8 | ipykernel | 5.1.4 |
ipython | 7.12.0 | ipython-genutils | 0.2.0 | jedi | 0.17.2 |
jmespath | 0.10.0 | joblib | 0.14.1 | jupyter-client | 5.3.4 |
jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | koalas | 1.4.0 |
matplotlib | 3.1.3 | numpy | 1.18.1 | pandas | 1.0.1 |
parso | 0.7.0 | patsy | 0.5.1 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | pip | 20.0.2 | prompt-toolkit | 3.0.3 |
psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | pyarrow | 1.0.1 |
pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
pyOpenSSL | 19.1.0 | pyparsing | 2.4.6 | PySocks | 1.7.1 |
python-apt | 1.6.5+ubuntu0.3 | Python-dateutil | 2.8.1 | pytz | 2019.3 |
pyzmq | 18.1.1 | Solicitudes | 2.22.0 | s3transfer | 0.3.3 |
scikit-learn | 0.22.1 | scipy | 1.4.1 | seaborn | 0.10.0 |
setuptools | 45.2.0 | six (seis) | 1.14.0 | ssh-import-id | 5.7 |
statsmodels | 0.11.0 | tornado | 6.0.3 | traitlets | 4.3.3 |
unattended-upgrades | 0,1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
wcwidth | 0.1.8 | wheel | 0.34.2 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN del 02-11-2020.
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.1.10 |
base | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.1 |
boot | 1.3-25 | brew | 1.0-6 | brio | 1.1.0 |
broom | 0.7.2 | callr | 3.5.1 | caret | 6.0-86 |
cellranger | 1.1.0 | chron | 2.3-56 | clase | 7.3-17 |
cli | 2.1.0 | clipr | 0.7.1 | cluster | 2.1.0 |
codetools | 0.2-18 | colorspace | 1.4-1 | commonmark | 1.7 |
compiler | 3.6.3 | config | 0,3 | covr | 3.5.1 |
cpp11 | 0.2.3 | crayon | 1.3.4 | diafonía | 1.1.0.1 |
curl | 4.3 | data.table | 1.13.2 | conjuntos de datos | 3.6.3 |
DBI | 1.1.0 | dbplyr | 1.4.4 | desc | 1.2.0 |
devtools | 2.3.2 | diffobj | 0.3.2 | digest | 0.6.27 |
dplyr | 0.8.5 | DT | 0.16 | ellipsis | 0.3.1 |
evaluate | 0.14 | fansi | 0.4.1 | farver | 2.0.3 |
fastmap | 1.0.1 | forcats | 0.5.0 | foreach | 1.5.1 |
foreign | 0.8-76 | forge | 0.2.0 | fs | 1.5.0 |
generics | 0.1.0 | ggplot2 | 3.3.2 | gh | 1.1.0 |
git2r | 0.27.1 | glmnet | 3.0-2 | globals | 0.13.1 |
glue | 1.4.2 | gower | 0.2.2 | elementos gráficos | 3.6.3 |
grDevices | 3.6.3 | grid | 3.6.3 | gridExtra | 2.3 |
gsubfn | 0.7 | gtable | 0.3.0 | haven | 2.3.1 |
highr | 0.8 | hms | 0.5.3 | htmltools | 0.5.0 |
htmlwidgets | 1.5.2 | httpuv | 1.5.4 | httr | 1.4.2 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
ipred | 0.9-9 | isoband | 0.2.2 | iterators | 1.0.13 |
jsonlite | 1.7.1 | KernSmooth | 2.23-18 | knitr | 1.30 |
labeling | 0.4.2 | later | 1.1.0.1 | lattice | 0.20-41 |
lava | 1.6.8 | lazyeval | 0.2.2 | ciclo de vida | 0.2.0 |
lubridate | 1.7.9 | magrittr | 1.5 | markdown | 1.1 |
MASS | 7.3-53 | Matriz | 1.2-18 | memoise | 1.1.0 |
methods | 3.6.3 | mgcv | 1.8-33 | mime | 0.9 |
ModelMetrics | 1.2.2.2 | modelr | 0.1.8 | munsell | 0.5.0 |
nlme | 3.1-150 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
openssl | 1.4.3 | parallel | 3.6.3 | pillar | 1.4.6 |
pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
plogr | 0.2.0 | plyr | 1.8.6 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.16.2 | processx | 3.4.4 |
prodlim | 2019.11.13 | progreso | 1.2.2 | promises | 1.1.1 |
proto | 1.0.0 | ps | 1.4.0 | purrr | 0.3.4 |
r2d3 | 0.2.3 | R6 | 2.5.0 | randomForest | 4.6-14 |
rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
Rcpp | 1.0.5 | readr | 1.4.0 | readxl | 1.3.1 |
recipes | 0.1.14 | rematch | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.2.0 | reprex | 0.3.0 | reshape2 | 1.4.4 |
rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.8 |
rmarkdown | 2.5 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
RSQLite | 2.2.1 | rstudioapi | 0,11 | rversions | 2.0.2 |
rvest | 0.3.6 | scales | 1.1.1 | selectr | 0.4-2 |
sessioninfo | 1.1.1 | shape | 1.4.4 | shiny | 1.5.0 |
sourcetools | 0.1.7 | sparklyr | 1.4.0 | SparkR | 3.0.0 |
spatial | 7.3-11 | splines | 3.6.3 | sqldf | 0.4-11 |
SQUAREM | 2020.5 | stats | 3.6.3 | stats4 | 3.6.3 |
stringi | 1.5.3 | stringr | 1.4.0 | survival | 3.2-7 |
sys | 3.4 | tcltk | 3.6.3 | TeachingDemos | 2,10 |
testthat | 3.0.0 | tibble | 3.0.4 | tidyr | 1.1.2 |
tidyselect | 1.1.0 | tidyverse | 1.3.0 | timeDate | 3043.102 |
tinytex | 0,27 | tools | 3.6.3 | usethis | 1.6.3 |
utf8 | 1.1.4 | utils | 3.6.3 | uuid | 0.1-4 |
vctrs | 0.3.4 | viridisLite | 0.3.0 | waldo | 0.2.2 |
whisker | 0,4 | withr | 2.3.0 | xfun | 0,19 |
xml2 | 1.3.2 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.2.1 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
Identificador de grupo | Identificador de artefacto | Versión |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | flujo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
com.fasterxml.jackson.core | jackson-core | 2.10.0 |
com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.4.4-3 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.9.5 |
com.twitter | chill_2.12 | 0.9.5 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.0 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.9.4 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,10 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.47.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recopilador | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.razorvine | pyrolite | 4.30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.12.8 |
net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.7.1 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.15.1 |
org.apache.arrow | arrow-memory | 0.15.1 |
org.apache.arrow | arrow-vector | 0.15.1 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.9 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.4 |
org.apache.hadoop | hadoop-auth | 2.7.4 |
org.apache.hadoop | hadoop-client | 2.7.4 |
org.apache.hadoop | hadoop-common | 2.7.4 |
org.apache.hadoop | hadoop-hdfs | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
org.apache.hive | hive-beeline | 2.3.7 |
org.apache.hive | hive-cli | 2.3.7 |
org.apache.hive | hive-common | 2.3.7 |
org.apache.hive | hive-exec-core | 2.3.7 |
org.apache.hive | hive-jdbc | 2.3.7 |
org.apache.hive | hive-llap-client | 2.3.7 |
org.apache.hive | hive-llap-common | 2.3.7 |
org.apache.hive | hive-metastore | 2.3.7 |
org.apache.hive | hive-serde | 2.3.7 |
org.apache.hive | hive-shims | 2.3.7 |
org.apache.hive | hive-storage-api | 2.7.1 |
org.apache.hive | hive-vector-code-gen | 2.3.7 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
org.apache.hive.shims | hive-shims-common | 2.3.7 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.7 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.5.10 |
org.apache.orc | orc-mapreduce | 1.5.10 |
org.apache.orc | orc-shims | 1.5.10 |
org.apache.parquet | parquet-column | 1.10.1-databricks6 |
org.apache.parquet | parquet-common | 1.10.1-databricks6 |
org.apache.parquet | parquet-encoding | 1.10.1-databricks6 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks6 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks6 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.velocity | velocity | 1.5 |
org.apache.xbean | xbean-asm7-shaded | 4.15 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.4.14 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-continuation | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-security | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-server | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-webapp | 9.4.18.v20190429 |
org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,30 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,30 |
org.glassfish.jersey.core | jersey-client | 2,30 |
org.glassfish.jersey.core | jersey-common | 2,30 |
org.glassfish.jersey.core | jersey-server | 2,30 |
org.glassfish.jersey.inject | jersey-hk2 | 2,30 |
org.glassfish.jersey.media | jersey-media-jaxb | 2,30 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.6.6 |
org.json4s | json4s-core_2.12 | 3.6.6 |
org.json4s | json4s-jackson_2.12 | 3.6.6 |
org.json4s | json4s-scalap_2.12 | 3.6.6 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.7.45 |
org.roaringbitmap | shims | 0.7.45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.10 |
org.scala-lang | scala-library_2.12 | 2.12.10 |
org.scala-lang | scala-reflect_2.12 | 2.12.10 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1,0 |
org.scalanlp | breeze_2.12 | 1,0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | unused | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.5 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.5 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |