Databricks Runtime 12.2 LTS
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 12.2 LTS, propulsé par Apache Spark 3.3.2.
Databricks a publié cette version en mars 2023.
Remarque
LTS (Long Term Support) signifie que cette version bénéficie d’un support à long terme. Consultez Cycle de vie de la version de Databricks Runtime LTS.
Conseil
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin du support (EoS), consultez Fin de support des notes de publication des versions de Databricks Runtime. Les versions EoS de Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.
Modifications de comportement
[Changement cassant] La nouvelle version de Python nécessite la mise à jour des clients Python Databricks Connect V1
Pour appliquer les correctifs de sécurité requis, la version Python dans Databricks Runtime 12.2 LTS est mise à niveau de 3.9.5 à 3.9.19. Étant donné que ces modifications peuvent entraîner des erreurs dans les clients qui utilisent des fonctions PySpark spécifiques, tous les clients qui utilisent Databricks Connect V1 pour Python avec Databricks Runtime 12.2 LTS doivent être mis à jour vers Python 3.9.7 ou version ultérieure.
Améliorations et nouvelles fonctionnalités
- L’évolution du schéma Delta Lake prend en charge la spécification de colonnes sources dans les instructions de fusion
- Les charges de travail Structured Streaming sont prises en charge sur les clusters avec mode d’accès partagé
- Nouvelles fonctionnalités pour les E/S prédictives
- Prise en charge implicite de l’aliasing de colonne latérale
- Nouvelle fonctionnalité forEachBatch
- Options de connexion standardisées pour la fédération des requêtes
- Bibliothèque de fonctions SQL étendue pour la gestion des tableaux
- Nouvelle fonction de masque pour anonymiser les chaînes
- Les conditions d’erreur courantes retournent maintenant des SQLSTATE
- Appeler les fonctions de génération dans la clause FROM
- La prise en charge des mémoires tampons de protocole est généralement disponible
- Atteindre la définition pour les variables et fonctions de notebook
- Correctif rapide du Notebook pour l’importation automatique de bibliothèques
- Correctifs de bogues
L’évolution du schéma Delta Lake prend en charge la spécification de colonnes sources dans les instructions de fusion
Vous pouvez désormais spécifier des colonnes présentes uniquement dans la table source dans les actions d’insertion ou de mise à jour pour les instructions de fusion, lorsque l’évolution du schéma est activée. Dans Databricks Runtime 12.1 et versions antérieures, seules des actions INSERT *
ou UPDATE SET *
peuvent être utilisées pour l’évolution du schéma avec la fusion. Consultez Évolution automatique du schéma pour la fusion Delta Lake.
Les charges de travail Structured Streaming sont prises en charge sur les clusters avec mode d’accès partagé
Vous pouvez maintenant utiliser Structured Streaming pour interagir avec Unity Catalog sur les clusters partagés. Certaines limitations s’appliquent. Consultez Quelle est la fonctionnalité Structured Streaming prise en charge par Unity Catalog ?.
Nouvelles fonctionnalités pour les E/S prédictives
La prise en charge de Photon pour le récepteur Foreachbatch
est désormais disponible. Les charges de travail qui diffusent en continu à partir d’une source et fusionnent dans des tables Delta ou écrivent dans plusieurs récepteurs peuvent désormais tirer parti du récepteur Foreachbatch
Photonisé.
Prise en charge implicite de l’aliasing de colonne latérale
Azure Databricks prend désormais en charge l’aliasing de colonne latérale implicite par défaut. Vous pouvez maintenant réutiliser une expression spécifiée précédemment dans la même liste SELECT
. Par exemple, étant donné SELECT 1 AS a
, a + 1 AS b
, le a
dans a + 1
peut être résolu comme le 1 AS a
défini précédemment. Pour plus d’informations sur l’ordre de résolution, consultez Résolution de noms.
Pour désactiver cette fonctionnalité, vous pouvez définir spark.sql.lateralColumnAlias.enableImplicitResolution
sur false
.
Nouvelle fonctionnalité forEachBatch
Photon est désormais pris en charge lors de l’utilisation de foreachBatch
pour écrire dans un récepteur de données.
Options de connexion standardisées pour la fédération des requêtes
Vous pouvez maintenant utiliser un ensemble unifié d’options (hôte, port, base de données, utilisateur, mot de passe) pour vous connecter aux sources de données prises en charge dans Query Federation. Port
est facultatif et utilise le numéro de port par défaut pour chaque source de données, sauf s’il est spécifié.
Bibliothèque de fonctions SQL étendue pour la gestion des tableaux
Supprimez tous les éléments NULL d’un tableau à l’aide d’array_compact. Pour ajouter des éléments à un tableau, utilisez array_append.
Nouvelle fonction de masque pour anonymiser les chaînes
Appelez la fonction de masque pour anonymiser les valeurs de chaîne sensibles.
Les conditions d’erreur courantes retournent maintenant des SQLSTATE
La plupart des conditions d’erreur que retourne Databricks Runtime incluent désormais des valeurs SQLSTATE documentées qui peuvent être utilisées pour tester les erreurs d’une manière conforme aux normes SQL.
Appeler les fonctions de génération dans la clause FROM
Vous pouvez maintenant appeler des fonctions de génération tabulaires comme explode dans la clause FROM
régulière d’une requête. Cela aligne l’appel de fonction de génération avec d’autres fonctions de table intégrées et définies par l’utilisateur.
La prise en charge des mémoires tampons de protocole est généralement disponible
Vous pouvez utiliser les fonctions from_protobuf
et to_protobuf
pour échanger des données entre des types binaires et struct. Consultez Tampons de protocole de lecture et d’écriture.
Atteindre la définition pour les variables et fonctions de notebook
Dans les notebooks, vous pouvez rapidement accéder à la définition d’une variable, d’une fonction ou du code derrière une instruction %run
en cliquant avec le bouton droit sur le nom de la variable ou de la fonction.
Correctif rapide du Notebook pour l’importation automatique de bibliothèques
Les Databricks Notebooks offrent désormais une fonction de correction rapide pour l'importation automatique de bibliothèques. Si vous oubliez d’importer une bibliothèque comme pandas, pointez sur l’avertissement de syntaxe souligné, puis cliquez sur correctif rapide, cette fonctionnalité nécessite que l’Assistant Databricks soit activé dans votre espace de travail.
Résolution des bogues
- Amélioration de la cohérence pour le comportement de validation Delta pour les transactions vides relatives aux commandes
update
,delete
etmerge
. Au niveau d’isolationWriteSerializable
, les commandes qui n’entraînent aucune modification créent désormais une validation vide. Au niveau d’isolationSerializable
, de telles transactions vides ne créent plus de validation.
Changements de comportement
Changements de comportement avec la nouvelle fonctionnalité d’alias de colonne latérale
La nouvelle fonctionnalité d’alias de colonne latérale introduit des changements de comportement pour les cas suivants lors de la résolution de noms :
- L’alias de colonne latérale est désormais prioritaire sur les références corrélées portant le même nom. Par exemple, pour cette requête
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
, lec1
duc1 AS c2
intérieur a été résolu en référence corréléet.c1
, mais devient maintenant l’alias1 AS c1
de colonne latérale. La requête retourne maintenantNULL
. - L’alias de colonne latérale est désormais prioritaire sur les paramètres de fonction portant le même nom. Par exemple, pour la fonction
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
, lex
dans le corps de la fonction a été résolu en paramètre de fonction x, mais devient alias de colonne latéralex + 1
dans le corps de la fonction. La requêteSELECT * FROM func(1)
retourne maintenant2, 2
. - Pour désactiver la fonctionnalité d’alias de colonne latérale, définissez
spark.sql.lateralColumnAlias.enableImplicitResolution
surfalse
. Pour plus d'informations, consultez Résolution de noms.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- filelock de 3.8.2 à 3.9.0
- joblib de 1.1.0 à 1.1.1
- platformdirs de 2.6.0 à 2.6.2
- whatthepatch de 1.0.3 à 1.0.4
- Bibliothèques R mises à niveau :
- class de 7.3-20 à 7.3-21
- codetools de 0.2-18 à 0.2-19
- MASS de 7.3-58 à 7.3-58.2
- nlme de 3.1-160 à 3.1-162
- Rserve de 1.8-11 à 1.8-12
- SparkR de 3.3.1 à 3.3.2
Changements de comportement
- Les utilisateurs doivent désormais disposer des privilèges
SELECT
etMODIFY
sur tout fichier lors de la création d’un schéma avec un emplacement défini.
Apache Spark
Databricks Runtime 12.2 inclut Apache Spark 3.3.2. Cette version comprend l’ensemble des correctifs et améliorations Spark figurant dans Databricks Runtime 12.1 (EoS), ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-42416] [SC-123205][SC-122851][SQL] Les opérations d’ensemble de dates ne doivent pas résoudre à nouveau le plan logique analysé
- [SPARK-41848] Rétablir “[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Correction de la tâche sur-planifiée avec TaskResourceProfile”
- [SPARK-42162] [SC-122711][ES-556261] Introduire l’expression MultiCommutativeOp comme optimisation de la mémoire pour canoniser de grandes arborescences d’expressions commutatives
- [SPARK-42406] [SC-122998][PROTOBUF][Cherry-pick] Correction du paramètre de profondeur récursive des fonctions Protobuf
- [SPARK-42002] [SC-122476][CONNECT][PYTHON] Implémenter DataFrameWriterV2
- [SPARK-41716] [SC-122545][CONNECT] Renommer _catalog_to_pandas en _execute_and_fetch dans le catalogue
- [SPARK-41490] [SC-121774][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][SPARK-41623][SPARK-41612][CONNECT] Implémenter Catalog.cacheTable, isCached et uncache
- [SPARK-42191] [SC-121990][SQL] Prise en charge de l’UDF 'luhn_check'
- [SPARK-42253] [SC-121976][PYTHON] Ajouter un test de détection d’une classe d’erreur en double
- [SPARK-42268] [SC-122251][CONNECT][PYTHON] Ajouter UserDefinedType dans protos
- [SPARK-42231] [SC-121841][SQL] Transformer
MISSING_STATIC_PARTITION_COLUMN
eninternalError
- [SPARK-42136] [SC-122554] Refactoriser le calcul de partitionnement de la sortie BroadcastHashJoinExec
- [SPARK-42158] [SC-121610][SQL] Intégrer
_LEGACY_ERROR_TEMP_1003
dansFIELD_NOT_FOUND
- [SPARK-42192] [12.x][SC-121820][PYTHON] Migrer le TypeError de pyspark/sql/dataframe.py vers PySparkTypeError
- [SPARK-35240] Rétablir “[SC-118242][SS] Utiliser CheckpointFileManager ....
- [SPARK-41488] [SC-121858][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1176 (et 1177)
- [SPARK-42232] [SC-122267][SQL] Renommer la classe d’erreur :
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][SQL] Réécrire des agrégats distincts après la fusion de sous-requête
- [SPARK-42306] [SC-122539][SQL] Intégrer
_LEGACY_ERROR_TEMP_1317
dansUNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-42234] [SC-122354][SQL] Renommer la classe d’erreur :
UNSUPPORTED_FEATURE.REPEATED_PIVOT
- [SPARK-42343] [SC-122437][CORE] Ignorer
IOException
danshandleBlockRemovalFailure
si SparkContext est arrêté - [SPARK-41295] [SC-122442][SPARK-41296][SQL] Renommer les classes d’erreur
- [SPARK-42320] [SC-122478][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][CONNECT] SparkConnectClient prend désormais en charge RetryPolicies
- [SPARK-38728] [SC-116723][SQL] Tester la classe d’erreur : FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Exemples autonomes dans PySpark
- [SPARK-39347] [SC-122457][SS] Corriger les bogues du calcul de la fenêtre de temps lorsque l’heure de l’évènement < 0
- [SPARK-42336] [SC-122458][CORE] Utiliser
getOrElse()
au lieu decontains()
dans ResourceAllocator - [SPARK-42125] [SC-121827][CONNECT][PYTHON] UDF Pandas dans Spark Connect
- [SPARK-42217] [SC-122263][SQL] Prendre en charge la résolution d’alias de colonne latérale dans les requêtes avec Fenêtre
- [SPARK-35240] [SC-118242][SS] Utiliser CheckpointFileManager pour la manipulation du fichier de point de contrôle
- [SPARK-42294] [SC-122337][SQL] Inclure les valeurs par défaut des colonnes dans la sortie DESCRIBE des tables V2
- [SPARK-41979] Rétablir “Revert “[12.x][SC-121190][SQL] Ajouter les points manquants pour les messages d’erreur des classes d’erreur.””
- [SPARK-42286] [SC-122336][SQL] Secours vers le chemin de code codegen précédent pour une expression complexe avec CAST
- [SPARK-42275] [SC-122249][CONNECT][PYTHON] Éviter d’utiliser la liste intégrée, dicter dans le typage statique
- [SPARK-41985] [SC-122172][SQL] Centraliser d’autres règles de résolution de colonne
- [SPARK-42126] [SC-122330][PYTHON][CONNECT] Accepter le type de retour dans les chaînes DDL pour les UDF scalaires Python dans Spark Connect
- [SPARK-42197] [SC-122328][SC-121514][CONNECT] Réutilise l’initialisation JVM et sépare les groupes de configuration à définir en mode local/distant
- [SPARK-41575] [SC-120118][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Rétablir “[SC-122172][SQL] Centraliser d’autres règles de résolution de colonne”
- [SPARK-42123] [SC-122234][SC-121453][SQL] Inclure les valeurs par défaut des colonnes dans la sortie DESCRIBE et SHOW CREATE TABLE
- [SPARK-41985] [SC-122172][SQL] Centraliser d’autres règles de résolution de colonne
- [SPARK-42284] [SC-122233][CONNECT] Vérifier que l’assembly de serveur de connexion est généré avant d’exécuter des tests clients - SBT
- [SPARK-42239] [SC-121790][SQL] Intégrer
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42278] [SC-122170][SQL] DS V2 pushdown prend en charge la compilation
SortOrder
des dialectes JDBC par eux-mêmes - [SPARK-42259] [SC-122168][SQL] ResolveGroupingAnalytics doit faire attention à Python UDAF
- [SPARK-41979] Rétablir “[12.x][SC-121190][SQL] Ajouter les points manquants des messages d’erreur des classes d’erreur.”
- [SPARK-42224] [12.x][SC-121708][CONNECT] Migrer TypeError dans l’infrastructure d’erreur des fonctions Spark Connect
- [SPARK-41712] [12.x][SC-121189][PYTHON][CONNECT] Migrer les erreurs Spark Connect dans l’infrastructure d’erreurs PySpark.
- [SPARK-42119] [SC-121913][SC-121342][SQL] Ajouter des fonctions tabulaires intégrées inline et inline_outer
- [SPARK-41489] [SC-121713][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][SC-121163][SPARK-41598][PYTHON][CONNECT] Présenter PySparkValueError et PySparkTypeError
- [SPARK-42081] [SC-121723][SQL] Améliorer la validation des modifications de plan
- [SPARK-42225] [12.x][SC-121714][CONNECT] Ajouter SparkConnectIllegalArgumentException pour gérer l’erreur Spark Connect avec précision.
- [SPARK-42044] [12.x][SC-121280][SQL] Corriger un message d’erreur incorrect de
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][SC-121712][PS] Autoriser le paramètre de colonnes lors de la création d’un DataFrame avec Series.
- [SPARK-42078] [12.x][SC-120761][PYTHON] Migrer les erreurs levées par JVM dans PySparkException.
- [SPARK-42133] [12.x][SC-121250] Ajouter des méthodes d’API de jeu de données de base à SparkConnect Scala Client
- [SPARK-41979] [12.x][SC-121190][SQL] Ajouter les points manquants pour les messages d’erreur des classes d’erreur.
- [SPARK-42124] [12.x][SC-121420][PYTHON][CONNECT] UDF Python scalaire inline Scalar dans Spark Connect
- [SPARK-42051] [SC-121994][SQL] Prise en charge de HiveGenericUDF par Codegen
- [SPARK-42257] [SC-121948][CORE] Supprimer un trieur externe de variable inutilisé
- [SPARK-41735] [SC-121771][SQL] Utiliser MINIMAL au lieu de STANDARD pour SparkListenerSQLExecutionEnd
- [SPARK-42236] [SC-121882][SQL] Affiner
NULLABLE_ARRAY_OR_MAP_ELEMENT
- [SPARK-42233] [SC-121775][SQL] Améliorer le message d’erreur de
PIVOT_AFTER_GROUP_BY
- [SPARK-42229] [SC-121856][CORE] Migrer
SparkCoreErrors
vers les classes d’erreur - [SPARK-42163] [SC-121839][SQL] Corriger l’élagage du schéma pour l’index de tableau non pliable ou la clé de carte
- [SPARK-40711] [SC-119990][SQL] Ajouter des métriques de taille de débordement pour la fenêtre
- [SPARK-42023] [SC-121847][SPARK-42024][CONNECT][PYTHON] Faire prendre en charge le forçage de type
AtomicType -> StringType
parcreateDataFrame
- [SPARK-42202] [SC-121837][Connect][Test] Améliorer la logique d’arrêt du serveur de test E2E
- SPARK-41167 [SC-117425][SQL] Améliorer les performances de type multi en créant un prédicat d’arborescence de l’expression équilibré
- [SPARK-41931] [SC-121618][SQL] Améliorer le message d’erreur pour une définition de type complexe incomplète
- [SPARK-36124] [SC-121339][SC-110446][SQL] Prendre en charge les sous-requêtes avec corrélation via UNION
- [SPARK-42090] [SC-121290][3.3] Introduire le nombre de nouvelles tentatives sasl dans RetryingBlockTransferor
- [SPARK-42157] [SC-121264][CORE]
spark.scheduler.mode=FAIR
doit fournir le planificateur FAIR - [SPARK-41572] [SC-120772][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2149
- [SPARK-41983] [SC-121224][SQL] Renommer et améliorer le message d’erreur de
NULL_COMPARISON_RESULT
- [SPARK-41976] [SC-121024][SQL] Améliorer le message d’erreur de
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][SC-120573] Affecter SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Nouvelles tentatives de requête SASL
- SPARK-38591[SC-121018][SQL] Ajouter flatMapSortedGroups et cogroupSorted
- [SPARK-41975] [SC-120767][SQL] Améliorer le message d’erreur de
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][SQL][PROTOBUF] Ajouter des options manquantes aux fonctions Protobuf
- [SPARK-41984] [SC-120769][SQL] Renommer et améliorer le message d’erreur de
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][SQL] Corriger NPE pour les classes d’erreur : CANNOT_PARSE_JSON_FIELD
- [SPARK-41772] [SC-121176][CONNECT][PYTHON] Corriger un nom de colonne incorrect dans le doctest de
withField
- [SPARK-41283] [SC-121175][CONNECT][PYTHON] Ajouter
array_append
à Connect - [SPARK-41960] [SC-120773][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][SQL] Corriger getPartitionFiltersAndDataFilters() pour gérer les filtres sans attributs référencés
- [SPARK-42096] [SC-121012][CONNECT] Nettoyer le code du module
connect
- [SPARK-42099] [SC-121114][SPARK-41845][CONNECT][PYTHON] Corriger
count(*)
etcount(col(*))
- [SPARK-42045] [SC-120958][SC-120450][SQL] Mode SQL ANSI : Round/Bround doit retourner une erreur sur le dépassement d’entier
- [SPARK-42043] [SC-120968][CONNECT] Résultat du client Scala aux tests E2E
- [SPARK-41884] [SC-121022][CONNECT] Prendre en charge le tuple naïf en tant que ligne imbriquée
- [SPARK-42112] [SC-121011][SQL][SS] Ajouter une vérification null avant le
dataWriter
de fermeture de la fonctionContinuousWriteRDD#compute
- [SPARK-42077] [SC-120553][CONNECT][PYTHON] Le littéral doit lever TypeError pour un DataType non pris en charge
- [SPARK-42108] [SC-120898][SQL] Faire transformer
Count(*)
enCount(1)
par l’analyseur - [SPARK-41666] [SC-120928][SC-119009][PYTHON] Prendre en charge SQL paramétré par
sql()
- [SPARK-40599] [SC-120930][SQL] Assouplir le type de règle multiTransform pour permettre aux alternatives d’être n’importe quel type de Seq
- [SPARK-41574] [SC-120771][SQL] Mettre à jour
_LEGACY_ERROR_TEMP_2009
en tant queINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1249
- [SPARK-41974] [SC-120766][SQL] Transformer
INCORRECT_END_OFFSET
enINTERNAL_ERROR
- [SPARK-41530] [SC-120916][SC-118513][CORE] Renommer MedianHeap en PercentileMap et prendre en charge le centile
- [SPARK-41757] [SC-120608][SPARK-41901][CONNECT] Corriger la représentation sous forme de chaîne de la classe Column
- [SPARK-42084] [SC-120775][SQL] Éviter la fuite de la restriction d’accès qualifié uniquement
- [SPARK-41973] [SC-120765][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][SQL] SPJ : Supprimer une option dans KeyGroupedPartitioning#partitionValuesOpt
- [SPARK-42079] [SC-120712][CONNECT][PYTHON] Renommer les messages proto pour
toDF
etwithColumnsRenamed
- [SPARK-42089] [SC-120605][CONNECT][PYTHON] Corriger les problèmes de nom de variable dans les fonctions lambda imbriquées
- [SPARK-41982] [SC-120604][SQL] Les partitions de type chaîne ne doivent pas être traitées comme des types numériques
- [SPARK-40599] [SC-120620][SQL] Ajouter des méthodes multiTransform à TreeNode pour générer des alternatives
- [SPARK-42085] [SC-120556][CONNECT][PYTHON] Faire prendre en charge les types imbriqués par
from_arrow_schema
- [SPARK-42057] [SC-120507][SQL][PROTOBUF] Corriger la façon dont l’exception est gérée dans les rapports d’erreur.
- [SPARK-41586] [12.x][ALL TESTS][SC-120544][PYTHON] Introduire
pyspark.errors
et les classes d’erreur pour PySpark. - [SPARK-41903] [SC-120543][CONNECT][PYTHON]
Literal
doit prendre en charge 1-dim ndarray - [SPARK-42021] [SC-120584][CONNECT][PYTHON] Faire prendre en charge
array.array
parcreateDataFrame
- [SPARK-41896] [SC-120506][SQL] Le filtrage par index de ligne retourne des résultats vides
- [SPARK-41162][SC-119742][SQL] Corriger l’anti-jointure et la semi-jointure pour la jointure réflexive avec agrégations
- [SPARK-41961] [SC-120501][SQL] Prendre en charge les fonctions tabulaires avec LATERAL
- [SPARK-41752] [SC-120550][SQL][UI] Regrouper les exécutions imbriquées sous l’exécution racine
- [SPARK-42047] [SC-120586][SPARK-41900][CONNECT][PYTHON][12.X] Le littéral doit prendre en charge les types de données Numpy
- [SPARK-42028] [SC-120344][CONNECT][PYTHON] Tronquer les timestamps en nanosecondes
- [SPARK-42011] [SC-120534][CONNECT][PYTHON] Implémenter DataFrameReader.csv
- [SPARK-41990] [SC-120532][SQL] Utiliser
FieldReference.column
au lieu deapply
dans la conversion de filtre V1 en V2 - [SPARK-39217] [SC-120446][SQL] Faire prendre en charge le côté élagage d’Union par DPP
- [SPARK-42076] [SC-120551][CONNECT][PYTHON] Factoriser la conversion de données
arrow -> rows
enconversion.py
- [SPARK-42074] [SC-120540][SQL] Activer
KryoSerializer
dansTPCDSQueryBenchmark
pour appliquer l’inscription de classe SQL - [SPARK-42012] [SC-120517][CONNECT][PYTHON] Implémenter DataFrameReader.orc
- [SPARK-41832] [SC-120513][CONNECT][PYTHON] Corriger
DataFrame.unionByName
, ajouter allow_missing_columns - [SPARK-38651] [SC-120514][SQL] Ajouter
spark.sql.legacy.allowEmptySchemaWrite
- [SPARK-41991] [SC-120406][SQL]
CheckOverflowInTableInsert
doit accepter ExpressionProxy comme enfant - [SPARK-41232] [SC-120073][SQL][PYTHON] Ajouter la fonction array_append
- [SPARK-42041] [SC-120512][SPARK-42013][CONNECT][PYTHON] DataFrameReader doit prendre en charge la liste des chemins d’accès
- [SPARK-42071] [SC-120533][CORE] Inscrire
scala.math.Ordering$Reverse
auprès de KryoSerializer - [SPARK-41986] [SC-120429][SQL] Introduction de la lecture aléatoire sur SinglePartition
- [SPARK-42016] [SC-120428][CONNECT][PYTHON] Activer les tests liés à la colonne imbriquée
- [SPARK-42042] [SC-120427][CONNECT][PYTHON]
DataFrameReader
doit prendre en charge le schéma StructType - [SPARK-42031] [SC-120389][CORE][SQL] Nettoyer les méthodes
remove
qui n’ont pas besoin de remplacement - [SPARK-41746] [SC-120463][SPARK-41838][SPARK-41837][SPARK-41835][SPARK-41836][SPARK-41847][CONNECT][PYTHON] Faire prendre en charge les types imbriqués par
createDataFrame(rows/lists/tuples/dicts)
- [SPARK-41437] [SC-117601][SQL] Ne pas optimiser la requête d’entrée deux fois pour le secours en écriture v1
- [SPARK-41840] [SC-119719][CONNECT][PYTHON] Ajout de l’alias manquant
groupby
- [SPARK-41846] [SC-119717][CONNECT][PYTHON] Activer les doctests pour les fonctions de fenêtre
- [SPARK-41914] [SC-120094][SQL] FileFormatWriter matérialise le plan AQE avant d’accéder à outputOrdering
- [SPARK-41805] [SC-119992][SQL] Réutiliser des expressions dans WindowSpecDefinition
- [SPARK-41977] [SC-120269][SPARK-41978][CONNECT] SparkSession.range doit prendre float comme arguments
- [SPARK-42029] [SC-120336][CONNECT] Ajouter des règles de shading Guava à
connect-common
pour éviter un échec de démarrage - [SPARK-41989] [SC-120334][PYTHON] Éviter d’interrompre la configuration de la journalisation de pyspark.pandas
- [SPARK-42003] [SC-120331][SQL] Réduire le code en double dans ResolveGroupByAll
- [SPARK-41635] [SC-120313][SQL] Correction des rapports d’erreur de la clause group by all
- [SPARK-41047] [SC-120291][SQL] Améliorer la documentation relative à round
- [SPARK-41822] [SC-120122][CONNECT] Configurer la connexion gRPC pour le client Scala/JVM
- [SPARK-41879] [SC-120264][CONNECT][PYTHON] Faire prendre en charge les types imbriqués par
DataFrame.collect
- [SPARK-41887] [SC-120268][CONNECT][PYTHON] Faire accepter par
DataFrame.hint
le paramètre de type liste - [SPARK-41964] [SC-120210][CONNECT][PYTHON] Ajouter la liste des fonctions d’E/S non prises en charge
- [SPARK-41595] [SC-120097][SQL] Prendre en charge la fonction de génération explode/explode_outer dans la clause FROM
- [SPARK-41957] [SC-120121][CONNECT][PYTHON] Activer le doctest pour
DataFrame.hint
- [SPARK-41886] [SC-120141][CONNECT][PYTHON] La sortie du doctest
DataFrame.intersect
a un ordre différent - [SPARK-41442] [SC-117795][SQL][ALL TESTS] Ne mettre à jour la valeur SQLMetric qu’en cas de fusion avec une métrique valide
- [SPARK-41944] [SC-120046][CONNECT] Passer des configurations lorsque le mode distant local est activé
- [SPARK-41708] [SC-119838][SQL] Extraire les informations v1write vers
WriteFiles
- [SPARK-41780] [SC-120000][SQL] Doit lever INVALID_PARAMETER_VALUE. PATTERN lorsque les paramètres
regexp
sont non valides - [SPARK-41889] [SC-119975][SQL] Attacher la cause racine à invalidPatternError et refactoriser les classes d’erreur INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][SQL] Créer des classes de cas AvroScanBuilder et JsonScanBuilder
- [SPARK-41945] [SC-120010][CONNECT][PYTHON] Python : connecter les données de colonne perdues du client avec pyarrow.Table.to_pylist
- [SPARK-41690] [SC-119102][SC-119087][SQL][CONNECT] Encodeurs agnostiques
- [SPARK-41354] [SC-119995][CONNECT][PYTHON] Implémenter RepartitionByExpression
- [SPARK-41581] [SC-119997][SQL] Mettre à jour
_LEGACY_ERROR_TEMP_1230
en tant queINTERNAL_ERROR
- [SPARK-41928] [SC-119972][CONNECT][PYTHON] Ajouter la liste de non prise en charge pour
functions
- [SPARK-41933] [SC-119980][CONNECT] Fournir un mode local qui démarre automatiquement le serveur
- [SPARK-41899] [SC-119971][CONNECT][PYTHON] createDataFrame doit respecter le schéma DDL fourni par l’utilisateur
- [SPARK-41936] [SC-119978][CONNECT][PYTHON] Faire réutiliser le proto
withColumns
parwithMetadata
- [SPARK-41898] [SC-119931][CONNECT][PYTHON] Parité de vérification de type des paramètres Window.rowsBetween et Window.rangeBetween avec pyspark
- [SPARK-41939] [SC-119977][CONNECT][PYTHON] Ajouter la liste de non prise en charge des fonctions
catalog
- [SPARK-41924] [SC-119946][CONNECT][PYTHON] Faire prendre en charge les métadonnées par StructType et implémenter
DataFrame.withMetadata
- [SPARK-41934] [SC-119967][CONNECT][PYTHON] Ajouter la liste des fonctions non prises en charge pour
session
- [SPARK-41875] [SC-119969][CONNECT][PYTHON] Ajouter des cas de test pour
Dataset.to()
- [SPARK-41824] [SC-119970][CONNECT][PYTHON] Ignorer le doctest pour expliquer la fonctionnalité connect
- [SPARK-41880] [SC-119959][CONNECT][PYTHON] Faire en sorte que la fonction
from_json
accepte un schéma non littéral - [SPARK-41927] [SC-119952][CONNECT][PYTHON] Ajouter la liste de non prise en charge de
GroupedData
- [SPARK-41929] [SC-119949][CONNECT][PYTHON] Ajouter la fonction
array_compact
- [SPARK-41827] [SC-119841][CONNECT][PYTHON] Faire accepter la liste de colonnes par
GroupBy
- [SPARK-41925] [SC-119905][SQL] Activer
spark.sql.orc.enableNestedColumnVectorizedReader
par défaut - [SPARK-41831] [SC-119853][CONNECT][PYTHON] Faire accepter la liste de colonnes par
DataFrame.select
- [SPARK-41455] [SC-119858][CONNECT][PYTHON] Faire abandonner les informations de fuseau horaire à
DataFrame.collect
- [SPARK-41923] [SC-119861][CONNECT][PYTHON] Ajouter
DataFrame.writeTo
à la liste de non prise en charge - [SPARK-41912] [SC-119837][SQL] La sous-requête ne doit pas valider la CTE
- [SPARK-41828] [SC-119832][CONNECT][PYTHON][12.X] Faire prendre en charge les dataframes vides par
createDataFrame
- [SPARK-41905] [SC-119848][CONNECT] Prendre charge les noms en tant que chaînes dans le slice
- [SPARK-41869] [SC-119845][CONNECT] Rejeter une chaîne unique dans dropDuplicates
- [SPARK-41830] [SC-119840][CONNECT][PYTHON] Faire accepter à
DataFrame.sample
les mêmes paramètres que PySpark - [SPARK-41849] [SC-119835][CONNECT] Implémenter DataFrameReader.text
- [SPARK-41861] [SC-119834][SQL] Faire que la build() de v2 ScanBuilders retourne une analyse typée
- [SPARK-41825] [SC-119710][CONNECT][PYTHON] Activer les doctests liés à
DataFrame.show
- [SPARK-41855] [SC-119804][SC-119410][SPARK-41814][SPARK-41851][SPARK-41852][CONNECT][PYTHON][12.X] Faire que
createDataFrame
gère None/NaN correctement - [SPARK-41833] [SC-119685][SPARK-41881][SPARK-41815][CONNECT][PYTHON] Faire que
DataFrame.collect
gère None/NaN/Array/Binary correctement - [SPARK-39318] [SC-119713][SQL] Supprimer les fichiers de référence WithStats tpch-plan-stability
- [SPARK-41791] [SC-119745] Ajouter de nouveaux types de colonnes de métadonnées de source de fichier
- [SPARK-41790] [SC-119729][SQL] Définir correctement le format du lecteur et de l’enregistreur TRANSFORM
- [SPARK-41829] [SC-119725][CONNECT][PYTHON] Ajouter le paramètre de classement manquant dans
Sort
etsortWithinPartitions
- [SPARK-41576] [SC-119718][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][CONNECT][PYTHON] Corriger le test de documentation pour DataFrame.describe
- [SPARK-41871] [SC-119714][CONNECT] Le paramètre d’indicateur DataFrame peut être str, float ou int
- [SPARK-41720] [SC-119076][SQL] Renommer UnresolvedFunc en UnresolvedFunctionName
- [SPARK-41573] [SC-119567][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][SQL] Corriger un bogue d’exactitude lié aux valeurs DEFAULT dans le lecteur Orc
- [SPARK-41582] [SC-119482][SC-118701][CORE][SQL] Réutiliser
INVALID_TYPED_LITERAL
au lieu de_LEGACY_ERROR_TEMP_0022
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 12.2.
Environnement du système
- Système d’exploitation : Ubuntu 20.04.5 LTS
- Java Zulu 8.68.0.21-CA-linux64
- Scala : 2.12.15
- Python : 3.9.19
- R: 4.2.2
- Delta Lake: 2.2.0
Bibliothèques Python installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | chiffrement | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0.11 | entrypoints | 0,4 | en cours d’exécution | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.8 | numpy | 1.21.5 | empaquetage | 21,3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
requêtes | 2.27.1 | requests-unixsocket | 0.2.0 | rope | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
six | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané Microsoft CRAN du 11/11/2022.
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
flèche | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | objet BLOB | 1.2.3 |
boot | 1.3-28 | brew | 1,0-8 | brio | 1.1.3 |
broom | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | horloge | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credentials | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | jeux de données | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellipsis | 0.3.2 | evaluate | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generics | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4-1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.0 | graphics | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.0 | cycle de vie | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58.2 | Matrice | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | pillar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | progress | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recipes | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | spatial | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
survival | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
ID de groupe | ID d’artefact | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | flux | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collecteur | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |