Databricks Runtime 15.4 LTS
В следующих заметках о выпуске содержатся сведения о Databricks Runtime 15.4 LTS, на базе Apache Spark 3.5.0.
Databricks выпустила эту версию в августе 2024 года.
Примечание.
LTS означает, что эта версия находится в долгосрочной поддержке. См. жизненный цикл версии LTS среды выполнения Databricks.
Совет
Сведения о выпуске заметок о выпуске Databricks Runtime, которые достигли окончания поддержки (EoS), см . в заметках о выпуске Databricks Runtime. Версии среды выполнения EoS Databricks устарели и могут не обновляться.
Изменение поведения
-
VARIANT
Использование в качестве входного или выходного типа с UDF, UDAF или UDTF Python создает исключение. - Изменение режима привязки схемы по умолчанию для представлений
-
Запретить использование неподдерженного
!
синтаксисаNOT
вместо логических выражений - Запретить синтаксис определения столбца без документов в представлениях
- Согласованная обработка ошибок для декодирования Base64 в Spark и Photon
-
Добавление ограничения для
CHECK
недопустимого столбца теперь возвращает UNRESOLVED_COLUMN. класс ошибок WITH_SUGGESTION
VARIANT
Использование в качестве входного или выходного типа с UDF, UDAF или UDTF Python создает исключение.
[Критическое изменение] В Databricks Runtime 15.3 и более поздних версиях, вызывая любую определяемую пользователем функцию (UDF), определяемую пользователем агрегатную функцию (UDAF) или определяемую пользователем функцию таблицы (UDTF), которая использует VARIANT
тип в качестве аргумента или возвращаемого значения вызывает исключение. Это изменение делается для предотвращения проблем, которые могут возникнуть из-за недопустимого значения, возвращаемого одним из этих функций. Дополнительные сведения о типе VARIANT
см. в статье об использовании VARIANTs для хранения полуструктурированных данных.
Изменение режима привязки схемы по умолчанию для представлений
Теперь представления адаптируются к изменениям схемы в базовом запросе с помощью компенсации схемы с обычными правилами приведения. Это изменение предыдущего BINDING
режима по умолчанию, которое вызвало ошибки, когда безопасный приведение не удалось выполнить при ссылке на представление.
См. статью CREATE VIEW и cast function.
Запретить использование неподдерженного !
синтаксиса NOT
вместо логических выражений
В этом выпуске использование в качестве синонима !
за NOT
пределами логических выражений больше не допускается. Например, операторы, такие как: CREATE ... IF ! EXISTS
IS ! NULL, свойство столбца ! NULL
или поля и ! IN
! МЕЖДУ, необходимо заменить следующим образом: CREATE ... IF NOT EXISTS
, IS NOT NULL
NOT NULL
столбец или свойство поля и NOT IN
NOT BETWEEN
.
Это изменение гарантирует согласованность, соответствует стандарту SQL и делает SQL более переносимым.
Логический оператор!
префикса (например, !is_mgr
или !(true AND false)
) не влияет на это изменение.
Запретить синтаксис определения столбца без документов в представлениях
Databricks поддерживает CREATE VIEW с именованными столбцами и комментариями столбцов. Ранее спецификация типов столбцов, NOT NULL
ограничений или DEFAULT
разрешена. В этом выпуске этот синтаксис больше не используется.
Это изменение обеспечивает согласованность, соответствует стандарту SQL и поддерживает будущие улучшения.
Согласованная обработка ошибок для декодирования Base64 в Spark и Photon
В этом выпуске показано, как Photon обрабатывает ошибки декодирования Base64 в соответствии с обработкой этих ошибок Spark. Перед этими изменениями путь создания кода Photon и Spark иногда не удалось вызвать исключения синтаксического анализа, а выполнение Spark интерпретировалось IllegalArgumentException
правильно или ConversionInvalidInputError
не удалось. Это обновление гарантирует, что Photon постоянно создает те же исключения, что и Spark во время декодирования Base64, обеспечивая более прогнозируемую и надежную обработку ошибок.
Добавление ограничения для CHECK
недопустимого столбца теперь возвращает UNRESOLVED_COLUMN. класс ошибок WITH_SUGGESTION
Чтобы обеспечить более полезные сообщения об ошибках, в Databricks Runtime 15.3 и выше инструкция, содержащая ALTER TABLE ADD CONSTRAINT
ограничение, ссылающееся на недопустимое имя столбца, CHECK
возвращает UNRESOLVED_COLUMN. класс ошибок WITH_SUGGESTION. Ранее возвращался объект INTERNAL_ERROR
.
Новые функции и внесенные улучшения
- Функции проверки UTF-8
- API типизированного набора данных с помощью определяемых пользователем функций Scala
- Включение ЮниФорм Айсберга с помощью ALTER TABLE
- функция try_url_decode
- При необходимости позволяет оптимизатору полагаться на неподдерживающиеся ограничения внешнего ключа.
- Параллельное задание выполняется для выборочных перезаписей
- Улучшена производительность канала измененных данных с выборочными перезаписями
-
Улучшена задержка запросов для
COPY INTO
команды - Поддержка удаления функции таблицы ограничений проверки
- Вычисление одного пользователя поддерживает точное управление доступом, материализованные представления и таблицы потоковой передачи (общедоступная предварительная версия)
- Расширенная поддержка библиотек Java и Scala
- Расширенная поддержка операций с набором данных Scala
- Scala — это общедоступная версия в общем вычислительном ресурсе каталога Unity
- Управляемый каталогом Unity доступ к внешним облачным службам с помощью учетных данных службы (общедоступная предварительная версия)
Функции проверки UTF-8
В этом выпуске представлены следующие функции для проверки строк UTF-8:
- is_valid_utf8 проверяет, является ли строка допустимой строкой UTF-8.
- make_valid_utf8 преобразует потенциально недопустимую строку UTF-8 в допустимую строку UTF-8 с помощью символов подстановки
- validate_utf8 вызывает ошибку, если входные данные не являются допустимой строкой UTF-8.
-
try_validate_utf8 возвращается
NULL
, если входные данные не являются допустимой строкой UTF-8.
API типизированного набора данных с помощью определяемых пользователем функций Scala
Этот выпуск включает в себя добавленную поддержку api типизированного набора данных с определяемыми пользователем функциями Scala (за исключением определяемых пользователем агрегатных функций) для вычислений с поддержкой каталога Unity с общим режимом доступа. См . API типизированного набора данных.
Включение ЮниФорм Айсберга с помощью ALTER TABLE
Теперь вы можете включить UniForm Iceberg в существующих таблицах без перезаписи файлов данных. См. раздел "Включить", изменив существующую таблицу.
функция try_url_decode
В этом выпуске представлена функция try_url_decode , которая декодирует строку, закодированную URL-адресом. Если строка не имеет правильного формата, функция возвращается NULL
вместо того, чтобы вызывать ошибку.
При необходимости позволяет оптимизатору полагаться на неподдерживающиеся ограничения внешнего ключа.
Чтобы повысить производительность запросов, теперь можно указать RELY
ключевое слово по ограничениям при FOREIGN KEY
создании или изменении таблицы.
Параллельное задание выполняется для выборочных перезаписей
Выборочные перезаписи с помощью replaceWhere
заданий запуска, которые удаляют данные и вставляют новые данные параллельно, повышая производительность запросов и использование кластера.
Улучшена производительность канала измененных данных с выборочными перезаписями
Выборочные перезаписи, использующие replaceWhere
таблицы с каналом изменений, больше не записывают отдельные файлы измененных данных для вставленных данных. Эти операции используют скрытый _change_type
столбец, представленный в базовых файлах данных Parquet, для записи изменений без амплификации записи.
Улучшена задержка запросов для COPY INTO
команды
Этот выпуск включает изменение, которое улучшает задержку запроса для COPY INTO
команды. Это улучшение реализуется путем загрузки состояния в хранилище состояний RocksDB асинхронно. При этом изменении вы увидите улучшение времени начала запросов с большими состояниями, например запросы с большим количеством уже полученных файлов.
Поддержка удаления функции таблицы ограничений проверки
Теперь вы можете удалить функцию checkConstraints
таблицы из таблицы Delta с помощью ALTER TABLE table_name DROP FEATURE checkConstraints
. См. раздел "Отключить ограничения проверки".
Вычисление одного пользователя поддерживает точное управление доступом, материализованные представления и таблицы потоковой передачи (общедоступная предварительная версия)
Если рабочая область включена для бессерверных вычислений, Databricks Runtime 15.4 LTS добавляет поддержку точного управления доступом для вычислений одного пользователя. Когда запрос обращается к любому из следующих объектов, один пользователь вычислительный ресурс в Databricks Runtime 15.4 LTS передает запрос бессерверным вычислительным ресурсам для выполнения фильтрации данных:
- Представления, определенные по таблицам, для которых у пользователя нет
SELECT
прав доступа. - Динамические представления.
- Таблицы с примененными фильтрами строк или масками столбцов.
- Материализованные представления и таблицы потоковой передачи.
Эти запросы не поддерживаются при вычислении отдельных пользователей, работающих под управлением Databricks Runtime 15.3 и ниже.
Дополнительные сведения см. в разделе "Точное управление доступом" для вычислений одного пользователя.
Расширенная поддержка библиотек Java и Scala
Начиная с Databricks Runtime 15.4 LTS, все библиотеки Java и Scala, упакованные с Databricks Runtime, доступны во всех режимах доступа к вычислительным ресурсам при использовании каталога Unity. Дополнительные сведения о поддержке языков в вычислительных ресурсах с поддержкой каталога Unity см. в разделе ограничения режима доступа к вычислительным ресурсам для каталога Unity.
Расширенная поддержка операций с набором данных Scala
В этом выпуске вычислительные ресурсы с поддержкой каталога Unity, использующие режим общего доступа, поддерживают следующие операции ScalaDataset
: map
, , mapPartitions
foreachPartition
flatMap
reduce
и .filter
Scala — это общедоступная версия в общем вычислительном ресурсе каталога Unity
В этом выпуске Scala общедоступен для вычислений с поддержкой каталога Unity общего режима доступа, включая поддержку скалярных пользовательских функций (ОПРЕДЕЛЯЕМЫХ пользователем). Структурированная потоковая передача, ОПРЕДЕЛяемые пользователем функции Hive и Hive, не поддерживаются. Полный список ограничений см. в разделе "Ограничения режима доступа к вычислениям" для каталога Unity.
Управляемый каталогом Unity доступ к внешним облачным службам с помощью учетных данных службы (общедоступная предварительная версия)
Учетные данные службы обеспечивают простую и безопасную проверку подлинности с помощью служб облачного клиента с помощью управляемых удостоверений Azure (MI) и каталога Unity. См. статью "Управление доступом к внешним облачным службам с помощью учетных данных службы".
Исправления ошибок
Обновления библиотек
- Обновленные библиотеки Python:
- azure-core от 1.30.1 до 1.30.2
- google-auth от 2.29.0 до 2.31.0
- google-cloud-storage с 2.16.0 до 2.17.0
- google-resumable-media с 2.7.0 до 2.7.1
- googleapis-common-protos с 1.63.0 до 1.63.2
- mlflow-skinny от 2.11.3 до 2.11.4
- proto-plus от 1.23.0 до 1.24.0
- s3transfer от 0.10.1 до 0.10.2
- Обновленные библиотеки R:
- Обновленные библиотеки Java:
- com.databricks.databricks-sdk-java от 0.17.1 до 0.27.0
- com.ibm.icu.icu4j от 72.1 до 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider от 1.6.1-linux-x86_64 до 1.6.2-linux-x86_64
Apache Spark
Databricks Runtime 15.4 LTS включает Apache Spark 3.5.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 15.3, и следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:
- [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Разрешить группирование выражений в скалярных вложенных запросах, если они привязаны к внешним строкам
- [SPARK-48834] [ПОВЕДЕНИЕ-79][SC-170972][SQL] Отключение вариантных входных и выходных данных для скалярных определяемых пользователем python, определяемых пользователем пользователем, UDTFs, UDAFs во время компиляции запросов
- [SPARK-48441] [SC-170980][SQL][ТЕПЛОФИКС] Исправлено поведение StringTrim для параметров сортировки, отличных от UTF8_BINARY
- [SPARK-48440] [SC-170895][SQL][ТЕПЛОФИКС] Исправление поведения StringTranslate для параметров сортировки без UTF8_BINARY
- [SPARK-48872] [SC-170866][PYTHON] Сокращение затрат на _capture_call_site
-
[SPARK-48862] [SC-170845][PYTHON][CONNECT] Избегайте вызова
_proto_to_string
, если уровень INFO не включен - [SPARK-48852] [SC-170837][CONNECT] Исправлена функция обрезки строки при подключении
- [SPARK-48791] [SC-170658][CORE] Исправление регрессии, вызванной затратами на регистрацию аккумуляторов с помощью CopyOnWriteArrayList
-
[SPARK-48118] [SQL] Поддержка
SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
переменной env - [SPARK-48241] [SC-165811][SQL] Сбой синтаксического анализа CSV с столбцами типа char/varchar
- [SPARK-48168] [SC-166900][SQL] Добавление поддержки операторов перемещений по битовой стрелке
- [SPARK-48148] [SC-165630][CORE] Объекты JSON не должны изменяться при чтении как STRING
- [SPARK-46625] [SC-170561] CTE с предложением Identifier в качестве ссылки
-
[SPARK-48771] [SC-170546][SQL]
LogicalPlanIntegrity.validateExprIdUniqueness
Ускорение для больших планов запросов -
[SPARK-48831] [ПОВЕДЕНИЕ-76][SC-170554][CONNECT] Создание имени столбца по умолчанию для совместимости с Классической
cast
версией Spark - [SPARK-48623] [SC-170544][CORE] Структурированные миграции журналов [часть 2]
-
[SPARK-48296] [SC-166138][SQL] Поддержка Codegen для
to_xml
- [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter для многоуровневого соединения должен проверять тип дочернего соединения
- [SPARK-48686] [SC-170365][SQL] Повышение производительности ParserUtils.unescapeSQLString
-
[SPARK-48798] [SC-170588][PYTHON] Введение
spark.profile.render
в профилирование на основе SparkSession - [SPARK-48048] [SC-169099] Возврат "[SC-164846][CONNECT][SS] Добавлена поддержка прослушивателя на стороне клиента для Scala"
- [SPARK-47910] [SC-168929][CORE] закройте поток при закрытии DiskBlockObjectWriter, чтобы избежать утечки памяти
- [SPARK-48816] [SC-170547][SQL] Короткое число преобразователей интервалов в UnivocityParser
- [SPARK-48589] [SC-170132][SQL][SS] Добавление параметра snapshotStartBatchId и snapshotPartitionId в источник данных состояния
- [SPARK-48280] [SC-170293][SQL] Улучшение области тестирования сортировки с помощью пошагового выражения
- [SPARK-48837] [SC-170540][ML] В CountVectorizer считывает только двоичный параметр один раз на преобразование, а не один раз на строку
- [SPARK-48803] [SC-170541][SQL] Вызов внутренней ошибки в сериализаторе Orc(De)для выравнивания с ParquetWriteSupport
- [SPARK-48764] [SC-170129][PYTHON] Фильтрация кадров, связанных с IPython, из пользовательского стека
-
[SPARK-48818] [SC-170414][PYTHON] Упрощение
percentile
функций - [SPARK-48479] [SC-169079][SQL] Поддержка создания скалярных и табличных определяемых пользователем SQL в средство синтаксического анализа
- [SPARK-48697] [SC-170122][LC-4703][SQL] Добавление фильтров строк с поддержкой сортировки
- [SPARK-48800] [SC-170409][CONNECT][SS] Deflake ClientStreamingQuerySuite
-
[SPARK-48738] [SC-169814][SQL] Правильно, так как версия для встроенного псевдонима
random
func,position
,mod
cardinality
,current_schema
,user
session_user
char_length
character_length
- [SPARK-48638] [SC-169575][CONNECT] Добавление поддержки ExecutionInfo для Кадра данных
- [SPARK-48064] [SC-164697][SQL] Обновление сообщений об ошибках для стандартных связанных классов ошибок
- [SPARK-48810] [CONNECT] API остановки сеанса () должен быть идемпотентным и не завершается ошибкой, если сеанс уже закрыт сервером
- [SPARK-48650] [15.x][PYTHON] Отображение правильного сайта вызова из IPython Notebook
- [SPARK-48271] [SC-166076][SQL] Преобразование ошибки сопоставления в RowEncoder в UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][SQL] Исправление несоответствия разрешения типов varchar для CTAS DataSourceV2
- [SPARK-48792] [SC-170335][SQL] Исправлена регрессия для INSERT с частичным списком столбцов в таблицу с помощью char/varchar
-
[SPARK-48767] [SC-170330][SQL] Исправление некоторых ошибок
variant
при недопустимых данных типа -
[SPARK-48719] [SC-170339][SQL] Исправлена ошибка
RegrSlope
вычисления иRegrIntercept
когда первый параметр имеет значение NULL - [SPARK-48815] [SC-170334][CONNECT] Обновление среды при остановке сеанса подключения
- [SPARK-48646] [SC-169020][PYTHON] Уточнение подсказок по API источника данных Python и подсказок типов
- [SPARK-48806] [SC-170310][SQL] Передача фактического исключения при сбое url_decode
- [SPARK-47777] [SC-168818] исправлен тест подключения источника данных потоковой передачи Python
-
[SPARK-48732] [SC-169793][SQL] Очистка нерекомендуемого использования API, связанного с
JdbcDialect.compileAggregate
- [SPARK-48675] [SC-169538][SQL] Исправление таблицы кэша с сортировкой столбца
- [SPARK-48623] [SC-169034][CORE] Структурированные миграции журналов
- [SPARK-48655] [SC-169542][SQL] SPJ: добавление тестов для перетасовки пропуска для агрегированных запросов
- [SPARK-48586] [SC-169808][SS] Удаление приобретения блокировки в doMaintenance() путем создания глубокой копии сопоставлений файлов в RocksDBFileManager в load()
- [SPARK-48799] [Backport][15.x][SC-170283][SS] Рефакторинг версий для метаданных оператора считывает и записывает и вызывает
- [SPARK-48808] [SC-170309][SQL] Исправление NPE при подключении thriftserver через Hive 1.2.1 и пустая схема результата
- [SPARK-48715] [SC-170291][SQL] Интеграция проверки UTF8String в реализации строковых функций с поддержкой сортировки
- [SPARK-48747] [SC-170120][SQL] Добавление итератора точек кода в UTF8String
- [SPARK-48748] [SC-170115][SQL] Кэш numChars в UTF8String
- [SPARK-48744] [SC-169817][Ядро] Запись журнала должна быть создана только один раз
-
[SPARK-46122] [SC-164313][SQL] Задано
spark.sql.legacy.createHiveTableByDefault
поfalse
умолчанию - [SPARK-48765] [SC-170119][РАЗВЕРТЫВАНИЕ] Повышение оценки значений по умолчанию для SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][SQL] Добавление документации по миграции для изменения поведения CREATE TABLE AS SELECT с момента изменения поведения Spark 3.4
- [SPARK-48598] [SC-169484][PYTHON][CONNECT] Распространение кэшированных схем в операциях с кадрами данных
-
[SPARK-48766] [SC-170126][PYTHON] Документируйте разницу
extraction
в поведении междуelement_at
иtry_element_at
-
[SPARK-48768] [SC-170124][PYTHON][CONNECT] Не следует кэшировать
explain
- [SPARK-48770] [Backport][15.x][SC-170133][SS] Измените метаданные оператора чтения один раз на драйвере, чтобы проверить, можно ли найти сведения о numColsPrefixKey, используемых для запросов окна сеанса
-
[SPARK-48656] [SC-169529][CORE] Выполните проверку длины и вызовите ошибку COLLECTION_SIZE_LIMIT_EXCEEDED
CartesianRDD.getPartitions
- [SPARK-48597] [SC-168817][SQL] Введение маркера для свойства IsStreaming в текстовом представлении логического плана
- [SPARK-48472] [SC-169044][SQL] Включение выражений отражения со строками сортировки
- [SPARK-48699] [SC-169597][SQL] Уточнение API сортировки
- [SPARK-48682] [SC-169812][SQL][ПОВЕДЕНИЕ-58] Использование ICU в выражении InitCap для строк UTF8_BINARY
- [SPARK-48282] [SC-169813][SQL] Изменение логики поиска строк для сортировки UTF8_BINARY_LCASE (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][SQL] Включение поддержки сортировки для выражения Mode
- [SPARK-48320] [SPARK-48490] Синхронизация последних примеров ведения журнала и тестовых случаев из OSS Spark
- [SPARK-48629] [SC-169479] Перенос остаточного кода в структурированную платформу ведения журнала
- [SPARK-48681] [SC-169469][SQL][ПОВЕДЕНИЕ-58] Использование ICU в выражениях нижнего или верхнего уровня для строк UTF8_BINARY
- [SPARK-48573] [15.x][SC-169582][SQL] Обновление версии ICU
- [SPARK-48687] [Backport][15.x][SS] Добавление изменений для выполнения проверки схемы состояния и обновления драйвера для запросов с отслеживанием состояния
- [SPARK-47579] [15.x][SC-167310][CORE][ЧАСТЬ4] Перенос logInfo с переменными в структурированную платформу ведения журнала
- [SPARK-48008] [SC-167363][1/2] Поддержка UDAFs в Spark Connect
- [SPARK-48578] [SC-169505][SQL] добавление связанных функций проверки строк UTF8
- [SPARK-48670] [SC-169598][SQL] Предоставление предложения в рамках сообщения об ошибке при указании недопустимого имени сортировки
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPA... … RK-48291] Структурированная платформа журнала на стороне Java
- [SPARK-47599] [15.x][SC-1660000][MLLIB] MLLib: перенос logWarn с переменными в структурированную платформу ведения журнала
- [SPARK-48706] [SC-169589][PYTHON] UDF Python в функциях более высокого порядка не должен вызывать внутреннюю ошибку
- [SPARK-48498] [ПОВЕДЕНИЕ-38][SC-168060][SQL] Всегда выполнять заполнение символов в предикатах
- [SPARK-48662] [SC-169533][SQL] Исправление выражения StructsToXml с помощью параметров сортировки
- [SPARK-48482] [SC-167702][PYTHON][15.x] dropDuplicates и dropDuplicatesWIthinWatermark должны принимать args переменной длины
- [SPARK-48678] [SC-169463][CORE] Оптимизация производительности для SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] Переименование UTF8_BINARY_LCASE в UTF8_LCASE
- [SPARK-47927] [SC-164123][SQL]: исправление атрибута nullability в декоде UDF
- [SPARK-47579] [SC-165297][CORE][ЧАСТЬ1] Перенос logInfo с переменными в структурированную платформу ведения журнала (новая)
-
[SPARK-48695] [SC-169473][PYTHON]
TimestampNTZType.fromInternal
не используйте устаревшие методы - [SPARK-48431] [SC-167290][LC-4066][SQL] Не перенаправляете предикаты в столбцы с сортировкой в средства чтения файлов
- [SPARK-47579] Возврат "[SC-165297][CORE][PART1] Миграция logInfo с переменными в структурированную платформу ведения журнала"
- [SPARK-47585] [SC-164306][SQL] SQL Core: перенос logInfo с переменными в структурированную платформу ведения журнала
- [SPARK-48466] [SC-169042][SQL] Создание выделенного узла для EmptyRelation в AQE
- [SPARK-47579] [SC-165297][CORE][ЧАСТЬ1] Перенос logInfo с переменными в структурированную платформу ведения журнала
- [SPARK-48410] [SC-168320][SQL] Исправлено выражение InitCap для параметров сортировки UTF8_BINARY_LCASE и ICU
- [SPARK-48318] [SC-167709][SQL] Включение поддержки хэш-соединения для всех параметров сортировки (сложные типы)
- [SPARK-48435] [SC-168128][SQL] Параметры сортировки ЮНИКОД не должны поддерживать двоичное равенство
- [SPARK-48555] [SC-169041][SQL][PYTHON][CONNECT] Поддержка использования столбцов в качестве параметров для нескольких функций в pyspark/scala
-
[SPARK-48591] [SC-169081][PYTHON] Добавление вспомогательной функции для упрощения
Column.py
- [SPARK-48574] [SC-169043][SQL] Исправлена поддержка StructTypes с параметрами сортировки
- [SPARK-48305] [SC-166390][SQL] Добавление поддержки сортировки для выражений CurrentLike
- [SPARK-48342] [SC-168941][SQL] Общие сведения о синтаксическом анализе сценариев SQL
- [SPARK-48649] [SC-169024][SQL] Добавление конфигураций ignoreInvalidPartitionPaths и "spark.sql.files.ignoreInvalidPartitionPaths" позволяет игнорировать недопустимые пути секции
- [SPARK-48000] [SC-167194][SQL] Включение поддержки хэш-соединения для всех параметров сортировки (StringType)
- [SPARK-48459] [SC-168947][CONNECT][PYTHON] Реализация DataFrameQueryContext в Spark Connect
- [SPARK-48602] [SC-168692][SQL] Создание генератора csv-файлов поддерживает другой стиль вывода с помощью spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][SQL] Изменение сравнения строк для UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830]Рефакторинг [SQL]: используйте вспомогательный idMap вместо OP_ID_TAG
- [SPARK-48634] [SC-169021][PYTHON][CONNECT] Избегайте статической инициализации threadpool в ExecutePlanResponseReattachableIterator
- [SPARK-47911] [SC-164658][SQL] Представляет универсальный binaryFormatter для обеспечения согласованности двоичных выходных данных
- [SPARK-48642] [SC-168889][CORE] False SparkOutOfMemoryError, вызванная задачей убийства при разливе
- [SPARK-48572] [SC-168844][SQL] Исправление выражений DateSub, DateAdd, WindowTime, TimeWindow и SessionWindow
- [SPARK-48600] [SC-168841][SQL] Исправление неявного приведения выражений FrameLessOffsetWindowFunction
- [SPARK-48644] [SC-168933][SQL] Выполните проверку длины и вызовите ошибку COLLECTION_SIZE_LIMIT_EXCEEDED в Hex.hex
- [SPARK-48587] [SC-168824][VARIANT] Избегайте увеличения объема хранилища при доступе к вложенной версии
-
[SPARK-48647] [SC-168936][PYTHON][CONNECT] Уточнение сообщения об ошибке для
YearMonthIntervalType
indf.collect
- [SPARK-48307] [SC-167802][SQL] InlineCTE должен хранить нелинейные отношения в исходном узле WithCTE
- [SPARK-48596] [SC-168581][SQL] Улучшение perf для вычисления шестнадцатеричной строки в течение длительного времени
- [SPARK-48621] [SC-168726][SQL] Исправление как упрощение в оптимизаторе для сортировки строк
- [SPARK-47148] [SC-164179][SQL] Избегайте материализации AQE ExchangeQueryStageExec при отмене
- [SPARK-48584] [SC-168579][SQL] Улучшение Perf для unescapePathName
- [SPARK-48281] [SC-167260][SQL] Изменение логики поиска строк для сортировки UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][SQL] Недопустимая замена последовательности байтов UTF-8
-
[SPARK-48595] [SC-168580][CORE] Очистка нерекомендуемого использования API, связанного с
commons-compress
- [SPARK-48030] [SC-164303][SQL] SPJ: кэширование rowOrdering и structType для InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][SQL] Добавление признака WriteFilesExecBase для записи версии 1
- [SPARK-48551] [SC-168438][SQL] Улучшение perf для escapePathName
- [SPARK-48565] [SC-168437][пользовательский интерфейс] Исправление отображения дампа потоков в пользовательском интерфейсе
- [SPARK-48364] [SC-166782][SQL] Добавление приведения типов AbstractMapType и исправление сопоставления параметров RaiseError для работы со строками сортировки
- [SPARK-48421] [SC-168689][SQL] SPJ: добавление документации
-
[SPARK-48604] [SC-168698][SQL] Замена нерекомендуемого
new ArrowType.Decimal(precision, scale)
вызова метода - [SPARK-46947] [SC-157561][CORE] Задержка инициализации диспетчера памяти до загрузки подключаемого модуля Driver
- [SPARK-48411] [SC-168576][SS][PYTHON] Добавление теста E2E для DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697][SS] Отслеживание сбоев проверки строк состояния с помощью явного класса ошибок
- [SPARK-48221] [SC-167143][SQL] Изменение логики поиска строк для сортировки UTF8_BINARY_LCASE (Содержит, StartsWith, EndsWith, StringLocate)
- [SPARK-47415] [SC-168441][SQL] Добавление поддержки сортировки для выражения Levenshtein
- [SPARK-48593] [SC-168719][PYTHON][CONNECT] Исправление строкового представления лямбда-функции
- [SPARK-48622] [SC-168710][SQL] получите SQLConf один раз при разрешении имен столбцов
-
[SPARK-48594] [SC-168685][PYTHON][CONNECT] Переименование
parent
поляchild
вColumnAlias
- [SPARK-48403] [SC-168319][SQL] Исправление нижних и верхних выражений для параметров сортировки UTF8_BINARY_LCASE и ICU
- [SPARK-48162] [SC-166062][SQL] Добавление поддержки сортировки для выражений MISC
- [SPARK-48518] [SC-167718][CORE] Параллельное выполнение сжатия LZF
-
[SPARK-48474] [SC-167447][CORE] Исправление имени класса для входа
SparkSubmitArguments
и >.SparkSubmit
- [SPARK-48012] [SC-168267][SQL] SPJ: поддержка трансфромных выражений для одностороннего перетасовки
- [SPARK-48552] [SC-168212][SQL] вывод схемы CSV с несколькими строками также должен вызывать FAILED_READ_FILE
- [SPARK-48560] [SC-168268][SS][PYTHON] Создание settable StreamingQueryListener.spark
- [SPARK-48569] [SC-168321][SS][CONNECT] Обработка пограничных вариантов в query.name
- [SPARK-47260] [SC-167323][SQL] Назначение имени классу ошибок _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327][PYTHON][CONNECT] Распространение кэшированных схем в операциях набора
- [SPARK-48155] [SC-165910][SQL] AQEPropagateEmptyRelation для соединения должен проверить, является ли оставшийся дочерним элементом только BroadcastQueryStageExec
- [SPARK-48506] [SC-167720][CORE] Короткие имена кодека сжатия не учитывает регистр, за исключением ведения журнала событий
- [SPARK-48447] [SC-167607][SS] Проверьте класс поставщика хранилища состояний перед вызовом конструктора
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff и DateTimeUtils.timestampAdd не должны вызывать исключение INTERNAL_ERROR
- [SPARK-48513] [Backport][15.x][SC-168085][SS] Добавление класса ошибок для совместимости схемы состояния и дополнительного рефакторинга
- [SPARK-48413] [SC-167669][SQL] ALTER COLUMN с параметрами сортировки
-
[SPARK-48561] [SC-168250][PS][CONNECT] Создание
PandasNotImplementedError
неподдерживаемых функций построения - [SPARK-48465] [SC-167531][SQL] Избегайте распространения пустых связей без опов
- [SPARK-48553] [SC-168166][PYTHON][CONNECT] Кэширование дополнительных свойств
- [SPARK-48540] [SC-168069][CORE] Избегайте настройки загрузки выходных данных в stdout
- [SPARK-48535] [SC-168057][SS] Обновление документации по конфигурации, чтобы указать возможность потери и повреждения данных, если включена настройка пропуска значений NULL для соединений потокового потока.
- [SPARK-48536] [SC-168059][PYTHON][CONNECT] Кэшировать указанную схему в applyInPandas и applyInArrow
- [SPARK-47873] [SC-163473][SQL] Запись параметров сортировки в хранилище метаданных Hive с помощью обычного типа строки
- [SPARK-48461] [SC-167442][SQL] Замените NullPointerExceptions классом ошибок в выражении AssertNotNull
- [SPARK-47833] [SC-163191][SQL][CORE] Указание стека вызывающего абонента для checkAndGlobPathIfNecesary AnalysisException
- [SPARK-47898] [SC-163146][SQL] Порт HIVE-12270: добавление поддержки DBTokenStore в токен делегирования HS2
- [SPARK-47578] [SC-167497][R] Миграция RPackageUtils с переменными в структурированную платформу ведения журнала
-
[SPARK-47875] [SC-162935][CORE] Убирать
spark.deploy.recoverySerializer
-
[SPARK-47552] [SC-160880][CORE] Установите
spark.hadoop.fs.s3a.connection.establish.timeout
значение 30-х, если отсутствует - [SPARK-47972] [SC-167692][SQL] Ограничение выражения CAST для параметров сортировки
- [SPARK-48430] [SC-167489][SQL] Исправление извлечения значений карты при сопоставлении строк с сортировкой
- [SPARK-47318] [SC-162712][CORE][3.5] Добавляет раунд HKDF в производное ключ AuthEngine для выполнения стандартных методик KEX
- [SPARK-48503] [ПОВЕДЕНИЕ-29][ES-1135236][SQL] Исправление недопустимых скалярных вложенных запросов с помощью столбцов, не являющихся эквивалентными для групп, которые были неправильно разрешены
-
[SPARK-48508] [SC-167695][CONNECT][PYTHON] Кэшировать указанную схему пользователя в
DataFrame.{to, mapInPandas, mapInArrow}
- [SPARK-23015] [SC-167188][WINDOWS] Исправлена ошибка в Windows, при которой запуск нескольких экземпляров Spark в течение одного и того же второго приводит к сбою
- [SPARK-45891] [SC-167608]Вернитесь на "Описание схемы измельчения для Variant"
- [SPARK-48391] [SC-167554][CORE]Использование addAll вместо добавления функции из методаAccumulatorInfos класса TaskMetrics
- [SPARK-48496] [SC-167600][CORE] Использование статических экземпляров шаблонов regex в JavaUtils.timeStringAs и JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][SQL] исправлено сообщение об ошибке NPE для CSV-файла null delmiter
- [SPARK-48489] [SC-167598][SQL] Создание лучшей ошибки с пользователем при чтении незаконной схемы из текстового источника данных
- [SPARK-48471] [SC-167324][CORE] Улучшение документации и руководства по использованию сервера журнала
- [SPARK-45891] [SC-167597] Описание схемы измельчения для Variant
-
[SPARK-47333] [SC-159043][SQL] Проверка типов параметров функции с помощью checkInputDataTypes
to_xml
- [SPARK-47387] [SC-159310][SQL] Удаление некоторых неиспользуемых классов ошибок
- [SPARK-48265] [ES-1131440][SQL] Пакет ограничения группы выводов должен выполнять константную свертку
- [SPARK-47716] [SC-167444][SQL] Избегайте конфликта имен представления в тестовом случае семантической сортировки SQLQueryTestSuite
- [SPARK-48159] [SC-167141][SQL] Расширение поддержки сортировки строк в выражениях datetime
- [SPARK-48462] [SC-167271][SQL][Тесты] Использование сSQLConf в тестах: рефакторинг HiveQuerySuite и HiveTableScanSuite
-
[SPARK-48392] [SC-167195][CORE] Также загружается
spark-defaults.conf
при указании--properties-file
- [SPARK-48468] [SC-167417] Добавление интерфейса LogicalQueryStage в катализатор
- [SPARK-47578] [SC-164988][CORE] Ручной серверный порт для Spark PR #46309: перенос logWarning с переменными в структурированную платформу ведения журнала
- [SPARK-48415] [SC-167321]Вернуть "[PYTHON] Refactor TypeName для поддержки параметризованных типов данных"
- [SPARK-46544] [SC-151361][SQL] Поддержка версии 2 DESCRIBE TABLE EXTENDED с табличными статистиками
- [SPARK-48325] [SC-166963][CORE] Всегда указывать сообщения в ExecutorRunner.killProcess
- [SPARK-46841] [SC-167139][SQL] Добавление поддержки сортировки для языковых стандартов ICU и описателей сортировки
- [SPARK-47221] [SC-157870][SQL] Использует подписи из CsvParser в AbstractParser
-
[SPARK-47246] [SC-158138][SQL] Замена
InternalRow.fromSeq
наnew GenericInternalRow
сохранение преобразования коллекции - [SPARK-47597] [SC-163932][ПОТОКОВАЯ ПЕРЕДАЧА] Ручной серверный порт для Spark PR #46192: потоковая передача: миграция logInfo с переменными в структурированную платформу ведения журнала
-
[SPARK-48415] [SC-167130][PYTHON] Рефакторинг
TypeName
для поддержки параметризованных типов данных -
[SPARK-48434] [SC-167132][PYTHON][CONNECT] Использование
printSchema
кэшированных схем - [SPARK-48432] [ES-1097114][SQL] Избегайте распаковки целых чисел в UnivocityParser
- [SPARK-47463] [SC-162840][SQL] Использование версии 2Predicate для упаковки выражения с типом возвращаемого логического значения
- [SPARK-47781] [SC-162293][SQL] Обработка отрицательных десятичных разрядов для источников данных JDBC
- [SPARK-48394] [SC-166966][CORE] Очистка mapIdToMapIndex в mapoutput unregister
- [SPARK-47072] [SC-156933][SQL] Исправление поддерживаемых форматов интервалов в сообщениях об ошибках
- [SPARK-47001] [SC-162487][SQL] Проверка pushdown в оптимизаторе
-
[SPARK-48335] [SC-166387][PYTHON][CONNECT] Совместимость
_parse_datatype_string
с Spark Connect -
[SPARK-48329] [SC-166518][SQL] Включить
spark.sql.sources.v2.bucketing.pushPartValues.enabled
по умолчанию - [SPARK-48412] [SC-166898][PYTHON] Анализ типа данных рефакторинга json
- [SPARK-48215] [SC-166781][SQL] Расширение поддержки сортировки строк в выражении date_format
- [SPARK-45009] [SC-166873][SQL][ДАЛЬНЕЙШИЕ ДЕЙСТВИЯ] Добавление класса ошибок и тестов для декоррелации вложенных запросов предиката в условии соединения, ссылающихся на дочерний элемент соединения
- [SPARK-47960] [SC-165295][SS][15.x] Разрешить цепочку других операторов с отслеживанием состояния после преобразованияWithState.
- [SPARK-48340] [SC-166468][PYTHON] Отсутствует prefer_timestamp_ntz схемы вывода timestampNTZ
- [SPARK-48157] [SC-165902][SQL] Добавление поддержки сортировки для выражений CSV
- [SPARK-48158] [SC-165652][SQL] Добавление поддержки сортировки для XML-выражений
- [SPARK-48160] [SC-166064][SQL] Добавление поддержки сортировки для выражений XPATH
- [SPARK-48229] [SC-165901][SQL] Добавление поддержки сортировки для выражений inputFile
- [SPARK-48367] [SC-166487][CONNECT] Исправление lint-scala для scalafmt, чтобы определить правильное форматирование файлов
- [SPARK-47858] [SC-163095][SPARK-47852][PYTHON][SQL] Рефакторинг структуры для контекста ошибки DataFrame
- [SPARK-48370] [SC-166787][CONNECT] Контрольная точка и localCheckpoint в клиенте Scala Spark Connect
- [SPARK-48247] [SC-166028][PYTHON] Использование всех значений в дикте при выводе схемы MapType
-
[SPARK-48395] [SC-166794][PYTHON] Исправление
StructType.treeString
для параметризованных типов -
[SPARK-48393] [SC-166784][PYTHON] Перемещение группы констант в
pyspark.util
-
[SPARK-48372] [SC-166776][SPARK-45716][PYTHON] Орудие
StructType.treeString
- [SPARK-48258] [SC-166467][PYTHON][CONNECT] Контрольная точка и localCheckpoint в Spark Connect
Ознакомьтесь с обновлениями обслуживания Databricks Runtime 15.4 LTS.
Системная среда
- Операционная система: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Установленные библиотеки Python
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.2 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
щелчок | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
контурная диаграмма | 1.0.5 | криптография | 41.0.3 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | distlib | 0.3.8 |
entrypoints | 0,4 | executing | 0.8.3 | facets-overview | 1.1.1 |
filelock | 3.13.4 | шрифтовые инструменты | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.31.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.17.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.1 | googleapis-common-protos | 1.63.2 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3,4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | нажатие клавиш | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | во внешнем виде | 23,2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
график | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.24.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6,0 | pyzmq | 23.2.0 |
requests | 2.31.0 | rsa | 4,9 | s3transfer | 0.10.2 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | мореборн | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | six | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5,11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | unattended-upgrades | 0,1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wheel | 0.38.4 | zipp | 3.11.0 |
Установленные библиотеки R
Библиотеки R устанавливаются из моментального снимка Posit диспетчер пакетов CRAN.
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
Стрелка | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
внутренние порты | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | большой двоичный объект | 1.2.4 | загрузка | 1.3-28 |
заваривать | 1.0-10 | brio | 1.1.4 | метла | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | вызывающий объект | 3.7.3 |
крышка | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
clock | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | компилятор | 4.3.2 |
config | 0.3.2 | Противоречие | 1.2.0 | cpp11 | 0.4.7 |
карандаш | 1.5.2 | учетные данные | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | наборы данных | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | средства разработки | 2.4.5 |
Схема | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | многоточие | 0.3.2 | evaluate | 0,23 |
вентиляторы | 1.0.6 | Farver | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
иностранный | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
будущее | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
Универсальные шаблоны | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.2 | клей | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Говер | 1.0.1 |
графика | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
высокий | 0.10 | hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Итераторы | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | трикотажный | 1,45 | маркирование | 0.4.3 |
later | 1.3.2 | решётка | 0.21-8 | Lava | 1.7.3 |
жизненный цикл | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | Markdown | 1.12 | МАССАЧУСЕТС | 7.3-60 |
«Матрица» | 1.5-4.1 | memoise | 2.0.1 | оплаты | 4.3.2 |
mgcv | 1.8-42 | мим | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
parallelly | 1.36.0 | столб | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | хвалить | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | Ход выполнения | 1.2.3 |
progressr | 0.14.0 | promises | 1.2.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
ReactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
Рецепты | 1.0.9 | реванш | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
весы | 1.3.0 | селектор | 0.4-2 | sessioninfo | 1.2.2 |
форма | 1.4.6 | блестящий | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | пространственный | 7.3-15 | Сплайны | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
статистика4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
выживание | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
TimeDate | 4032.109 | tinytex | 0,49 | средства | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | служебные программы | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | усы | 0.4.1 |
withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
Установленные библиотеки Java и Scala (версия кластера Scala 2.12)
ИД группы | Идентификатор артефакта | Версия |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | потоковая передача | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1–0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | джексон-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | профилировщик | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.1.1 |
io.dropwizard.metrics | метрики-заметки | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | коллектор | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1,3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | arrow-format | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | arrow-vector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4. |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-шейд-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-шейд-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4,23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | Eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | Scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |