Compartir a través de


Biblioteca BulkExecutor para Java: Información de descarga

SE APLICA A: NoSQL

Importante

No se trata de la versión del SDK de Bulk Executor para Java de Azure Cosmos DB más reciente. Considere la posibilidad de usar el SDK de Java v4 de Azure Cosmos DB para realizar operaciones masivas. Para realizar la actualización, siga las instrucciones que se indican en la guía Migración de la aplicación para usar el SDK de Azure Cosmos DB para Java v4 y la guía de Reactor frente a RxJava.

Importante

El 29 de febrero de 2024 se retirará el SDK de Java v2.x de Azure Cosmos DB Sync; el SDK y todas las aplicaciones que lo usan, incluido Bulk Executor, seguirán funcionando; Azure Cosmos DB simplemente dejará de proporcionar mantenimiento y soporte técnico para este SDK. Se recomienda seguir las instrucciones anteriores para migrar al SDK de Java v4 de Azure Cosmos DB.

Vínculo/notas
Descripción La biblioteca BulkExecutor permite a las aplicaciones cliente realizar operaciones en masa en las cuentas de Azure Cosmos DB. La biblioteca BulkExecutor proporciona los espacios de nombres BulkImport y BulkUpdate. El módulo BulkImport puede ingerir documentos en masa de forma optimizada, de tal forma que la capacidad de proceso aprovisionada para una colección se consuma en el máximo nivel posible. El módulo BulkUpdate puede actualizar en masa los datos existentes en los contenedores de Azure Cosmos DB como revisiones.
Descarga del SDK Maven
Biblioteca BulkExecutor en GitHub GitHub
Documentación de la API Documentación de referencia de API
Introducción Introducción al SDK de Java para la biblioteca BulkExecutor
Tiempo de ejecución mínimo admitido Java Development Kit (JDK) 7+

Notas de la versión

2.12.3

  • Corrección de la directiva de reintentos cuando GoneException se encapsula en IllegalStateException: este cambio es necesario para asegurarse de que la memoria caché de Gateway se actualiza en la versión 410 para que el conector de Spark (en Spark 2.4) pueda usar una directiva de reintentos personalizada a fin de permitir que las consultas se realicen correctamente durante las divisiones de particiones.

2.12.2

  • Corrección de un error que daba como resultado que los documentos no se importaran siempre en caso de errores transitorios.

2.12.1

  • Actualización para usar la última versión del SDK de Azure Cosmos DB Core.

2.12.0

  • Mejora del control del presupuesto de RU que se proporciona a través del conector de Spark para una operación masiva. Se realiza una importación en bloque única inicial desde el conector de Spark con un valor baseBatchSize y se recopila el consumo de RU para la importación en bloque anterior. Se calcula el valor miniBatchSizeAdjustmentFactor en función del consumo de RU anterior y se toma como base para ajustar el tamaño del mini lote. En función del tiempo transcurrido y del consumo de RU para cada importación por lotes, se calcula una duración de la suspensión para limitar el consumo de RU por segundo y se usa para pausar el subproceso antes de la importación por lotes siguiente.

2.11.0

  • Corrección de un error que impedía las actualizaciones masivas al usar una clave de partición anidada.

2.10.0

  • Corrección de DocumentAnalyzer.java para extraer correctamente los valores de clave de partición anidada de JSON.

2.9.4

  • Se agregó una funcionalidad en las operaciones BulkDelete para volver a intentarlo en determinados errores, así como para devolver al usuario una lista de errores que se pueden reintentar.

2.9.3

  • Actualización de la versión del SDK de Azure Cosmos DB SDK a 2.4.7.

2.9.2

  • Corrección de "mergeAll" para continuar en "id" y el valor de la clave de partición, de modo que las propiedades de documento con revisiones que se coloquen después de "id" y el valor de clave de partición se agreguen a la lista de elementos actualizados.

2.9.1

  • Actualización del grado de simultaneidad de inicio a 1 y adición de registros de depuración para minilote.