funzione generatore con valore explode
table
Si applica a: Databricks SQL Databricks Runtime
Restituisce un numero di set righe aprendo l'annidamento di collection
.
In Databricks SQL e Databricks Runtime 13.3 LTS e versioni successive questa funzione supporta la chiamata di parametri denominati.
Sintassi
explode(collection)
Argomenti
-
collection
: espressioneARRAY
oMAP
.
Valori restituiti
Un set di righe composte dagli elementi della matrice o dalle chiavi e values della mappa.
Il column prodotto da explode
di una matrice è denominato col
.
I columns per una mappa sono chiamati key
e value
.
Se collection
non viene NULL
generata alcuna riga. Per restituire una singola riga con NULL
per la matrice o la mappa values, utilizzare la funzione explode_outer().
Si applica a: Databricks Runtime 12.1 e versioni precedenti:
explode
può essere inserito solo nellaSELECT
list come radice di un'espressione o dopo un LATERAL VIEW. Quando si inserisce la funzione nelSELECT
list non deve esistere un'altra funzione generatrice nella stessaSELECT
list o UNSUPPORTED_GENERATOR.MULTI_GENERATOR viene sollevato.Si applica a: Databricks SQL Databricks Runtime 12.2 LTS e versioni successive:
La chiamata dalla clausola LATERAL VIEW o dalla
SELECT
list è deprecata. Richiamareexplode
invece come table_reference.
Esempi
Si applica a: Databricks SQL Databricks Runtime 12.1 e versioni precedenti:
> SELECT explode(array(10, 20)) AS elem, 'Spark';
10 Spark
20 Spark
> SELECT explode(map(1, 'a', 2, 'b')) AS (num, val), 'Spark';
1 a Spark
2 b Spark
> SELECT explode(array(1, 2)), explode(array(3, 4));
Error: UNSUPPORTED_GENERATOR.MULTI_GENERATOR
-- The difference between explode() and explode_outer() is that explode_outer() returns NULL if the array is NULL.
> SELECT explode_outer(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
10 Spark
20 Spark
NULL Spark
> SELECT explode(c1) AS elem, 'Spark' FROM VALUES(array(10, 20)), (null) AS T(c1);
10 Spark
20 Spark
Si applica a: Databricks SQL Databricks Runtime 12.2 LTS e versioni successive:
> SELECT elem, 'Spark' FROM explode(array(10, 20)) AS t(elem);
10 Spark
20 Spark
> SELECT num, val, 'Spark' FROM explode(map(1, 'a', 2, 'b')) AS t(num, val);
1 a Spark
2 b Spark
> SELECT * FROM explode(array(1, 2)), explode(array(3, 4));
1 3
1 4
2 3
2 4
-- Using lateral correlation in Databricks 12.2 and above
> SELECT * FROM explode(array(1, 2)) AS t, LATERAL explode(array(3 * t.col, 4 * t.col));
1 3
1 4
2 6
2 8