INSERT OVERWRITE DIRECTORY
Si applica a: Databricks SQL Databricks Runtime
Sovrascrive i dati esistenti nella directory con i nuovi valori usando un formato di file Spark specificato. Specificare la riga inserita per espressioni di valore o il risultato di una query.
Sintassi
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parametri
directory_path
Directory di destinazione. Può anche essere specificato in
OPTIONS
usandopath
. LaLOCAL
parola chiave viene usata per specificare che la directory si trova nel file system locale.file_format
Formato di file da utilizzare per l'inserimento. Le opzioni valide sono
TEXT
,CSV
,JDBC
ORC
PARQUET
HIVE
JSON
,LIBSVM
o un nome di classe completo di un'implementazione personalizzata di .org.apache.spark.sql.execution.datasources.FileFormat
OPTIONS ( { key [ = ] val } [ , ... ] )
Specifica una o più opzioni per la scrittura del formato di file.
VALUES ( { value | NULL } [ , ... ] ) [ , ( … ) ]
Valori da inserire. È possibile inserire un valore specificato in modo esplicito o null. È necessario utilizzare una virgola per separare ogni valore nella clausola . È possibile specificare più set di valori per inserire più righe.
query
Query che produce le righe da inserire. Uno dei formati seguenti:
- Un'istruzione
SELECT
- Un'istruzione
TABLE
- Un'istruzione
FROM
- Un'istruzione
Esempi
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;