INSERT OVERWRITE DIRECTORY
Aplica-se a: Databricks SQL Databricks Runtime
Substitui os dados existentes no diretório com os novos valores usando um determinado formato de arquivo Spark. Você especifica a linha inserida por expressões de valor ou o resultado de uma consulta.
Sintaxe
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parâmetros
directory_path
O diretório de destino. Também pode ser especificado no
OPTIONS
uso depath
. ALOCAL
palavra-chave é usada para especificar que o diretório está no sistema de arquivos local.file_format
O formato de arquivo a ser usado para a inserção. As opções válidas são , , ,
JSON
,PARQUET
JDBC
,ORC
,HIVE
,LIBSVM
, ou um nome de classe totalmente qualificado de uma implementação personalizada deorg.apache.spark.sql.execution.datasources.FileFormat
.CSV
TEXT
OPÇÕES ( { chave [ = ] val } [ , ... ] )
Especifica uma ou mais opções para a gravação do formato de arquivo.
VALORES ( { valor | NULL } [ , ... ] ) [ , ( … ) ]
Os valores a serem inseridos. Um valor explicitamente especificado ou um NULL pode ser inserido. Uma vírgula deve ser usada para separar cada valor na cláusula. Mais de um conjunto de valores pode ser especificado para inserir várias linhas.
query
Uma consulta que produz as linhas a serem inseridas. Um dos seguintes formatos:
- Uma
SELECT
declaração - Uma
TABLE
declaração - Uma
FROM
declaração
- Uma
Exemplos
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;