INSERT OVERWRITE DIRECTORY
적용 대상: Databricks SQL Databricks Runtime
지정된 Spark 파일 형식을 사용하여 새 values로 디렉터리의 기존 데이터를 덮어씁니다. 값 식 또는 쿼리 결과로 삽입되는 행을 지정합니다.
구문
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
Parameters
directory_path
대상 디렉터리입니다.
OPTIONS
에서path
를 사용하여 지정할 수도 있습니다.LOCAL
키워드는 디렉터리가 로컬 파일 시스템에 있음을 지정하는 데 사용됩니다.file_format
insert를 위한 사용할 파일 형식입니다. 유효한 옵션은
TEXT
,CSV
,JSON
,JDBC
,PARQUET
,ORC
,HIVE
,LIBSVM
또는org.apache.spark.sql.execution.datasources.FileFormat
사용자 지정 구현의 정규화된 클래스 이름입니다.OPTIONS ( { key [ = ] val } [ , ... ] )
파일 형식 쓰기 옵션을 하나 이상 지정합니다.
VALUES ( { value | NULL } [ , ... ] ) [ , ( … ) ]
삽입할 values. 명시적으로 지정된 값 또는 NULL을 삽입할 수 있습니다. 절의 각 값을 구분하려면 쉼표를 사용해야 합니다. 여러 행을 insert 위해 둘 이상의 valuesset 지정할 수 있습니다.
query
삽입할 행을 생성하는 쿼리입니다. 다음 형식 중 하나입니다.
-
SELECT
문 -
TABLE
문 -
FROM
문
-
예제
INSERT OVERWRITE DIRECTORY '/tmp/destination'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;