다음을 통해 공유


INSERT OVERWRITE DIRECTORY

적용 대상:예로 표시된 확인 Databricks SQL 예로 표시된 확인 Databricks Runtime

지정된 Spark 파일 형식을 사용하여 새 values로 디렉터리의 기존 데이터를 덮어씁니다. 값 식 또는 쿼리 결과로 삽입되는 행을 지정합니다.

구문

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parameters

  • directory_path

    대상 디렉터리입니다. OPTIONS에서 path를 사용하여 지정할 수도 있습니다. LOCAL 키워드는 디렉터리가 로컬 파일 시스템에 있음을 지정하는 데 사용됩니다.

  • file_format

    insert를 위한 사용할 파일 형식입니다. 유효한 옵션은 TEXT, CSV, JSON, JDBC, PARQUET, ORC, HIVE, LIBSVM 또는 org.apache.spark.sql.execution.datasources.FileFormat 사용자 지정 구현의 정규화된 클래스 이름입니다.

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    파일 형식 쓰기 옵션을 하나 이상 지정합니다.

  • VALUES ( { value | NULL } [ , ... ] ) [ , ( … ) ]

    삽입할 values. 명시적으로 지정된 값 또는 NULL을 삽입할 수 있습니다. 절의 각 값을 구분하려면 쉼표를 사용해야 합니다. 여러 행을 insert 위해 둘 이상의 valuesset 지정할 수 있습니다.

  • query

    삽입할 행을 생성하는 쿼리입니다. 다음 형식 중 하나입니다.

    • SELECT
    • TABLE
    • FROM

예제

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;