Condividi tramite


INSERT OVERWRITE DIRECTORY

Si applica a: segno di spunta sì Databricks SQL segno di spunta sì Databricks Runtime

Sovrascrive i dati esistenti nella directory con i nuovi valori usando un formato di file Spark specificato. Specificare la riga inserita per espressioni di valore o il risultato di una query.

Sintassi

INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
    USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
    { VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }

Parametri

  • directory_path

    Directory di destinazione. Può anche essere specificato in OPTIONS usando path. La LOCAL parola chiave viene usata per specificare che la directory si trova nel file system locale.

  • file_format

    Formato di file da utilizzare per l'inserimento. Le opzioni valide sono TEXT, CSV, JDBCORCPARQUETHIVEJSON, LIBSVMo un nome di classe completo di un'implementazione personalizzata di .org.apache.spark.sql.execution.datasources.FileFormat

  • OPTIONS ( { key [ = ] val } [ , ... ] )

    Specifica una o più opzioni per la scrittura del formato di file.

  • VALUES ( { value | NULL } [ , ... ] ) [ , ( … ) ]

    Valori da inserire. È possibile inserire un valore specificato in modo esplicito o null. È necessario utilizzare una virgola per separare ogni valore nella clausola . È possibile specificare più set di valori per inserire più righe.

  • query

    Query che produce le righe da inserire. Uno dei formati seguenti:

    • Un'istruzione SELECT
    • Un'istruzione TABLE
    • Un'istruzione FROM

Esempi

INSERT OVERWRITE DIRECTORY '/tmp/destination'
    USING parquet
    OPTIONS (col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;

INSERT OVERWRITE DIRECTORY
    USING parquet
    OPTIONS ('path' '/tmp/destination', col1 1, col2 2, col3 'test')
    SELECT * FROM test_table;