다음을 통해 공유


BULK INSERT(Transact-SQL)

적용 대상: SQL Server Azure SQL 데이터베이스 Azure SQL Managed Instance

데이터 파일을 SQL Server에서 사용자가 지정한 형식으로 데이터베이스 테이블이나 뷰로 가져옵니다.

Transact-SQL 구문 표기 규칙

구문

BULK INSERT
   { database_name.schema_name.table_or_view_name | schema_name.table_or_view_name | table_or_view_name }
      FROM 'data_file'
     [ WITH
    (
   [ [ , ] DATA_SOURCE = 'data_source_name' ]

   -- text formatting options
   [ [ , ] CODEPAGE = { 'RAW' | 'code_page' | 'ACP' | 'OEM' } ]
   [ [ , ] DATAFILETYPE = { 'char' | 'native' | 'widechar' | 'widenative' } ]
   [ [ , ] ROWTERMINATOR = 'row_terminator' ]
   [ [ , ] FIELDTERMINATOR = 'field_terminator' ]
   [ [ , ] FORMAT = 'CSV' ]
   [ [ , ] FIELDQUOTE = 'quote_characters']

   [ [ , ] FIRSTROW = first_row ]
   [ [ , ] LASTROW = last_row ]

   -- input file format options
   [ [ , ] FORMATFILE = 'format_file_path' ]
   [ [ , ] FORMATFILE_DATA_SOURCE = 'data_source_name' ]

   -- error handling options
   [ [ , ] MAXERRORS = max_errors ]
   [ [ , ] ERRORFILE = 'file_name' ]
   [ [ , ] ERRORFILE_DATA_SOURCE = 'errorfile_data_source_name' ]

   -- database options
   [ [ , ] KEEPIDENTITY ]
   [ [ , ] KEEPNULLS ]
   [ [ , ] FIRE_TRIGGERS ]
   [ [ , ] CHECK_CONSTRAINTS ]
   [ [ , ] TABLOCK ]

   -- source options
   [ [ , ] ORDER ( { column [ ASC | DESC ] } [ ,...n ] ) ]
   [ [ , ] ROWS_PER_BATCH = rows_per_batch ]
   [ [ , ] KILOBYTES_PER_BATCH = kilobytes_per_batch 
   [ [ , ] BATCHSIZE = batch_size ]

    )]

인수

database_name

지정한 테이블이나 뷰가 상주하는 데이터베이스 이름입니다. 지정하지 않으면 database_name이 현재 데이터베이스입니다.

schema_name

테이블 또는 뷰 스키마의 이름을 지정합니다. 대량 가져오기 작업을 수행하는 사용자의 기본 스키마가 지정한 테이블이나 뷰의 스키마인 경우에는 schema_name을 지정하지 않아도 됩니다. schema를 지정하지 않은 경우 대량 가져오기 작업을 수행하는 사용자의 기본 스키마가 지정된 테이블이나 뷰와 다르면 SQL Server에서 오류 메시지를 반환하고 대량 가져오기 작업이 취소됩니다.

table_name

데이터를 대량으로 가져올 테이블 또는 뷰의 이름을 지정합니다. 모든 열이 동일한 기본 테이블을 참조하는 뷰만 사용할 수 있습니다. 뷰에 데이터를 로드할 때 제한 사항에 대한 자세한 내용은 INSERT(Transact-SQL)를 참조하세요.

FROM 'data_file'

지정한 테이블이나 뷰로 가져올 데이터가 포함된 데이터 파일의 전체 경로를 지정합니다. BULK INSERT는 디스크 또는 Azure Blob Storage(예: 네트워크, 플로피 디스크, 하드 디스크 등)에서 데이터를 가져올 수 있습니다.

data_file은 SQL Server가 실행 중인 서버에서 유효한 경로를 지정해야 합니다. data_file이 원격 파일일 경우 UNC(Universal Naming Convention) 이름을 지정합니다. UNC 이름은 \\SystemName\ShareName\Path\FileName 형식을 사용합니다. 예를 들어:

BULK INSERT Sales.Orders
FROM '\\SystemX\DiskZ\Sales\data\orders.dat';

SQL Server 2017(14.x)부터 data_file은 Azure Blob Storage에 있을 수 있습니다. 이 경우 data_source_name 옵션을 지정해야 합니다. 예제는 Azure Blob Storage의 파일에서 데이터 가져오기를 참조하세요.

Azure SQL Database는 Azure Blob Storage에서 읽기만 지원합니다.

BATCHSIZE = batch_size

일괄 처리에 포함될 행 수를 지정합니다. 모든 일괄 처리는 하나의 트랜잭션으로 서버에 복사됩니다. 이 작업이 실패하면 SQL Server는 모든 일괄 처리에 대한 트랜잭션을 커밋하거나 롤백합니다. 기본적으로 지정된 데이터 파일의 모든 데이터는 하나의 일괄 처리입니다. 성능 고려 사항에 대한 자세한 내용은 이 문서의 뒷부분에 나오는 성능 고려 사항을 참조하세요.

CHECK_CONSTRAINTS

대량 가져오기 작업 중 대상 테이블 또는 뷰의 모든 제약 조건을 검사하도록 지정합니다. CHECK_CONSTRAINTS 옵션을 지정하지 않으면 모든 CHECK 및 FOREIGN KEY 제약 조건이 무시되고 작업 이후 테이블의 제약 조건은 트러스트될 수 없는 것으로 표시됩니다.

UNIQUE 및 PRIMARY KEY 제약 조건은 항상 적용됩니다. NOT NULL 제약 조건으로 정의된 문자 열로 가져올 때 텍스트 파일에 값이 없으면 BULK INSERT는 공백 문자열을 삽입합니다.

특정 지점에서는 전체 테이블의 제약 조건을 확인해야 합니다. 대량 가져오기 작업을 수행하기 전에 테이블이 비어 있지 않으면 제약 조건의 유효성을 다시 검사하는 비용이 증분 데이터에 CHECK 제약 조건을 적용하는 비용을 초과할 수 있습니다.

입력 데이터에 제약 조건을 위반하는 행이 포함된 경우에는 제약 조건을 사용하지 않을 수 있습니다(기본 동작). CHECK 제약 조건을 사용하지 않으면 데이터를 가져온 다음 Transact-SQL 문을 사용하여 잘못된 데이터를 제거할 수 있습니다.

참고

MAXERRORS 옵션은 제약 조건 확인에 적용되지 않습니다.

CODEPAGE = { 'ACP' | 'OEM' | 'RAW' | 'code_page' }

데이터 파일에서 데이터의 코드 페이지를 지정합니다. CODEPAGE는 문자 값이 127보다 크거나 32보다 작은 char, varchar또는 text 열이 데이터에 포함된 경우에만 적합합니다. 예제는 코드 페이지 지정을 참조하세요.

CODEPAGE는 SQL Server 2017(14.x)의 경우 Linux에서 지원되는 옵션이 아닙니다. SQL Server 2019 (15.x)의 경우 CODEPAGE에 대해 'RAW' 옵션만 허용됩니다.

서식 파일의 각 열에 대해 데이터 정렬 이름을 지정해야 합니다.

CODEPAGE 값 Description
ACP char, varchar 또는 text 데이터 형식의 열은 ANSI/Microsoft Windows 코드 페이지(ISO 1252)에서 SQL Server 코드 페이지로 변환됩니다.
OEM(기본값) char, varchar 또는 text 데이터 형식의 열은 시스템 OEM 코드 페이지에서 SQL Server 코드 페이지로 변환됩니다.
RAW 코드 페이지 간 변환이 일어나지 않습니다. RAW가 가장 빠른 옵션입니다.
code_page 특정 코드 페이지 번호(예: 850)입니다.

SQL Server 2016(13.x) 이전 버전은 코드 페이지 65001(UTF-8 인코딩)을 지원하지 않습니다.

DATAFILETYPE = { 'char' | 'native' | 'widechar' | 'widenative' }

BULK INSERT에서 지정된 데이터 파일 유형 값을 사용하여 가져오기 작업을 수행하도록 지정합니다.

DATAFILETYPE 값 모든 데이터 표시 형식
char(기본값) 문자 형식

자세한 내용은 문자 형식을 사용하여 데이터 가져오기 또는 내보내기(SQL Server)를 참조하세요.
native 네이티브(데이터베이스) 데이터 형식. bcp 유틸리티를 사용하여 SQL Server에서 데이터를 대량으로 가져와 원시 데이터 파일을 만듭니다.

네이티브 값은 char 값을 대체하여 보다 뛰어난 성능을 제공합니다. 확장/DBCS(더블바이트 문자 집합) 문자가 포함되어 있지 않은 데이터 파일을 사용하여 여러 개의 SQL Server 인스턴스 간에 데이터를 대량 전송할 때는 네이티브 형식을 사용하는 것이 좋습니다.

자세한 내용은 원시 형식을 사용하여 데이터 가져오기 또는 내보내기(SQL Server)를 참조하세요.
widechar 유니코드 문자

자세한 내용은 유니코드 문자 형식을 사용하여 데이터 가져오기 또는 내보내기(SQL Server)를 참조하세요.
widenative char, varchartext 열을 제외하고 데이터가 유니코드로 저장되는 원시(데이터베이스) 데이터 형식입니다. bcp 유틸리티를 사용하여 SQL Server에서 데이터를 대량으로 가져와 widenative 데이터 파일을 만듭니다.

widenative 값은 widechar 값을 대체하여 보다 뛰어난 성능을 제공합니다. 데이터 파일에 ANSI 확장 문자가 포함되어 있으면 widenative를 지정하십시오.

자세한 내용은 유니코드 원시 형식을 사용하여 데이터 가져오기 또는 내보내기(SQL Server)를 참조하세요.

DATA_SOURCE = 'data_source_name'

적용 대상: SQL Server 2017(14.x) 및 Azure SQL Database.

가져올 파일의 Azure Blob Storage 위치를 가리키는 명명된 외부 데이터 원본을 지정합니다. 외부 데이터 원본은 SQL Server 2017(14.x)에서 추가된 TYPE = BLOB_STORAGE 옵션을 사용하여 만들어야 합니다. 자세한 내용은 CREATE EXTERNAL DATA SOURCE를 참조하세요. 예제는 Azure Blob Storage의 파일에서 데이터 가져오기를 참조하세요.

ERRORFILE = 'error_file_path'

형식 오류가 있어 OLE DB 행 집합으로 변환할 수 없는 행을 수집하는 데 사용되는 파일을 지정합니다. 이러한 행은 데이터 파일에서 "있는 그대로" 이 오류 파일에 복사됩니다.

오류 파일은 명령이 실행될 때 생성됩니다. 파일이 이미 있으면 오류가 발생합니다. 또한 확장명이 .ERROR.txt인 컨트롤 파일이 만들어지며, 이 파일은 오류 파일의 각 행을 참조하고 오류 진단을 제공합니다. 오류를 해결하는 즉시 데이터를 로드할 수 있습니다.

SQL Server 2017(14.x)부터 error_file_path는 Azure Blob Storage에 있을 수 있습니다.

ERRORFILE_DATA_SOURCE = 'errorfile_data_source_name'

적용 대상: SQL Server 2017(14.x).

가져오는 동안 발견된 오류를 포함할 오류 파일의 Azure Blob 스토리지 위치를 가리키는 명명된 외부 데이터 원본을 지정합니다. 외부 데이터 원본은 SQL Server 2017(14.x)에서 추가된 TYPE = BLOB_STORAGE 옵션을 사용하여 만들어야 합니다. 자세한 내용은 CREATE EXTERNAL DATA SOURCE를 참조하세요.

FIRSTROW = first_row

로드할 첫 번째 행의 번호를 지정합니다. 기본값은 지정한 데이터 파일의 첫 번째 행입니다. FIRSTROW는 1부터 시작합니다.

FIRSTROW 특성은 열 머리글을 건너뛰기 위해 제공된 것이 아닙니다. BULK INSERT 문에서는 머리글 건너뛰기가 지원되지 않습니다. 행 건너뛰기를 선택하면 SQL Server 데이터베이스 엔진은 필드 종결자만 확인하며 건너뛴 행의 필드에 있는 데이터의 유효성을 검사하지 않습니다.

FIRE_TRIGGERS

대량 가져오기 작업 중에 대상 테이블에서 정의된 삽입 트리거가 실행되도록 지정합니다. 트리거가 대상 테이블의 INSERT 작업에 대해 정의되면 완료된 모든 일괄 처리에 대해 발생합니다.

FIRE_TRIGGERS가 지정되지 않았으면 삽입 트리거가 실행되지 않습니다.

FORMATFILE_DATA_SOURCE = 'data_source_name'

적용 대상: SQL Server 2017(14.x).

가져온 파일의 스키마를 정의할 서식 파일의 Azure Blob Storage 위치를 가리키는 명명된 외부 데이터 원본을 지정합니다. 외부 데이터 원본은 SQL Server 2017(14.x)에서 추가된 TYPE = BLOB_STORAGE 옵션을 사용하여 만들어야 합니다. 자세한 내용은 CREATE EXTERNAL DATA SOURCE를 참조하세요.

KEEPIDENTITY

가져온 데이터 파일의 ID 값이 ID 열에 사용되도록 지정합니다. KEEPIDENTITY를 지정하지 않는 경우 이 열의 ID 값을 확인하지만 가져오지는 않습니다. SQL Server에서는 테이블 생성 중에 지정된 초기값 및 증가값에 따라 고유한 값을 자동으로 할당합니다. 데이터 파일에 테이블이나 뷰의 ID 열 값이 포함되지 않은 경우 서식 파일을 사용하여 데이터를 가져올 때 테이블이나 뷰의 ID 열을 생략하도록 지정합니다. SQL Server에서는 해당 열에 고유한 값을 자동으로 할당합니다. 자세한 내용은 DBCC CHECKIDENT(Transact-SQL)를 참조하세요.

ID 값의 보관에 대한 자세한 내용은 데이터를 대량으로 가져올 때 ID 값 보관(SQL Server)을 참조하세요.

KEEPNULLS

대량 가져오기 작업 시 삽입된 열에 기본값이 지정되지 않도록 하고, 빈 열이 Null 값을 보유하도록 지정합니다. 자세한 내용은 대량 가져오기 수행 중 Null 유지 또는 기본값 사용(SQL Server)을 참조하세요.

KILOBYTES_PER_BATCH = kilobytes_per_batch

일괄 처리당 데이터의 근사치 크기(KB)를 kilobytes_per_batch로 지정합니다. 기본적으로 KILOBYTES_PER_BATCH는 알 수 없습니다. 성능 고려 사항에 대한 자세한 내용은 이 문서의 뒷부분에 나오는 성능 고려 사항을 참조하세요.

LASTROW = last_row

로드할 마지막 행의 번호를 지정합니다. 기본값은 0이며 지정한 데이터 파일의 마지막 행을 가리킵니다.

MAXERRORS = max_errors

대량 가져오기 작업을 취소하기 전에 데이터에서 허용되는 최대 구문 오류 수를 지정합니다. 대량 가져오기 작업으로 가져올 수 없는 각 행은 무시되고 하나의 오류로 계산됩니다. max_errors를 지정하지 않으면 기본값은 10입니다.

MAX_ERRORS 옵션은 제약 조건 확인이나 moneybigint 데이터 형식 변환에 적용되지 않습니다.

ORDER ( { column [ ASC | DESC ] } [ ,... n ] )

데이터 파일의 데이터 정렬 방법을 지정합니다. 가져올 데이터를 테이블의 클러스터형 인덱스(있는 경우)에 따라 정렬하면 대량 가져오기 성능이 향상됩니다. 데이터 파일을 클러스터형 인덱스 키와 다른 순서로 정렬하거나 테이블에 클러스터형 인덱스가 없으면 ORDER 절이 무시됩니다. 지정한 열 이름은 대상 테이블에서 올바른 열 이름이어야 합니다. 기본적으로 대량 삽입 작업은 데이터 파일이 정렬되지 않았음을 전제로 합니다. 대량 가져오기 작업을 최적화하기 위해 SQL Server 에서는 가져온 데이터가 정렬되어 있는지도 확인합니다.

n은 복수 열을 지정할 수 있음을 나타내는 자리 표시자입니다.

ROWS_PER_BATCH = rows_per_batch

데이터 파일에 있는 대략적인 데이터 행 수를 나타냅니다.

기본적으로 데이터 파일의 모든 데이터는 단일 트랜잭션으로 서버에 전송되며 일괄 처리의 행 수는 쿼리 최적화 프로그램에 알려지지 않습니다. ROWS_PER_BATCH를 0보다 큰 값으로 지정하면 서버에서 이 값을 사용하여 대량 가져오기 작업을 최적화합니다. ROWS_PER_BATCH에 지정된 값은 실제 행 수와 대략적으로 동일해야 합니다. 성능 고려 사항에 대한 자세한 내용은 이 문서의 뒷부분에 나오는 성능 고려 사항을 참조하세요.

TABLOCK

대량 가져오기 작업이 진행되는 동안 테이블 수준 잠금을 획득하도록 지정합니다. 테이블에 인덱스가 없고 TABLOCK이 지정되어 있으면 여러 클라이언트가 동시에 테이블을 로드할 수 있습니다. 기본적으로 잠금 동작은 table lock on bulk load테이블 옵션에 의해 결정됩니다. 대량 가져오기 작업이 진행되는 동안에만 잠금을 보유하면 테이블에 대한 잠금 경합이 줄어들고 이 경우 성능이 크게 향상됩니다. 성능 고려 사항에 대한 자세한 내용은 이 문서의 뒷부분에 나오는 성능 고려 사항을 참조하세요.

columnstore 인덱스의 경우 잠금 동작은 내부적으로 여러 행 집합으로 구분되기 때문에 차이가 있습니다. 각 스레드는 행 집합에 대해 X 잠금을 수행하여 데이터를 각 행 집합에 배타적으로 로드하여 동시 데이터 로드 세션에서 병렬 데이터 로드가 가능하게 합니다. TABLOCK 옵션을 사용하면 스레드가 테이블에 대해 X 잠금을 수행하여(기존 행 집합에 대한 BU 잠금과 달리) 다른 동시 스레드가 동시에 데이터를 로드하지 못하게 합니다.

입력 파일 형식 옵션

FORMAT = 'CSV'

적용 대상: SQL Server 2017(14.x).

RFC 4180 표준을 준수하는 쉼표로 구분된 값 파일을 지정합니다.

BULK INSERT Sales.Orders
FROM '\\SystemX\DiskZ\Sales\data\orders.csv'
WITH ( FORMAT = 'CSV');

FIELDQUOTE = 'field_quote'

적용 대상: SQL Server 2017(14.x).

CSV 파일에 따옴표 문자로 사용될 문자를 지정합니다. 지정하지 않으면 RFC 4180 표준에 정의한 대로 따옴표 문자(")가 따옴표 문자로 사용됩니다.

FORMATFILE = 'format_file_path'

서식 파일의 전체 경로를 지정합니다. 서식 파일이란 동일한 테이블이나 뷰에서 bcp 유틸리티를 사용하여 생성된 저장 응답을 포함하는 데이터 파일을 말합니다. 다음과 같은 경우에 서식 파일이 사용됩니다.

  • 데이터 파일의 열이 테이블 또는 뷰보다 많거나 적을 경우
  • 열 순서가 다를 경우
  • 열 구분 기호가 다를 경우
  • 데이터 서식에 기타 변경 내용이 있을 경우. 일반적으로 서식 파일은 bcp 유틸리티를 사용하여 만들고 필요에 따라 텍스트 편집기로 수정합니다. 자세한 내용은 bcp 유틸리티서식 파일 만들기를 참조하세요.

SQL Server 2017(14.x)부터 또한 Azure SQL Database에서 format_file_path는 Azure Blob Storage에 있을 수 있습니다.

FIELDTERMINATOR = 'field_terminator'

charwidechar 데이터 파일에 사용할 필드 종결자를 지정합니다. 기본 필드 종결자는 \t(탭 문자)입니다. 자세한 내용은 필드 및 행 종결자 지정(SQL Server)을 참조하세요.

ROWTERMINATOR = 'row_terminator'

charwidechar 데이터 파일에 사용할 행 종결자를 지정합니다. 기본 행 종결자는 \r\n(줄바꿈 문자)입니다. 자세한 내용은 필드 및 행 종결자 지정(SQL Server)을 참조하세요.

호환성

BULK INSERT는 파일에서 읽은 데이터에 엄격한 데이터 유효성 검사 및 데이터 검사를 강제로 실행합니다. 이로 인해 기존 스크립트가 잘못된 데이터에서 실행되면 오류가 발생할 수 있습니다. 예를 들어 BULK INSERT는 다음을 확인합니다.

  • float 또는 real 데이터 형식의 원시 표시가 유효한지 여부
  • 유니코드 데이터의 길이가 짝수 바이트인지 여부

데이터 유형

String 데이터 형식에서 Decimal 데이터 형식으로의 변환

BULK INSERT에 사용되는 String 데이터 형식에서 Decimal 데이터 형식으로의 변환은 Transact-SQL CONVERT 함수와 동일한 규칙을 따르며 과학적 표기법을 사용하는 숫자 값을 나타내는 문자열을 거부합니다. 따라서 BULK INSERT는 이러한 문자열을 잘못된 값으로 처리하고 변환 오류를 보고합니다.

이 동작을 해결하려면 서식 파일을 사용하여 과학적 표기법 float 데이터를 Decimal 열로 대량 가져옵니다. 서식 파일에서 명시적으로 열을 real 또는 float 데이터로 설명합니다. 두 데이터 형식에 대한 자세한 내용은 float 및 real(Transact-SQL)을 참조하세요.

서식 파일은 실수 데이터를 SQLFLT4 데이터 형식으로, 부동 데이터를 SQLFLT8 데이터 형식으로 나타냅니다. XML이 아닌 서식 파일에 대한 자세한 내용은 bcp를 사용하여 파일 스토리지 형식 지정(SQL Server)을 참조하세요.

과학적 표기법을 사용하는 숫자 값 가져오기 예

이 예에서는 bulktest 데이터베이스에서 다음 테이블을 사용합니다.

CREATE TABLE dbo.t_float(c1 FLOAT, c2 DECIMAL (5,4));

사용자가 t_float 테이블로 데이터를 대량 가져오려고 합니다. 데이터 파일 C:\t_float-c.dat에는 과학적 표기법 float 데이터가 들어 있습니다. 예를 들면 다음과 같습니다.

8.0000000000000002E-2 8.0000000000000002E-2

이 샘플을 복사할 때 탭 문자(\t)를 공백으로 저장하는 여러 텍스트 편집기와 인코딩에 대해 알아야 합니다. 이 샘플의 뒷부분에서 탭 문자가 필요합니다.

그러나 두 번째 열 t_float에서 c2 데이터 형식을 사용하므로 BULK INSERT는 이 데이터를 직접 decimal으로 가져올 수 없습니다. 따라서 서식 파일이 필요합니다. 서식 파일은 열 c2의 과학적 표기법 float 데이터를 Decimal 형식으로 매핑해야 합니다.

다음 서식 파일은 SQLFLT8 데이터 형식을 사용하여 두 번째 데이터 필드를 두 번째 열로 매핑합니다.

<?xml version="1.0"?>
<BCPFORMAT xmlns="http://schemas.microsoft.com/sqlserver/2004/bulkload/format" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<RECORD>
<FIELD ID="1" xsi:type="CharTerm" TERMINATOR="\t" MAX_LENGTH="30"/>
<FIELD ID="2" xsi:type="CharTerm" TERMINATOR="\r\n" MAX_LENGTH="30"/> </RECORD> <ROW>
<COLUMN SOURCE="1" NAME="c1" xsi:type="SQLFLT8"/>
<COLUMN SOURCE="2" NAME="c2" xsi:type="SQLFLT8"/> </ROW> </BCPFORMAT>

이 서식 파일(파일 이름 C:\t_floatformat-c-xml.xml)을 사용하여 테스트 데이터를 테스트 테이블로 가져오려면 다음 Transact-SQL 문을 실행합니다.

BULK INSERT bulktest.dbo.t_float
FROM 'C:\t_float-c.dat' WITH (FORMATFILE = 'C:\t_floatformat-c-xml.xml');

중요

Azure SQL Database는 Azure Blob Storage에서 읽기만 지원합니다.

SQLXML 문서 대량 내보내기 또는 가져오기를 위한 데이터 형식

SQLXML 데이터를 대량으로 내보내거나 가져오려면 서식 파일에서 다음 데이터 형식 중 하나를 사용합니다.

데이터 형식 영향
SQLCHAR 또는 SQLVARCHAR 데이터를 클라이언트 코드 페이지나 데이터 정렬에 포함된 코드 페이지로 보냅니다. 결과는 서식 파일을 지정하지 않고 DATAFILETYPE = 'char'를 지정하는 것과 같습니다.
SQLNCHAR 또는 SQLNVARCHAR 데이터를 유니코드로 보냅니다. 결과는 서식 파일을 지정하지 않고 DATAFILETYPE = 'widechar' 를 지정하는 것과 같습니다.
SQLBINARY 또는 SQLVARYBIN 데이터를 변환하지 않고 보냅니다.

설명

BULK INSERT 문, INSERT ... SELECT * FROM OPENROWSET(BULK...) 문, bcp 명령의 비교는 데이터 대량 가져오기 및 내보내기(SQL Server)를 참조하세요.

대량 가져오기를 위한 데이터 준비에 대한 자세한 내용은 대량 내보내기 또는 가져오기를 위한 데이터 준비(SQL Server)를 참조하세요.

BULK INSERT 문은 데이터를 테이블 또는 뷰로 가져올 사용자 정의 트랜잭션 내에서 실행할 수 있습니다. 필요에 따라 대량 데이터 가져오기를 위한 여러 일치 항목을 사용하려면 트랜잭션에서 BULK INSERT 문 내에 BATCHSIZE 절을 지정할 수 있습니다. 여러 일괄 처리 트랜잭션이 롤백되는 경우에는 트랜잭션에서 SQL Server로 보낸 모든 일괄 처리가 롤백됩니다.

상호 운용성

CSV 파일에서 데이터 가져오기

SQL Server 2017(14.x)부터 BULK INSERT는 Azure SQL Database처럼 CSV 형식을 지원합니다.

SQL Server 2017(14.x) 전의 CSV(쉼표로 구분된 값) 파일은 SQL Server 대량 가져오기 작업에서 지원되지 않습니다. 그러나 경우에 따라 데이터를 SQL Server로 대량으로 가져오기 위한 데이터 파일로 CSV(쉼표로 구분된 값) 파일이 사용될 수 있습니다. CSV 데이터 파일에서 데이터 가져오기의 요구 사항에 대한 자세한 내용은 대량 내보내기 또는 가져오기를 위한 데이터 준비(SQL Server)를 참조하세요.

로그 동작

SQL Server로 대량 가져오기에서 수행된 행 삽입 작업이 트랜잭션 로그에 로그되는 경우에 대한 자세한 내용은 대량 가져오기의 최소 로깅을 위한 필수 조건을 참조하세요. 최소 로깅은 Azure SQL Database에서 지원되지 않습니다.

제한

서식 파일을 BULK INSERT와 함께 사용하면 최대 1024개의 필드만 지정할 수 있습니다. 이는 테이블에 허용된 최대 열 수와 동일합니다. 1024개가 넘는 필드를 포함하는 데이터 파일의 BULK INSERT와 함께 서식 파일을 사용하면 BULK INSERT에서 4822 오류가 발생합니다. bcp 유틸리티에는 이러한 제한이 없으므로, 1024개가 넘는 필드를 포함하는 데이터 파일의 경우 서식 파일 없이 BULK INSERT를 사용하거나 bcp 명령을 사용합니다.

성능 고려 사항

단일 일괄 처리에서 플러시될 페이지 수가 내부 임계값을 초과하면 버퍼 풀의 전체 검색이 일괄 처리를 커밋할 때 플러시할 페이지를 식별할 수 있습니다. 이 전체 검색으로 대량 가져오기 성능이 저하될 수 있습니다. 대용량 버퍼 풀이 느린 I/O 하위 시스템과 결합할 때 내부 임계값이 초과될 수 있습니다. 대규모 컴퓨터에서 버퍼 오버플로를 방지하려면 대량 최적화를 제거하는 TABLOCK 힌트를 사용하지 않거나 대량 최적화를 유지하는 보다 작은 크기의 일괄 처리를 사용합니다.

데이터 로드로 다양한 일괄 처리 크기를 테스트하여 가장 적절하게 작동하는 크기를 찾아야 합니다. 일괄 처리 크기는 부분 롤백에 영향을 줍니다. 프로세스가 실패하는 경우 BULK INSERT를 다시 사용하려면 추가 수동 작업을 수행하여 오류가 발생하기 전에 성공적으로 삽입된 행의 일부를 제거해야 할 수 있습니다.

대량 데이터를 가져오는 경우, 가져오기 전에 Azure SQL Database로 데이터베이스 또는 인스턴스의 성능 수준을 일시적으로 높이는 것이 좋습니다.

보안

보안 계정 위임(가장)

사용자가 SQL Server 로그인을 사용하는 경우 SQL Server 프로세스 계정의 보안 프로필이 사용됩니다. SQL Server 인증을 사용하는 로그인은 데이터베이스 엔진 외부에서 인증될 수 없습니다. 따라서 BULK INSERT 명령이 SQL Server 인증을 사용하는 로그인에 의해 시작되면 데이터에 대한 연결이 SQL Server 프로세스 계정(SQL Server 데이터베이스 엔진 서비스에서 사용하는 계정)의 보안 컨텍스트를 사용하여 설정됩니다.

원본 데이터를 성공적으로 읽으려면 SQL Server 데이터베이스 엔진에서 사용하는 계정에 원본 데이터에 대한 액세스 권한을 부여해야 합니다. 반면 SQL Server 사용자가 Windows 인증을 사용하여 로그온한 경우에는 SQL Server 프로세스의 보안 프로필에 관계없이 해당 사용자 계정으로 액세스할 수 있는 파일만 읽을 수 있습니다.

sqlcmd 또는 osql을 사용하는 BULK INSERT 문을 실행하는 경우 한 컴퓨터에서 두 번째 컴퓨터의 SQL Server에 데이터를 삽입하고 UNC 경로를 사용하여 세 번째 컴퓨터에서 data_file을 지정하면 4861 오류가 발생할 수 있습니다.

이러한 오류를 해결하려면 SQL Server 인증을 사용하고 SQL Server 프로세스 계정의 보안 프로필을 사용하는 SQL Server 로그인을 지정하거나 보안 계정 위임을 사용하도록 Windows를 구성하십시오. 위임용으로 사용자 계정이 트러스트될 수 있도록 설정하는 방법은 Windows 도움말을 참조하십시오.

이에 대한 자세한 내용 및 BULK INSERT를 사용하기 위한 기타 보안 고려 사항에 대한 자세한 내용은 BULK INSERT 또는 OPENROWSET(BULK...)을 사용하여 대량 데이터 가져오기(SQL Server)를 참조하세요.

Azure Blob Storage에서 가져오는 경우 데이터가 퍼블릭(익명 액세스)이 아니면 MASTER KEY로 암호화된 SAS 키를 기준으로 DATABASE SCOPED CREDENTIAL을 만든 다음, BULK INSERT 명령에 사용할 외부 데이터베이스 원본을 만듭니다.

또는 공용이 아닌 스토리지 계정의 데이터 액세스에 대한 요청에 권한을 부여하기 위해 데이터베이스 MANAGED IDENTITY SCOPED CREDENTIAL을 만듭니다. MANAGED IDENTITY를 사용하는 경우 Azure Storage는 필요한 Azure Blob Storage 컨테이너의 관리 ID에 대한 읽기/쓰기 액세스를 제공하는 Storage Blob 데이터 기여자 기본 제공 Azure RBAC(역할 기반 액세스 제어) 역할을 추가하여 인스턴스의 관리 ID에 대한 권한을 부여해야 합니다. Azure SQL Managed Instance에는 시스템이 할당한 관리 ID가 있으며 하나 이상의 사용자가 할당한 관리 ID가 있을 수도 있습니다. 시스템 할당 관리 ID 또는 사용자 할당 관리 ID를 사용하여 요청에 권한을 부여할 수 있습니다. 권한 부여의 default 경우 관리되는 인스턴스의 ID가 사용됩니다(기본 사용자 할당 관리 ID이거나, 사용자 할당 관리 ID가 지정되지 않은 경우 시스템 할당 관리 ID임). 예제는 Azure Blob Storage의 파일에서 데이터 가져오기를 참조하세요.

Important

관리 ID는 Azure SQL에만 적용됩니다. SQL Server는 관리 ID를 지원하지 않습니다.

사용 권한

INSERT 및 ADMINISTER BULK OPERATIONS 권한이 필요합니다. Azure SQL Database에서는 INSERT 및 ADMINISTER DATABASE BULK OPERATIONS 권한이 필요합니다. SQL Server on Linux에서는 ADMINISTER BULK OPERATIONS 권한 또는 bulkadmin 역할이 지원되지 않습니다. SQL Server on Linux의 경우 sysadmin만 대량 삽입을 수행할 수 있습니다.

또한 다음 조건 중 하나 이상이 적용되는 경우에는 ALTER TABLE 권한이 필요합니다.

  • 제약 조건이 있으며 CHECK_CONSTRAINTS 옵션을 지정하지 않았습니다.

    기본적으로 제약 조건은 사용되지 않습니다. 명시적으로 제약 조건을 확인하려면 CHECK_CONSTRAINTS 옵션을 사용하십시오.

  • 트리거가 있으며 FIRE_TRIGGER 옵션을 지정하지 않았습니다.

    기본적으로 트리거는 실행되지 않습니다. 명시적으로 트리거를 발생시키려면 FIRE_TRIGGER 옵션을 사용하십시오.

  • KEEPIDENTITY 옵션을 사용하여 데이터 파일에서 ID 값을 가져올 수 있습니다.

예제

A. 파이프를 사용하여 파일에서 데이터 가져오기

다음 예에서는 필드 종결자로 파이프(AdventureWorks2022.Sales.SalesOrderDetail)를 사용하고 행 종결자로 |을 사용하여 지정한 데이터 파일에서 |\n 테이블로 주문 세부 정보를 가져옵니다.

BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
   FROM 'f:\orders\lineitem.tbl'
   WITH
      (
         FIELDTERMINATOR = ' |'
         , ROWTERMINATOR = ' |\n'
      );

중요

Azure SQL Database는 Azure Blob Storage에서 읽기만 지원합니다.

B. FIRE_TRIGGERS 인수 사용

다음 예에서는 FIRE_TRIGGERS 인수를 지정합니다.

BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
   FROM 'f:\orders\lineitem.tbl'
   WITH
     (
         FIELDTERMINATOR = ' |'
         , ROWTERMINATOR = ':\n'
         , FIRE_TRIGGERS
      );

중요

Azure SQL Database는 Azure Blob Storage에서 읽기만 지원합니다.

C. 행 종결자로 줄 바꿈 사용

다음 예에서는 UNIX 출력 같은 행 종결자로 줄 바꿈을 사용하는 파일을 가져옵니다.

DECLARE @bulk_cmd VARCHAR(1000);
SET @bulk_cmd = 'BULK INSERT AdventureWorks2022.Sales.SalesOrderDetail
FROM ''<drive>:\<path>\<filename>''
WITH (ROWTERMINATOR = '''+CHAR(10)+''')';
EXEC(@bulk_cmd);

참고

Microsoft Windows에서 텍스트 파일을 처리하는 방식 때문에 \n은 자동으로 \r\n으로 바뀝니다.

중요

Azure SQL Database는 Azure Blob Storage에서 읽기만 지원합니다.

D. 코드 페이지 지정

다음 예에서는 코드 페이지를 지정하는 방법을 보여 줍니다.

BULK INSERT MyTable
FROM 'D:\data.csv'
WITH
( CODEPAGE = '65001'
   , DATAFILETYPE = 'char'
   , FIELDTERMINATOR = ','
);

중요

Azure SQL Database는 Azure Blob Storage에서 읽기만 지원합니다.

E. CSV 파일에서 데이터 가져오기

다음 예제는 헤더(첫 행)를 건너뛰고 ;을 필드 종결자로, 0x0a를 행 종결자로 사용하여 CSV 파일을 지정하는 방법을 보여 줍니다.

BULK INSERT Sales.Invoices
FROM '\\share\invoices\inv-2016-07-25.csv'
WITH (FORMAT = 'CSV'
      , FIRSTROW = 2
      , FIELDQUOTE = '\'
      , FIELDTERMINATOR = ';'
      , ROWTERMINATOR = '0x0a');

다음 예제는 CSV 파일을 UTF-8 형식(65001CODEPAGE 사용)으로 지정하고 헤더(첫 번째 행)를 건너뛰고 ;을 필드 종결자로 사용하고 0x0a를 줄 종결자로 사용하는 방법을 보여 줍니다.

BULK INSERT Sales.Invoices
FROM '\\share\invoices\inv-2016-07-25.csv'
WITH ( CODEPAGE = '65001'
      , FORMAT = 'CSV'
      , FIRSTROW = 2
      , FIELDQUOTE = '\'
      , FIELDTERMINATOR = ';'
      , ROWTERMINATOR = '0x0a');

중요

Azure SQL Database는 Azure Blob Storage에서 읽기만 지원합니다.

F. Azure Blob Storage의 파일에서 데이터 가져오기

다음 예제에서는 SAS(공유 액세스 서명)를 만든 Azure Blob Storage 위치의 CSV 파일에서 데이터를 로드하는 방법을 보여 줍니다. Azure Blob Storage 위치는 외부 데이터 원본으로 구성되며, 사용자 데이터베이스에서 마스터 키를 사용하여 암호화된 SAS 키를 사용하는 데이터베이스 범위 자격 증명이 필요합니다.

--> Optional - a MASTER KEY is not required if a DATABASE SCOPED CREDENTIAL is not required because the blob is configured for public (anonymous) access!
CREATE MASTER KEY ENCRYPTION BY PASSWORD = 'YourStrongPassword1';
GO
--> Optional - a DATABASE SCOPED CREDENTIAL is not required because the blob is configured for public (anonymous) access!
CREATE DATABASE SCOPED CREDENTIAL MyAzureBlobStorageCredential
WITH IDENTITY = 'SHARED ACCESS SIGNATURE',
SECRET = '******srt=sco&sp=rwac&se=2017-02-01T00:55:34Z&st=2016-12-29T16:55:34Z***************';

-- NOTE: Make sure that you don't have a leading ? in SAS token, and
-- that you have at least read permission on the object that should be loaded srt=o&sp=r, and
-- that expiration period is valid (all dates are in UTC time)

CREATE EXTERNAL DATA SOURCE MyAzureBlobStorage
WITH ( TYPE = BLOB_STORAGE,
          LOCATION = 'https://****************.blob.core.windows.net/invoices'
          , CREDENTIAL = MyAzureBlobStorageCredential --> CREDENTIAL is not required if a blob is configured for public (anonymous) access!
);

BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (DATA_SOURCE = 'MyAzureBlobStorage');

다음 예제에서는 BULK INSERT 명령을 사용하여 관리 ID를 통해 Azure Blob Storage 위치에 있는 csv 파일의 데이터를 로드하는 방법을 보여 줍니다. Azure Blob Storage 위치는 외부 데이터 원본으로 구성되었습니다.

--> Optional - a MASTER KEY is not required if a DATABASE SCOPED CREDENTIAL is not required because the blob is configured for public (anonymous) access!
CREATE MASTER KEY ENCRYPTION BY PASSWORD = 'YourStrongPassword1';
GO
--> Optional - a DATABASE SCOPED CREDENTIAL is not required because the blob is configured for public (anonymous) access!
CREATE DATABASE SCOPED CREDENTIAL MyAzureBlobStorageCredential 
WITH IDENTITY = 'Managed Identity';
-- NOTE: Make sure you have granted Storage Bob Data Contributor RBAC on storage to provides read/write access to the managed identity for the necessary Azure Blob Storage containers.
CREATE EXTERNAL DATA SOURCE MyAzureBlobStorage
WITH ( TYPE = BLOB_STORAGE,
          LOCATION = 'https://****************.blob.core.windows.net/invoices'
          , CREDENTIAL= MyAzureBlobStorageCredential --> CREDENTIAL is not required if a blob is configured for public (anonymous) access!
);
BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (DATA_SOURCE = 'MyAzureBlobStorage');

Important

관리 ID는 Azure SQL에만 적용됩니다. SQL Server는 관리 ID를 지원하지 않습니다.

Important

Azure SQL은 Azure Blob Storage에서 읽기만 지원합니다.

G. Azure Blob Storage의 파일에서 데이터 가져오기 및 오류 파일 지정

다음 예제에서는 외부 데이터 원본으로 구성되고 오류 파일을 지정하는 Azure Blob Storage 위치의 CSV 파일에서 데이터를 로드하는 방법을 보여줍니다. 공유 액세스 서명을 사용하는 데이터베이스 범위 자격 증명이 필요합니다. Azure SQL Database에서 실행되는 경우 ERRORFILE 옵션에는 ERRORFILE_DATA_SOURCE가 함께 사용되어야 하지만 사용 권한 오류로 인해 가져오기에 실패할 수 있습니다. ERRORFILE에 지정된 파일이 컨테이너에 존재하지 않아야 합니다.

BULK INSERT Sales.Invoices
FROM 'inv-2017-12-08.csv'
WITH (
         DATA_SOURCE = 'MyAzureInvoices'
         , FORMAT = 'CSV'
         , ERRORFILE = 'MyErrorFile'
         , ERRORFILE_DATA_SOURCE = 'MyAzureInvoices');

자격 증명 및 외부 데이터 원본의 구성을 포함하여 전체 BULK INSERT 예제는 Azure Blob Storage의 데이터에 대한 대량 액세스 예제를 참조하세요.

추가 예제

다른 BULK INSERT 예제는 다음 문서에 제공됩니다.

추가 정보