Snowflake에서 페더레이션 쿼리 실행
이 문서에서는 Lakehouse Federation을 set Azure Databricks에서 관리되지 않는 Snowflake 데이터에 대해 페더레이션된 쿼리를 실행하는 방법을 설명합니다. Lakehouse Federation에 대한 자세한 내용은 Lakehouse Federation이란?을 참조하세요.
Lakehouse Federation을 사용하여 Snowflake 데이터베이스에 연결하려면 Azure Databricks Unity Catalog 메타스토어에서 다음을 만들어야 합니다.
- Snowflake 데이터베이스에 대한 연결입니다.
- Unity Catalog Snowflake 데이터베이스를 미러링하는 외신 catalog Unity Catalog 쿼리 구문 및 데이터 거버넌스 도구를 사용하여 데이터베이스에 대한 Azure Databricks 사용자 액세스를 관리할 수 있습니다.
시작하기 전에
작업 영역 요구 사항
- Unity Catalog용 작업 공간이 활성화되었습니다.
컴퓨팅 요구 사항:
- 컴퓨팅 리소스에서 대상 데이터베이스 시스템으로의 네트워크 연결 Lakehouse Federation에 대한 네트워킹 권장 사항을 참조하세요.
- Azure Databricks 컴퓨팅은 Databricks Runtime 13.3 LTS 이상을 사용하며, 공유 또는 단일 사용자 액세스 모드를 사용해야 합니다.
- SQL 웨어하우스는 프로 또는 서버리스여야 하며 2023.40 이상을 사용해야 합니다.
권한 필요:
- 연결을 만들려면 메타스토어 관리자이거나 작업 영역에 연결된 Unity Catalog 메타스토어에 대한
CREATE CONNECTION
권한이 있는 사용자여야 합니다. - 외부의 catalog를 만들려면, 메타스토어에 대한
CREATE CATALOG
권한이 있어야 하며, 연결의 소유자이거나 연결에 대한CREATE FOREIGN CATALOG
권한이 있어야 합니다.
추가 권한 요구 사항은 다음 각 태스크 기반 섹션에 지정됩니다.
- OAuth를 사용하여 인증하려는 경우 Snowflake 콘솔에서 보안 통합을 만듭니다.
- OAuth 액세스 토큰을 사용하여 인증하려는 경우 액세스 토큰도 요청해야 합니다.
(선택 사항) Snowflake 콘솔에서 보안 통합 만들기
OAuth를 사용하여 인증하려면 Snowflake 연결을 만들기 전에 이 단계를 수행합니다. 대신 사용자 이름과 암호를 사용하여 인증하려면 이 섹션을 건너뜁니다.
참고 항목
Snowflake의 기본 제공 OAuth 통합만 지원됩니다. Okta 또는 Microsoft Entra ID와 같은 외부 OAuth 통합은 지원되지 않습니다.
Snowflake 콘솔에서 실행 CREATE SECURITY INTEGRATION
합니다. 다음의 values으로 바꾸세요.
<integration-name>
: OAuth 통합의 고유한 이름입니다.<workspace-url>
: Azure Databricks 작업 영역 URL입니다. 당신은 setOAUTH_REDIRECT_URI
해야 합니다.https://<workspace-url>/login/oauth/snowflake.html
, where<workspace-url>
는 Snowflake 연결을 만들 where Azure Databricks 작업 영역의 고유한 URL입니다.<duration-in-seconds>
: refresh 토큰의 시간의 길이입니다.Important
OAUTH_REFRESH_TOKEN_VALIDITY
은 기본적으로 set이 90일로 설정된 사용자 지정 필드입니다. refresh 토큰이 만료되면 연결을 다시 인증해야 합니다. Set 필드를 적절한 시간 길이로 설정합니다.
CREATE SECURITY INTEGRATION <integration-name>
TYPE = oauth
ENABLED = true
OAUTH_CLIENT = custom
OAUTH_CLIENT_TYPE = 'CONFIDENTIAL'
OAUTH_REDIRECT_URI = 'https://<workspace-url>/login/oauth/snowflake.html'
OAUTH_ISSUE_REFRESH_TOKENS = TRUE
OAUTH_REFRESH_TOKEN_VALIDITY = <duration-in-seconds>
OAUTH_ENFORCE_PKCE = TRUE;
(선택 사항) OAuth 액세스 토큰 요청
방법: Snowflake 기술 자료에서 사용자 지정 클라이언트 에 대해 Snowflake OAuth를 사용하여 OAuth 토큰 Generate을 사용합니다.
연결 만들기
연결은 외부 데이터베이스 시스템에 액세스하기 위한 경로 및 credentials 지정합니다. 연결을 만들려면 Azure Databricks Notebook 또는 Databricks SQL 쿼리 편집기에서 Catalog Explorer 또는 CREATE CONNECTION
SQL 명령을 사용할 수 있습니다.
참고 항목
Databricks REST API 또는 Databricks CLI를 사용하여 연결을 만들 수도 있습니다. POST /api/2.1/unity-catalog/connections 및 Unity Catalog 명령을 확인하세요.
필요한 권한: 메타스토어 관리자 또는 CREATE CONNECTION
권한이 있는 사용자.
Catalog 탐색기
Azure Databricks 작업 영역에서 Catalog클릭합니다.
창 맨 위에서 추가 또는 더하기 아이콘 추가 아이콘을 클릭하고 메뉴에서 연결 추가합니다. 또는 빠른 액세스 페이지에서 외부 데이터 > 단추를 클릭하고 Connections 탭으로 이동한 다음 연결만들기를 클릭합니다.
사용자에게 친숙한 연결 이름을 입력합니다.
Snowflake연결 유형Select.
Snowflake 웨어하우스에 대해 다음 연결 속성을 입력합니다.
-
인증 유형:
OAuth
,OAuth access token
, 'PEM 프라이빗 키' 또는Username and password
-
호스트: 예를 들면 다음과 같습니다.
snowflake-demo.east-us-2.azure.snowflakecomputing.com
-
포트: 예를 들면 다음과 같습니다.
443
-
눈송이 창고: 예를 들면 다음과 같습니다.
my-snowflake-warehouse
-
사용자: 예를 들면 다음과 같습니다.
snowflake-user
- (
OAuth
) 클라이언트 ID: Snowflake 콘솔에서SELECT SYSTEM$SHOW_OAUTH_CLIENT_SECRETS('<security-integration-name>')
를 실행하여 보안 통합에 대한 클라이언트 ID를 확인합니다. - (
OAuth
): 클라이언트 비밀: Snowflake 콘솔에서SELECT SYSTEM$SHOW_OAUTH_CLIENT_SECRETS('<security-integration-name>')
실행하여 보안 통합에 대한 클라이언트 비밀을 검색합니다. - (
OAuth
) 클라이언트 범위:refresh_token session:role:<role-name>
. 에서 사용할 Snowflake 역할을 지정합니다<role-name>
. - (
Username and password
) 암호: 예를 들어password123
- (
OAuth access token
) 액세스 토큰: 에서 발급한 액세스 토큰(선택 사항) OAuth 액세스 토큰를 요청합니다. - (
OAuth access token
) 만료(초): 액세스 토큰에 대한 만료 시간(초) (선택 사항) OAuth 액세스 토큰 요청(expires_in
). - (
PEM Private Key
) PEM 프라이빗 키: RSA 키 파의 프라이빗 키(HEX64 형식). - (
PEM Private Key
) 만료(초): 프라이빗 키로 만든 연결의 만료 시간(초)입니다.
(OAuth) OAuth credentials사용하여 Snowflake에 로그인하라는 메시지가 표시됩니다.
-
인증 유형:
(선택 사항) 연결 테스트를 클릭하여 작동하는지 확인합니다.
(선택 사항) 주석을 입력합니다.
만들기를 클릭합니다.
SQL
Notebook 또는 Databricks SQL 쿼리 편집기에서 다음 명령을 실행합니다.
CREATE CONNECTION <connection-name> TYPE snowflake
OPTIONS (
host '<hostname>',
port '<port>',
sfWarehouse '<warehouse-name>',
user '<user>',
password '<password>'
);
중요한 values의 경우 credentials같은 일반 텍스트 문자열 대신 Azure Databricks 비밀을 사용할 것을 권장합니다. 예시:
CREATE CONNECTION <connection-name> TYPE snowflake
OPTIONS (
host '<hostname>',
port '<port>',
sfWarehouse '<warehouse-name>',
user secret ('<secret-scope>','<secret-key-user>'),
password secret ('<secret-scope>','<secret-key-password>')
)
비밀 설정에 대한 자세한 내용은 비밀 관리를 참조하세요.
외부의 catalog 만들기
외부 catalog는 Azure Databricks 및 Unity Catalog을 사용하여 해당 데이터베이스의 데이터를 쿼리하고 관리할 수 있도록 외부 데이터 시스템의 데이터베이스를 미러링합니다. 외부 catalog을 만들려면 이미 정의된 데이터 원본에 대한 연결을 사용합니다.
Azure Databricks Notebook 또는 SQL 쿼리 편집기에서 Catalog 탐색기나 CREATE FOREIGN CATALOG
SQL 명령을 사용하여 외부 catalog를 생성할 수 있습니다.
참고 항목
Databricks REST API 또는 Databricks CLI를 사용하여 catalog만들 수도 있습니다. POST /api/2.1/unity-catalog/catalogs 및 Unity Catalog 명령을 참조하세요.
필요한 권한: 메타스토어에 대한 CREATE CATALOG
권한과 연결에 대한 소유권 또는 연결에 대한 CREATE FOREIGN CATALOG
권한이 필요합니다.
Catalog 탐색기
Azure Databricks 작업 영역에서 Catalog 클릭하여 Catalog 탐색기를 엽니다.
Catalog 창 위쪽에서 아이콘을 클릭한 후, 메뉴에서 select추가하여 catalog을 선택하십시오.
또는 빠른 액세스 페이지에서 Catalogs 단추를 클릭한 다음 만들기 catalog 단추를 클릭합니다.
catalogs 만들기에서 외국 catalogs 만들기에 대한 지침을 따릅니다.
SQL
Notebook 또는 SQL 쿼리 편집기에서 다음 SQL 명령을 실행합니다. 괄호 안의 항목은 선택 사항입니다. 자리 표시자 values을(를) 교체하십시오.
-
<catalog-name>
: Azure Databricks의 catalog 이름입니다. -
<connection-name>
: 데이터 원본, 경로 및 액세스 credentials지정하는 연결 개체. -
<database-name>
: Azure Databricks에서 catalog로 미러링하려는 데이터베이스의 이름입니다.
CREATE FOREIGN CATALOG [IF NOT EXISTS] <catalog-name> USING CONNECTION <connection-name>
OPTIONS (database '<database-name>');
대/소문자를 구분하는 데이터베이스 식별자
외제 catalogdatabase
필드는 Snowflake 데이터베이스 identifier매핑합니다. Snowflake 데이터베이스 identifier가 대/소문자를 구분하지 않으면 외래 키 catalog및<database-name>
에서 사용하는 대/소문자 형태가 그대로 유지됩니다. 그러나 Snowflake 데이터베이스 identifier가 대/소문자를 구분하는 경우, 대/소문자를 유지하려면 외부 키 catalog<database-name>
를 큰따옴표로 감싸야 합니다.
예시:
database
가 변환되는 경우DATABASE
"database"
가 변환되는 경우database
"database"""
가 변환되는 경우database"
큰따옴표를 이스케이프하려면 다른 큰따옴표를 사용합니다.
"database""
큰따옴표가 올바르게 이스케이프되지 않아 오류가 발생합니다.
자세한 내용은 Snowflake 설명서의 Identifier 요구 사항을 참조하세요.
지원되는 푸시다운
지원되는 푸시다운은 다음과 같습니다.
- 필터
- 프로젝션
- Limit
- 조인
- 집계(Average, Corr, CovPopulation, CovSample, Count, Max, Min, StddevPop, StddevSamp, Sum, VariancePop, VarianceSamp)
- 함수(문자열 함수, 수학 함수, 데이터, 시간 및 타임스탬프 함수 및 별칭, 캐스트, SortOrder와 같은 기타 함수)
- Windows 함수(DenseRank, Rank, RowNumber)
- 정렬
데이터 형식 매핑
Snowflake에서 Spark로 읽을 때 데이터 형식은 다음과 같이 매핑됩니다.
눈송이 유형 | Spark 형식 |
---|---|
decimal, number, numeric | 데시말타입 |
bigint, byteint, int, integer, smallint, tinyint | 인터저타입 |
float, float4, float8 | 플롯타입 |
double, double precision, real | 더블타입 |
char, character, string, text, time, varchar | StringType |
binary | BinaryType |
부울 값 | BooleanType |
date | DateType |
datetime, timestamp, timestamp_ltz, timestamp_ntz, timestamp_tz | TimestampType |
OAuth 제한 사항
OAuth 지원 제한 사항은 다음과 같습니다.
- Snowflake OAuth 엔드포인트는 Databricks 컨트롤 플레인 IP에서 액세스할 수 있어야 합니다. Azure Databricks 컨트롤 플레인에서 아웃바운드를 참조 하세요. Snowflake는 보안 통합 수준에서 네트워크 정책 구성을 지원하며, 이를 통해 권한 부여를 위해 Databricks 컨트롤 플레인에서 OAuth 엔드포인트로 직접 연결할 수 있는 별도의 네트워크 정책을 사용할 수 있습니다.
- 프록시, 프록시 호스트, 프록시 포트 및 Snowflake 역할 구성 옵션은 사용할 수 없습니다. OAuth 범위의 일부로 Snowflake 역할을 지정합니다.
추가 리소스
Snowflake 설명서에서 다음 문서를 참조하세요.