Azure Databricks의 오류 클래스
적용 대상: Databricks SQL Databricks Runtime 12.2 이상
오류 클래스는 오류 조건에 고유한 설명적이고 사람이 읽을 수 있는 문자열입니다.
오류 클래스를 사용하여 오류 메시지를 구문 분석할 필요 없이 애플리케이션에서 오류를 프로그래밍 방식으로 처리할 수 있습니다.
Azure Databricks에서 반환하는 일반적인 명명된 오류 조건 목록입니다.
Databricks Runtime 및 Databricks SQL
기본 추가 지원하지 않음
테이블 공급자가 있는 기존 대상 데이터 원본에 새 열을 추가할 때 DEFAULT
값이 지원되지 않으므로 <statementType>
명령을 실행하지 못했습니다. "<dataSource>
".
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
비결정적 식 <sqlExpr>
집계 함수의 인수에 나타나지 않아야 합니다.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
지정된 returnType으로 캐스팅할 때 모델 출력을 구문 분석하지 못했습니다. "<dataType>
", 응답 JSON은 다음과 같습니다. "<responseString>
". 응답 JSON이 나타내는 형식의 내용과 일치하도록 returnType을 업데이트한 다음 쿼리를 다시 시도하세요.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
실제 모델 출력에는 두 개 이상의 열 "<responseString>
"가 있습니다. 그러나 지정된 반환 형식["<dataType>
"]에는 열이 하나뿐입니다. 모델 출력과 동일한 수의 열을 포함하도록 returnType을 업데이트한 다음 쿼리를 다시 시도하세요.
AI 기능 HTTP 요청 오류 (AI_FUNCTION_HTTP_REQUEST_ERROR)
함수 <funcName>
대한 HTTP 요청을 수행하는 동안 오류가 발생했습니다. <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
함수 <funcName>
대한 HTTP 응답이 잘못되었습니다. <errorMessage>
AI_기능_잘못된_최대_단어_수
최대 단어 수는 음수가 아닌 정수여야 하지만, <maxWords>
가 입력되었습니다.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
제공된 모델 매개 변수(<modelParameters>
)가 엔드포인트 "<endpointName>
"를 제공하는 AI_QUERY
함수에서 유효하지 않습니다.
자세한 내용은 AI_FUNCTION_INVALID_MODEL_PARAMETERS 참조하세요.
AI_기능_유효하지_않은_응답_형식
AI 함수: "<functionName>
"에는 responseFormat
매개 변수에 유효한 JSON 문자열이 필요하지만 다음 응답 형식을 찾았습니다. "<invalidResponseFormat>
".
AI 함수 JSON 구문 분석 오류
함수 <funcName>
대한 JSON 응답을 구문 분석하는 동안 오류가 발생했습니다. <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR (AI 기능 모델 스키마 구문 분석 오류)
서비스 엔드포인트 "<endpointName>
"에 대한 스키마를 구문 분석하지 못했습니다. <errorMessage>
, 응답 JSON은 다음과 같습니다. "<responseJson>
".
AI_QUERY
함수에서 returnType
매개 변수를 수동으로 설정하여 스키마 해석을 무효화합니다.
AI_FUNCTION_UNSUPPORTED_ERROR (AI 기능이 지원되지 않음)
<funcName>
함수는 현재 환경에서 지원되지 않습니다. Databricks SQL Pro 및 서버리스에서만 사용할 수 있습니다.
AI 기능_지원되지 않는 요청
제공된 <invalidValue>
인수에 "<invalidDataType>
"가 있으므로 SQL 함수 "<functionName>
"을 평가하지 못했지만 다음 형식만 지원됩니다. <supportedDataTypes>
. 문자열 형식의 인수를 제공하고 쿼리를 다시 시도하려면 함수 호출을 업데이트하세요.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
AI 함수: "<functionName>
"는 다음 응답 형식의 "<invalidResponseFormatType>
" 형식을 지원하지 않습니다. "<invalidResponseFormat>
". 지원되는 응답 형식 유형은 <supportedResponseFormatTypes>
.
AI 함수 지원되지 않는 반환 유형
AI 함수: "<functionName>
"는 반환 형식으로 다음 형식을 지원하지 않습니다. "<typeName>
". 반환 형식은 Catalyst에서 이해하고 AI 함수에서 지원하는 유효한 SQL 형식이어야 합니다. 현재 지원되는 형식에는 <supportedValues>
포함됩니다.
AI_INVALID_ARGUMENT_VALUE_ERROR (인수 값 오류)
제공된 값 "<argValue>
"는 인수 "<argName>
"에서 지원되지 않습니다. 지원되는 값은 <supportedValues>
AI_QUERY_ENDPOINT_구조화된_출력_지원_안함
서비스 엔드포인트 작업 유형이 구조화된 출력 지원을 위해 "Chat"이어야 한다고 예상했지만, 엔드포인트 "<endpointName>
"에서 "<taskType>
"를 찾았습니다.
AI_쿼리_반환_유형_열_유형_불일치
제공된 "<sqlExpr>
"는 인수 returnType에서 지원되지 않습니다.
AI_검색_충돌_쿼리_매개변수_제공_오류
vector_search
SQL 함수에 대해 충돌하는 매개 변수가 검색되었습니다. <conflictParamNames>
, 다음 중 하나를 지정하세요: <parameterNames>
.
AI_검색_임베딩_열_유형_지원_불가_오류
열 형식 <embeddingColumnType>
포함하는 vector_search
SQL 함수는 지원되지 않습니다.
AI_검색_빈_쿼리_매개변수_오류
SQL 함수에 쿼리 입력 매개 변수가 없는 vector_search
<parameterNames>
중 하나를 지정하세요.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
인덱스 유형이 <indexType>
인 SQL 함수 vector_search
는 지원되지 않습니다.
AI_검색_쿼리_유형_변환_인코딩_오류
스파크 형식 <dataType>
에서 스칼라 네이티브 객체로 vector_search
SQL 함수 쿼리를 변환하는 동안 요청 인코딩 중에 <errorMessage>
오류가 발생했습니다.
지원되지 않는 검색 결과 개수 오류
<maxLimit>
보다 큰 num_results 있는 vector_search
SQL 함수는 지원되지 않습니다. 지정한 한도가 <requestedLimit>
입니다. num_results <= <maxLimit>
사용하여 다시 시도하세요.
ALL_PARAMETERS_MUST_BE_NAMED (모든 매개변수는 명명되어야 합니다)
매개 변수가 있는 이름 쿼리를 사용하려면 모든 매개 변수의 이름을 지정해야 합니다. 매개 변수 이름 누락: <exprs>
.
모든 파티션 열 사용 불가
파티션 열에 모든 열을 사용할 수 없습니다.
ALTER_SCHEDULE_DOES_NOT_EXIST (변경할 일정이 존재하지 않습니다)
기존 일정 또는 트리거 없이는 테이블의 <scheduleType>
변경할 수 없습니다. 테이블을 변경하기 전에 일정 또는 트리거를 테이블에 추가하세요.
테이블 열 설명자 중복 수정
ALTER TABLE <type>
열 <columnName>
"<optionName>
" 설명자를 두 번 이상 지정합니다. 이는 유효하지 않습니다.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
이름 <name>
중첩된 CTE에서 모호합니다.
내부 CTE에 정의된 이름이 우선적으로 적용되도록 <config>
"CORRECTED
"로 설정하세요. "LEGACY
"로 설정하면 외부 CTE 정의가 우선합니다.
https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'를 참조하세요.
모호한 열 또는 필드
열 또는 필드 <name>
모호하며 <n>
일치 항목이 있습니다.
모호한 열 참조
열 <name>
의 정의가 모호합니다. 여러 DataFrame을 함께 조인했고 이러한 데이터 프레임 중 일부는 동일하기 때문입니다.
이 열은 DataFrames 중 하나를 가리키지만 Spark는 어느 것을 알아낼 수 없습니다.
조인하기 전에 DataFrame.alias
통해 다른 이름으로 DataFrame의 별칭을 지정하세요.
정규화된 이름(예: df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
)을 사용하여 열을 지정합니다.
AMBIGUOUS_CONSTRAINT
제약 조건 <constraint>
대한 모호한 참조입니다.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
횡적 열 별칭 <name>
은 모호하고 <n>
유사 항목이 있습니다.
모호한 참조
참조 <name>
은 모호하며, <referenceNames>
일 가능성이 있습니다.
필드에 대한 모호한 참조
필드 <field>
에 대한 모호한 참조입니다. 스키마에 <count>
번 나타납니다.
AMBIGUOUS_RESOLVER_EXTENSION
단일 패스 분석기는 <operator>
의 확장 선택이 모호하기 때문에 이 쿼리 또는 명령을 처리할 수 없습니다: <extensions>
.
Databricks 지원에 문의하세요.
제약 조건 분석이 지원되지 않음
ANALYZE CONSTRAINTS
지원되지 않습니다.
ANSI_CONFIG_CANNOT_BE_DISABLED (ANSI 설정을 비활성화할 수 없습니다)
이 제품에서는 ANSI SQL 구성 <config>
사용하지 않도록 설정할 수 없습니다.
AQE_THREAD_INTERRUPTED (스레드 중단됨)
사용자 쿼리 취소로 인해 AQE 스레드가 중단됩니다.
ARGUMENT_NOT_CONSTANT
함수 <functionName>
에는 위치 <pos>
에 있는 매개 변수 <parameterName>
이 상수 인수를 필요로 합니다. 인수 <sqlExpr>
별도로 계산하고 결과를 상수로 전달하세요.
ARITHMETIC_OVERFLOW
<message>
.
<alternative>
필요한 경우 이 오류를 무시하려면 <config>
"false"로 설정합니다.
자세한 내용은 ARITHMETIC_OVERFLOW 를 참조하십시오.
할당_매개변수_불일치
할당되거나 별칭이 붙은 열 또는 변수의 수: <numTarget>
는 원본 식의 수: <numExpr>
과 일치하지 않습니다.
AS_OF_JOIN
잘못된 as-of 조인입니다.
AVRO 기본 값 지원되지 않음
rescuedDataColumn
사용하도록 설정된 경우 기본값 사용이 지원되지 않습니다.
spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
false로 설정하여 이 검사를 제거할 수 있지만 기본값은 적용되지 않으며 null 값은 계속 사용됩니다.
AVRO_INCOMPATIBLE_READ_TYPE (읽기 유형 불일치 오류)
Avro <avroPath>
을/를 SQL <sqlPath>
로 변환할 수 없는 이유는 원래 인코딩된 데이터 형식이 <avroType>
인데, 필드를 <sqlType>
로 읽으려 하기 때문에 오답으로 이어질 수 있습니다.
이 필드를 읽을 수 있도록 하려면 SQL 구성 "spark.sql.legacy.avro.allowIncompatibleSchema"를 활성화하세요.
AVRO 위치 기반 필드 일치 지원되지 않음
rescuedDataColumn
또는 failOnUnknownFields
이 활성화된 경우, 위치 필드 일치를 사용할 수 없습니다. 계속하려면 다음 옵션을 제거합니다.
배치 메타데이터를 찾을 수 없음
일괄 처리 <batchMetadataFile>
를 찾을 수 없음.
옵션은 상호 배타적입니다
BigQuery 연결 자격 증명은 'GoogleServiceAccountKeyJson' 매개 변수 또는 모든 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'를 사용하여 지정해야 합니다.
이진 산술 오버플로
<value1> <symbol> <value2>
오버플로가 발생했습니다.
<functionName>
사용하여 오버플로 문제를 무시하고 NULL
반환합니다.
불린_문_빈_행과_함께
부울 문장 <invalidStatement>
은 잘못되었습니다.
BOOLEAN
형식의 값을 가진 단일 행이 필요했지만, 빈 행이 반환되었습니다.
내장 카탈로그
<operation>
기본 제공 카탈로그를 지원하지 않습니다.
스트리밍 데이터셋에서 호출 불가능
스트리밍 데이터 세트/DataFrame에서는 <methodName>
메서드를 호출할 수 없습니다.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN (정렬 버킷 열을 변경할 수 없습니다)
ALTER TABLE (ALTER|CHANGE) COLUMN
은 버킷 열의 유형/하위 유형의 정렬을 변경할 수 없지만, 테이블 <tableName>
에서 버킷 열 <columnName>
이 발견되었습니다.
파티션 열을 수정할 수 없습니다.
ALTER TABLE (ALTER|CHANGE) COLUMN
은 파티션 열에 대해 지원되지 않지만, 테이블 <tableName>
에서 <columnName>
파티션 열이 발견되었습니다.
워터마크 없이 이벤트 시간 열을 할당할 수 없음
이벤트 시간 열을 다시 할당하려면 워터마크를 정의해야 합니다. 스트리밍 쿼리에서 워터마크 정의를 찾지 못했습니다.
데이터 유형을 변환할 수 없습니다.
<sourceType>
을(를) <targetType>
으로 캐스팅할 수 없습니다.
프로토버프 필드 유형을 SQL 유형으로 변환할 수 없음
스키마가 호환되지 않으므로 Protobuf <protobufColumn>
SQL <sqlColumn>
변환할 수 없습니다(protobufType = <protobufType>
, sqlType = <sqlType>
).
프로토콜 버퍼 메시지 유형을 SQL 유형으로 변환할 수 없습니다.
Protobuf의 <protobufType>
을(를) SQL 유형 <toType>
로 변환할 수 없습니다.
SQL 유형을 프로토버프 필드 유형으로 변환할 수 없습니다.
스키마가 호환되지 않으므로 SQL <sqlColumn>
Protobuf <protobufColumn>
변환할 수 없습니다(protobufType = <protobufType>
, sqlType = <sqlType>
).
SQL 값을 프로토콜 버퍼 열거형 타입으로 변환할 수 없음
SQL <sqlColumn>
을(를) Protobuf <protobufColumn>
(으)로 변환할 수 없습니다. 왜냐하면 <data>
은(는) 열거형에 대해 정의된 값인 <enumString>
에 포함되지 않기 때문입니다.
상태 복사 불가
Unity 카탈로그의 현재 데이터베이스 및 임시 뷰와 같은 카탈로그 상태를 레거시 카탈로그로 복사할 수 없습니다.
데이터 소스 테이블을 생성할 수 없음
<tableName>
데이터 원본 테이블을 만들지 못했습니다.
자세한 내용은 CANNOT_CREATE_DATA_SOURCE_TABLE 참조해 주시기 바랍니다.
URL을 해독할 수 없음
제공된 URL은 디코딩할 수 없습니다. <url>
. URL의 형식이 올바르게 지정되었는지 확인하고 다시 시도하세요.
시스템 소유로 인해 삭제할 수 없음
시스템 소유 <resourceType>
는 삭제할 수 없습니다.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT (제거할 수 없는 모호한 제약 조건)
이름 <constraintName>
을 CHECK
제약 조건이 공유하고 있으므로 이 제약 조건을 삭제할 수 없습니다.
및 PRIMARY KEY
또는 FOREIGN KEY
제약 조건입니다.
PRIMARY KEY
을 제거하거나
쿼리별 FOREIGN KEY
제약 조건:
ALTER TABLE
..
DROP PRIMARY KEY
또는
ALTER TABLE
..
DROP FOREIGN KEY
..
연결을 설정할 수 없습니다.
원격 <jdbcDialectName>
데이터베이스에 대한 연결을 설정할 수 없습니다. 연결 정보 및 자격 증명(예: 호스트, 포트, 사용자, 암호 및 데이터베이스 옵션)을 확인하세요. ** 정보가 정확하다고 생각되면 작업 영역의 네트워크 설정을 확인하고 호스트에 대한 아웃바운드 제한이 없는지 확인하세요. 또한 호스트가 작업 영역의 Spark 클러스터가 배포된 네트워크에서 인바운드 연결을 차단하지 않는지 확인하세요. ** 자세한 오류 메시지: <causeErrorMessage>
.
서버리스에 연결할 수 없음
원격 <jdbcDialectName>
데이터베이스에 대한 연결을 설정할 수 없습니다. 연결 정보 및 자격 증명(예: 호스트, 포트, 사용자, 암호 및 데이터베이스 옵션)을 확인하세요. ** 정보가 정확하다고 생각되면 서버리스 컴퓨팅을 사용 중이므로 인터넷에서 호스트로의 인바운드 트래픽을 허용하세요. 네트워크 정책에서 인바운드 인터넷 트래픽을 허용하지 않는 경우 비 서버리스 컴퓨팅을 사용하거나 Databricks 담당자에게 연락하여 서버리스 프라이빗 네트워킹에 대해 알아볼 수 있습니다. ** 자세한 오류 메시지: <causeErrorMessage>
.
변환 과정에서 호출할 수 없음
데이터 세트 변환 및 작업은 다른 데이터 세트 변환 내부가 아니라 드라이버에서만 호출할 수 있습니다. 예를 들어 dataset1.map(x => dataset2.values.count() * x)는 dataset1.map 변환 내에서 값 변환 및 개수 동작을 수행할 수 없기 때문에 유효하지 않습니다. 자세한 내용은 SPARK
-28702를 참조하세요.
함수 클래스를 로드할 수 없음
함수 <functionName>
등록할 때 클래스 <className>
로드할 수 없습니다. 클래스 경로에 있는지 확인하세요.
프로토콜 버퍼 클래스 로드 불가
이름이 <protobufClassName>
인 Protobuf 클래스를 로드할 수 없습니다.
<explanation>
.
상태 저장소를 로드할 수 없음
로드하는 동안 오류가 발생했습니다.
자세한 내용은 CANNOT_LOAD_STATE_STORE 참조하세요.
호환되지 않는 데이터 유형을 병합할 수 없음
호환되지 않는 데이터 형식 <left>
및 <right>
병합하지 못했습니다. 병합되는 열의 데이터 형식을 확인하고 호환되는지 확인하세요. 필요한 경우 병합을 시도하기 전에 열을 호환되는 데이터 형식으로 캐스팅하는 것이 좋습니다.
스키마를 병합할 수 없음
스키마 병합 실패:
초기 스키마:
<left>
초기 스키마와 병합할 수 없는 스키마:
<right>
.
구성을 수정할 수 없음
Spark 구성의 값을 수정할 수 없습니다. <key>
.
다음도 https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements참조하세요.
10진수를 해석할 수 없음
소수 자릿수를 구문 분석할 수 없습니다. 입력이 선택적 소수점 또는 쉼표 구분 기호가 있는 유효한 숫자인지 확인하세요.
구간 해석 불가
<intervalString>
구문 분석할 수 없습니다. 제공된 값이 간격을 정의하는 데 유효한 형식인지 확인하세요. 올바른 형식의 설명서를 참조할 수 있습니다. 문제가 지속되면 입력 값이 null이거나 비어 있지 않은지 다시 확인하고 다시 시도하세요.
JSON 필드를 구문 분석할 수 없음
JSON 토큰 형식 <jsonType>
의 필드 이름 <fieldName>
과 값 <fieldValue>
을 Spark 데이터 형식 <dataType>
로 변환할 수 없습니다.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR (프로토콜 버퍼 설명자를 구문 분석할 수 없습니다)
설명자 바이트를 Protobuf FileDescriptorSet으로 파싱하는 동안 오류가 발생했습니다.
타임스탬프를 해석할 수 없음
<message>
. 필요한 경우 이 오류를 무시하려면 <ansiConfig>
"false"로 설정합니다.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
초기화 중에 MV/ST를 쿼리할 수 없습니다.
자세한 내용은 CANNOT_QUERY_TABLE_DURING_INITIALIZATION을 참조하세요.
보관된 파일을 읽을 수 없습니다.
파일이 보관되었으므로 경로 <path>
파일을 읽을 수 없습니다. 보관된 파일을 제외하도록 쿼리 필터를 조정하세요.
파일을 읽을 수 없음
<path>
경로에서 <format>
파일을 읽을 수 없습니다.
자세한 내용은 CANNOT_READ_FILE 참조하세요.
민감한 키를 보안 공급자로부터 읽을 수 없음 (CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER)
보안 공급자에서 중요한 키 '<key>
'을 읽을 수 없습니다.
하이브 유형을 인식할 수 없습니다
hive 형식 문자열을 인식할 수 없습니다. <fieldType>
, 열: <fieldName>
. Spark SQL에서는 필드에 대해 지정된 데이터 형식을 인식할 수 없습니다. 지정된 필드의 데이터 형식을 확인하고 유효한 Spark SQL 데이터 형식인지 확인하세요. 유효한 데이터 형식 및 해당 형식 목록은 Spark SQL 설명서를 참조하세요. 데이터 형식이 올바른 경우 지원되는 버전의 Spark SQL을 사용하고 있는지 확인하세요.
CANNOT_REFERENCE_UC_IN_HMS
Hive Metastore 개체에서 Unity 카탈로그 <objType>
참조할 수 없습니다.
예약된 속성을 제거할 수 없습니다
예약된 속성을 제거할 수 없습니다. <property>
.
카탈로그 간 이름 변경 불가
카탈로그에서 <type>
이름을 바꾸는 것은 허용되지 않습니다.
스키마 간 이름 변경 불가
스키마 간에 <type>
이름을 바꾸는 것은 허용되지 않습니다.
데이터프레임 열을 해결할 수 없습니다
데이터 프레임 열 <name>
확인할 수 없습니다.
df1.select(df2.col("a"))
같은 불법 참조 때문일 수 있습니다.
별 확장을 해결할 수 없습니다
입력 열 <columns>
으로 인해 <targetString>
을(를) 확인할 수 없습니다. 지정된 테이블 또는 구조체가 있고 입력 열에서 액세스할 수 있는지 확인하세요.
경로에 대한 권한을 복원할 수 없습니다
생성한 경로 <path>
의 사용 권한을 <permission>
로 다시 설정하지 못했습니다.
UC와 HMS 간의 얕은 복제를 할 수 없습니다.
Unity 카탈로그 및 Hive Metastore에서 테이블을 단순 복제할 수 없습니다.
중첩된 객체를 얕은 복제로 처리할 수 없습니다.
이미 얕은 클론인 테이블 <table>
은 얕은 복제를 수행할 수 없습니다.
비관리 UC 테이블을 소스 또는 타겟으로 얕은 복제할 수 없습니다.
단순 클론은 MANAGED
테이블 형식에 대해서만 지원됩니다.
<table>
테이블이 MANAGED
테이블이 아닙니다.
필드 업데이트 불가
<table>
필드 <fieldName>
형식을 업데이트할 수 없습니다.
자세한 내용은 CANNOT_UPDATE_FIELD 참조하세요.
데이터 타입을 업 캐스트할 수 없음
<expression>
을(를) <sourceType>
에서 <targetType>
로 캐스트할 수 없습니다.
<details>
사용 불가_KRYO
Kryo serialization 코덱을 로드할 수 없습니다. Kryo serialization은 Spark Connect 클라이언트에서 사용할 수 없습니다. Java serialization을 사용하거나, 사용자 지정 코덱을 제공하거나, Spark 클래식을 대신 사용합니다.
연결을 확인할 수 없습니다.
<jdbcDialectName>
연결의 유효성 검사는 지원되지 않습니다. 대체 솔루션은 Databricks 지원에 문의하거나 연결 개체를 만들기 전에 연결 테스트를 건너뛰려면 "spark.databricks.testConnectionBeforeCreation"을 "false"로 설정하세요.
상태 저장소에 쓸 수 없음
공급자 <providerClass>
대한 상태 저장소 파일을 작성하는 동안 오류가 발생했습니다.
자세한 내용은 CANNOT_WRITE_STATE_STORE을 확인하세요.
CAST_INVALID_INPUT
값 <expression>
는 형식 <sourceType>
에 속하지만 잘못 형성되어 있어, <targetType>
로 캐스팅할 수 없습니다. 구문에 따라 값을 수정하거나 대상 형식을 변경합니다.
try_cast
를 사용하여 잘못된 입력을 수용하고, 그 대신 NULL
을 반환합니다.
자세한 내용은 CAST_INVALID_INPUT를 참조하세요.
캐스트 오버플로우
형식 <sourceType>
의 값 <value>
은(는) 오버플로로 인해 <targetType>
로 캐스팅할 수 없습니다. 대신 try_cast
사용하여 오버플로를 허용하고 NULL
반환합니다.
CAST_OVERFLOW_IN_TABLE_INSERT
오버플로로 인해 <sourceType>
형식 값을 <targetType>
형식 열 또는 변수 <columnName>
에 할당하지 못했습니다. 입력 값에 try_cast
을 사용해 오버플로를 허용하고 대신 NULL
을 반환합니다.
카탈로그를 찾을 수 없습니다.
카탈로그 <catalogName>
을(를) 찾을 수 없습니다. SQL 구성 <config>
을 카탈로그 플러그인으로 설정하도록 제안합니다.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND (체크포인트 RDD 블록 ID를 찾을 수 없음)
검사점 블록 <rddBlockId>
찾을 수 없습니다.
원래 이 파티션의 검사점을 지정한 실행기가 더 이상 활성 상태가 아니거나 원래 RDD가 존재하지 않습니다.
이 문제가 지속되면 로컬 체크포인팅보다 느리지만 내결함성이 더 높은 rdd.checkpoint()
을 대신 사용하는 것을 고려할 수 있습니다.
순환_클래스_참조
클래스에서 순환 참조를 허용하지 않지만 클래스 <t>
의 순환 참조가 발견되었습니다.
클래스가 예상된 메서드를 오버라이드하지 않음
<className>
는 <method1>
또는 <method2>
중 하나를 재정의해야 합니다.
지도 객체에서 지원되지 않는 클래스
MapObjects
은 결과 컬렉션으로서 클래스 <cls>
을 지원하지 않습니다.
클린룸 명령어가 지원되지 않습니다
클린룸 명령은 지원되지 않습니다.
CLEANROOM_유효하지 않은 공유 데이터 객체 이름
클린룸 내의 <type>
를 참조하는 잘못된 이름입니다. 클린룸 내부에서 [카탈로그].[스키마].[<type>
] 형식에 따라 <type>
의 이름을 사용합니다.
사용할 이름을 잘 모르는 경우 "SHOW ALL IN CLEANROOM
[clean_room]"을 실행하고 "이름" 열의 값을 사용할 수 있습니다.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND (클라우드 파일의 원본 파일을 찾을 수 없습니다)
다음 파일에 대한 알림이 수신되었습니다: <filePath>
파일은 더 이상 존재하지 않습니다. 파일이 처리되기 전에 삭제되지 않았는지 확인하세요. 스트림을 계속하려면 Spark SQL 구성 <config>
true로 설정할 수 있습니다.
클라우드 제공자 오류
클라우드 공급자 오류: <message>
CLUSTERING_COLUMNS_MISMATCH
지정된 클러스터링이 <tableName>
기존 테이블의 클러스터링과 일치하지 않습니다.
지정된 클러스터링 열: [<specifiedClusteringString>
].
기존 클러스터링 열: [<existingClusteringString>
].
클러스터링_지원되지_않음
'<operation>
'은 클러스터링을 지원하지 않습니다.
자동 클러스터 기능이 활성화되지 않았습니다
클러스터별 자동 기능을 사용하도록 설정하려면 Databricks 담당자에게 문의하세요.
자동 클러스터링 기능에는 클러스터링 기능 활성화가 필요함
CLUSTER BY
AUTO를 사용하기 위해 clusteringTable.enableClusteringTableFeature 기능을 활성화하세요.
자동 클러스터 작성을 위해 예상 최적화를 요구합니다 (CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION)
CLUSTER BY
AUTO를 사용하려면 예측 최적화를 사용하도록 설정해야 합니다.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR (자동 클러스터링이 지원되지 않는 테이블 유형 오류)
CLUSTER BY
AUTO는 UC 관리 테이블에서만 지원됩니다.
CODEC_NOT_AVAILABLE
코덱 <codecName>
사용할 수 없습니다.
자세한 내용은 CODEC_NOT_AVAILABLE 참조하십시오.
CODEC_SHORT_NAME_NOT_FOUND (코덱 짧은 이름을 찾을 수 없음)
코덱 <codecName>
의 짧은 이름을 찾을 수 없습니다.
잘못된 정렬 이름
<collationName>
값이 올바른 데이터 정렬 이름을 나타내지 않습니다. 제안된 유효한 데이터 정렬 이름: [<proposals>
].
유효하지 않은 정렬 제공자
<provider>
값이 올바른 데이터 정렬 공급자를 나타내지 않습니다. 지원되는 공급자는 [<supportedProviders>
]입니다.
COLLATION_MISMATCH
문자열 함수 및 연산자에서 사용할 데이터 정렬을 확인할 수 없습니다.
자세한 내용은 COLLATION_MISMATCH 참조하세요.
COLLECTION_SIZE_LIMIT_EXCEEDED
<maxRoundedArrayLength>
배열 크기 제한을 초과하는 <numberOfElements>
요소를 사용하여 배열을 만들 수 없습니다.
자세한 내용은 COLLECTION_SIZE_LIMIT_EXCEEDED 보십시오.
열 별칭이 허용되지 않습니다
<op>
에서 열 별칭은 허용되지 않습니다.
열이 이미 존재합니다
열 <columnName>
이 이미 있습니다. 다른 이름을 선택하거나 기존 열의 이름을 바꿉니다.
열 배열 요소 유형 불일치
필드 <pos>
일부 값은 열 배열 형식과 호환되지 않습니다. 예상 형식 <type>
.
열 마스크 검사 제약 조건 미지원
테이블 <tableName>
에 대한 CHECK
제약 조건 생성은 열 마스크 정책과 함께 지원되지 않습니다.
열 마스크가 열 이름을 사용하여 중복됩니다
<statementType>
문은 동일한 이름 <columnName>
을(를) 가지는 두 개 이상의 참조 열을 포함한 열에 열 마스크 정책을 할당하려고 시도했습니다. 이는 USING COLUMNS
목록에서 유효하지 않습니다.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
<tableName>
에 대한 열 마스크 정책은 지원되지 않습니다.
자세한 내용은 COLUMN_MASKS_FEATURE_NOT_SUPPORTED 참고하십시오.
열 마스크 호환되지 않는 스키마 변경
열 마스크 정책의 열 <maskedColumn>
에서 참조되었기 때문에 테이블 <tableName>
에서 <statementType> <columnName>
할 수 없습니다. 계속하기 전에 테이블 소유자가 이 정책을 제거하거나 변경해야 합니다.
컬럼 마스크 병합 지원되지 않는 소스
MERGE INTO
작업은 원본 테이블 <tableName>
열 마스크 정책을 지원하지 않습니다.
열 마스크 병합 지원되지 않는 대상
MERGE INTO
작업은 열 마스크 정책이 적용된 테이블 <tableName>
에 쓰기를 지원하지 않습니다.
다중 파트 대상을 위한 열 마스크 열 이름
이 문장은 여러 이름 부분이 있는 열 <columnName>
에 열 마스크 정책을 할당하려고 했는데, 이는 유효하지 않습니다.
열_이름을_사용하여_다중_부분을_마스킹하는_열
이 문장은 열에 열 마스크 정책을 할당하려고 시도했으며 USING COLUMNS
목록에 여러 부분으로 구성된 이름 <columnName>
이 포함되어 있는데, 이는 잘못된 것입니다.
열_마스크가_사용_안됨
열 마스크 정의 지원은 사용할 수 없습니다.
컬럼 마스크는 Unity 카탈로그가 필요합니다 (COLUMN_MASKS_REQUIRE_UNITY_CATALOG)
열 마스크 정책은 Unity 카탈로그에서만 지원됩니다.
COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS
명령은 열 마스크가 있는<format>
테이블에 대해 지원되지 않습니다.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED (컬럼 마스크 테이블 복제 소스는 지원되지 않습니다)
테이블 <tableName>
에서 열 마스크 정책이 적용된 <mode>
복제는 지원되지 않습니다.
컬럼 마스크 테이블 복제 대상이 지원되지 않습니다
테이블 <mode>
을(를) <tableName>
으로 열 마스크 정책과 함께 복제하는 것은 지원되지 않습니다.
열_마스크_지원되지_않는_상수_매개변수로서
열 마스크 정책에서 상수를 매개 변수로 사용하는 것은 지원되지 않습니다. SQL 명령을 업데이트하여 열 마스크 정의에서 상수 제거한 다음 명령을 다시 시도하세요.
열 마스크를 지원하지 않는 공급자
테이블 공급자를 사용하여 대상 데이터 원본에 대해 열 마스크 정책을 할당할 수 없으므로 <statementType>
명령을 실행하지 못했습니다. "<provider>
".
컬럼 마스크가 지원되지 않는 서브쿼리
테이블 <tableName>
에 대해 <operation>
을(를) 수행할 수 없습니다. 그 이유는 아직 지원되지 않는 하위 쿼리 식이 포함된 하나 이상의 열 마스크 정책이 포함되어 있기 때문입니다. 계속하려면 테이블 소유자에게 문의하여 열 마스크 정책을 업데이트하세요.
타겟 열과 동일한 열 이름을 사용하는 열 마스크
<columnName>
열의 이름이 대상 열과 같으며 이는 유효하지 않습니다. USING COLUMNS
목록에서 열을 제거하고 명령을 다시 시도하세요.
테이블에 정의되지 않은 열
테이블 <tableName>
에서 <colType>
열 <colName>
이(가) 정의되지 않았습니다. 정의된 테이블 열은: <tableCols>
.
열을 찾을 수 없습니다 (COLUMN_NOT_FOUND)
열 <colName>
찾을 수 없습니다. SQL 구성 <caseSensitiveConfig>
따라 열 이름의 맞춤법 및 정확성을 확인합니다.
열_순서가_범위를_벗어남
열 순위가 범위를 벗어났습니다. 테이블의 열 수는 <attributesLength>
이지만 열의 서수는 <ordinal>
입니다.
특성은 다음과 같습니다. <attributes>
.
콤마_선행_제약_오류
제약 조건 정의 앞에 예기치 않은 ','이(가) 있습니다. 제약 조건 절이 열(및 예상)이 정의되지 않은 경우 쉼표로 시작되지 않도록 확인합니다.
연결에 대한 댓글 기능이 아직 구현되지 않았습니다.
COMMENT ON CONNECTION
명령은 아직 구현되지 않았습니다.
비교기가 널을 반환
비교기가 <firstValue>
과 <secondValue>
를 비교하여 NULL
을 반환했습니다.
"보다 큼"에 대해 양의 정수, "같음"의 경우 0, "보다 작음"의 음수 정수를 반환해야 합니다.
사용되지 않는 동작, 즉 NULL
가 0(같음)으로 처리되는 방식으로 되돌리려면 "spark.sql.legacy.allowNullComparisonResultInArraySort"를 "true"로 설정해야 합니다.
복잡한_표현식_지원되지_않는_입력
식에 대한 입력 데이터 형식을 처리할 수 없습니다. <expression>
.
자세한 내용은 COMPLEX_EXPRESSION_UNSUPPORTED_INPUT 참조하십시오.
동시 쿼리
이 쿼리 [id: <queryId>
]의 또 다른 인스턴스는 동시 세션 [기존 runId: <existingQueryRunId>
새로운 runId: <newQueryRunId>
]에 의해 시작되었습니다.
동시에_스트림_로그_업데이트
로그에 대한 동시 업데이트입니다.
<batchId>
에 대해 여러 스트리밍 작업이 감지되었습니다.
한 번에 하나의 스트리밍 작업만 특정 검사점 위치에서 실행되는지 확인하세요.
구성 불가능
구성 <config>
을 사용할 수 없습니다.
충돌하는 디렉터리 구조들
충돌하는 디렉터리 구조가 검색되었습니다.
의심스러운 경로:
<discoveredBasePaths>
제공된 경로가 파티션 디렉터리인 경우 데이터 원본의 옵션에서 "basePath"를 설정하여 테이블의 루트 디렉터리를 지정하세요.
여러 루트 디렉터리인 경우 별도로 로드한 다음 통합합니다.
충돌하는_분할_열_이름
충돌하는 파티션 열 이름이 검색되었습니다.
<distinctPartColLists>
분할된 테이블 디렉터리에서 데이터 파일은 리프 디렉터리에만 있어야 합니다.
동일한 수준의 디렉터리에는 동일한 파티션 열 이름이 있어야 합니다.
예기치 않은 파일 또는 일관성 없는 파티션 열 이름은 다음 디렉터리를 확인하세요.
<suspiciousPaths>
충돌하는_제공자
지정된 공급자 <provider>
가 기존 카탈로그 공급자 <expectedProvider>
와 일치하지 않습니다. 'USING <expectedProvider>
'을 사용하고 명령을 다시 시도하세요.
CONNECT
일반 Spark Connect 오류입니다.
자세한 내용은 CONNECT 참조하세요.
연결이 이미 존재합니다
이미 있으므로 연결 <connectionName>
만들 수 없습니다.
다른 이름을 선택하거나, 기존 연결을 삭제하거나 바꾸거나, IF NOT EXISTS
절을 추가하여 기존 연결을 허용합니다.
연결_이름을_비울_수_없습니다
연결 이름이 비어 있어야 하므로 이 명령을 실행할 수 없습니다.
연결을 찾을 수 없음
연결 이름 <connectionName>
찾을 수 없으므로 이 명령을 실행할 수 없습니다.
연결 옵션이 지원되지 않습니다
'<connectionType>
' 형식의 연결은 다음 옵션을 지원하지 않습니다. <optionsNotSupported>
. 지원되는 옵션: <allowedOptions>
.
연결 유형이 지원되지 않습니다
'<connectionType>
형식의 연결을 만들 수 없습니다. 지원되는 연결 유형: <allowedTypes>
.
제약 조건은 Unity 카탈로그를 요구합니다.
테이블 제약 조건은 Unity 카탈로그에서만 지원됩니다.
변환_잘못된_입력
값 <str> (<fmt>
)은 형식이 잘못되어 <targetType>
로 변환할 수 없습니다. 구문에 따라 값을 수정하거나 해당 형식을 변경합니다.
<suggestion>
을(를) 사용하여 잘못된 입력을 처리하고 NULL
을(를) 반환합니다.
COPY_INTO_COLUMN_ARITY_MISMATCH
<tableName>
에 쓸 수 없습니다. 그 이유는
자세한 내용은 COPY_INTO_COLUMN_ARITY_MISMATCH 참고하십시오.
자격 증명으로 복사 불가 상태입니다.
잘못된 스키마 <scheme>
.
COPY INTO
원본 자격 증명 정보는 현재 s3/s3n/s3a/wasbs/abfss만을 지원합니다.
자격 증명 입력 필요
COPY INTO
원본 자격 증명은 <keyList>
을 지정해야 합니다.
중복된 파일에 복사할 수 없습니다
중복된 파일은 동시 COPY INTO
작업에서 커밋되었습니다. 나중에 다시 시도하세요.
암호화로 복사하는 것이 허용되지 않음
잘못된 스키마 <scheme>
.
COPY INTO
원본 암호화는 현재 s3/s3n/s3a/abfss만 지원합니다.
Azure에서 암호화를 지원하는 'COPY INTO' 기능을 사용할 수 없습니다.
COPY INTO
암호화는 ADLS Gen2 또는 abfss:// 파일 구성표만 지원합니다.
암호화 필수 복사
COPY INTO
원본 암호화는 '<key>
'을 지정해야 합니다.
암호화된 상태로 복사하는 것이 필요합니다 (예상되는 암호 사용)
<requiredKey>
암호화 옵션이 잘못되었습니다.
COPY INTO
원본 암호화는 '<requiredKey>
' = '<keyValue>
'를 지정해야 합니다.
기능 호환 불가 설정 복사 (COPY_INTO_FEATURE_INCOMPATIBLE_SETTING)
COPY INTO
기능 '<feature>
'은 '<incompatibleSetting>
'와 호환되지 않습니다.
블라인드가 아닌 추가에 복사 허용 안 됨
데이터 추가 이외의 COPY INTO
다른 트랜잭션과 동시에 실행할 수 없습니다. 나중에 다시 시도하세요.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO
상태를 로드하지 못했습니다. 최대 재시도 횟수가 초과되었습니다.
스키마가 대상 테이블과 일치하지 않음
델타 테이블(테이블: <table>
)에 복사하는 동안 스키마 불일치가 감지되었습니다.
이는 들어오는 데이터에 문제가 있음을 나타내거나 다음을 설정하여 들어오는 데이터에 따라 델타 테이블 스키마를 자동으로 진화할 수 있습니다.
COPY_OPTIONS
(‘병합스키마’ = ‘참’)
스키마 차이:
<schemaDiff>
소스 파일 형식으로 복사할 수 없습니다
원본 파일의 형식은 CSV, JSON, AVRO, ORC, PARQUET
, TEXT 또는 BINARYFILE
중 하나여야 합니다. 중복 데이터가 OPTIMIZE
작업 후에 수집될 수 있기 때문에 델타 테이블을 COPY INTO
의 원본으로 사용하는 것은 지원되지 않습니다. SQL 명령 set spark.databricks.delta.copyInto.formatCheck.enabled = false
실행하여 이 검사를 해제할 수 있습니다.
소스 스키마 추론에 실패한 복사
원본 디렉터리에는 <format>
형식의 구문 분석 가능한 파일이 없습니다. '<source>
'의 내용을 확인하세요.
'<config>
'를 'false'로 설정하여 오류를 침묵할 수 있습니다.
COPY_INTO_STATE_INTERNAL_ERROR
COPY INTO
상태를 처리하는 동안 내부 오류가 발생했습니다.
자세한 내용은 COPY_INTO_STATE_INTERNAL_ERROR 참조하세요.
COPY_INTO_SYNTAX_ERROR
COPY INTO
명령을 구문 분석하지 못했습니다.
자세한 내용은 COPY_INTO_SYNTAX_ERROR 문서를 참조하세요.
지원되지 않는 기능으로 복사
COPY INTO
기능 '<feature>
'은 지원되지 않습니다.
복사 언로드 형식 유형이 지원되지 않습니다.
'<formatType>
'형식으로 데이터를 언로드할 수 없습니다.
<connectionType>
의 지원되는 형식은 <allowedFormats>
입니다.
외부 스키마 생성은 아직 구현되지 않았습니다.
CREATE FOREIGN SCHEMA
명령은 아직 구현되지 않았습니다.
외부 테이블 생성 기능은 아직 구현되지 않았습니다.
CREATE FOREIGN TABLE
명령은 아직 구현되지 않았습니다.
CREATE_OR_REFRESH_MV_ST_ASYNC
ASYNC
이(가) 지정된 구체화된 뷰 또는 스트리밍 테이블에 대해 CREATE
또는 REFRESH
을(를) 수행할 수 없습니다.
CREATE
OR REFRESH
문에서 ASYNC
을 제거하거나, 기존의 구체화된 뷰 또는 스트리밍 테이블을 비동기적으로 새로 고치기 위해 REFRESH ASYNC
을 사용합니다.
영구 조회 만들기(별칭 없음)
식 <attr>
에 별칭을 명시적으로 할당하지 않으면 특정 영구 보기 <name>
를 만들 수 없습니다.
테이블 열 설명자 중복 생성
CREATE TABLE
열 <columnName>
"<optionName>
" 설명자를 두 번 이상 지정합니다. 이는 유효하지 않습니다.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
뷰 <viewName>
만들 수 없습니다. 그 이유는 다음과 같습니다.
자세한 내용은 CREATE_VIEW_COLUMN_ARITY_MISMATCH 참조하세요.
자격 증명 누락
외부 위치를 만들거나 업데이트할 때 자격 증명을 제공하세요.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
열이 서수가 아닌 이름으로 읽히기 때문에 rescuedDataColumn
또는 failOnUnknownFields
를 사용할 때는 CSV 옵션 enforceSchema
을 설정할 수 없습니다.
순환_함수_참조
순환 함수 참조가 검색됨: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
계정에서 Databricks Delta를 사용할 수 없습니다.<hints>
DATATYPE_MISMATCH
데이터 형식이 일치하지 않아 <sqlExpr>
확인할 수 없습니다.
자세한 내용은 DATATYPE_MISMATCH 참조하세요.
데이터 유형 크기 없음
DataType <type>
길이 매개 변수(예: <type>
(10))가 필요합니다. 길이를 지정하십시오.
데이터_계보_보안_뷰_리프_노드_관계없음
계보 작성에 실패했습니다. CLM/RLS에 대한 정책과 해당 관계가 없습니다.
데이터 소스가 이미 존재합니다.
데이터 원본 '<provider>
'이 이미 있습니다. 새 데이터 원본의 다른 이름을 선택하세요.
데이터_소스_외부_오류
외부 데이터 원본에 저장할 때 오류가 발생했습니다.
데이터 소스가 존재하지 않음 (DATA_SOURCE_NOT_EXIST)
데이터 원본 '<provider>
'을(를) 찾을 수 없습니다. 데이터 원본이 등록되어 있는지 확인하세요.
데이터 원본을 찾을 수 없습니다
데이터 원본을 찾지 못했습니다. <provider>
. 공급자 이름이 올바르고 패키지가 올바르게 등록되어 있고 Spark 버전과 호환되는지 확인합니다.
데이터_소스_옵션에_유효하지_않은_문자가_포함되어_있습니다
옵션 <option>
비어 있으면 안 되며 잘못된 문자, 쿼리 문자열 또는 매개 변수를 포함하면 안 됩니다.
데이터 소스 옵션이 필요합니다
옵션 <option>
필요합니다.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
데이터 원본 테이블의 스키마가 예상된 스키마와 일치하지 않습니다. DataFrameReader.schema API를 사용하거나 테이블을 만드는 경우 스키마를 지정하지 마십시오.
데이터 원본 스키마: <dsSchema>
필요한 스키마: <expectedSchema>
데이터 소스 URL이 허용되지 않습니다.
JDBC URL은 데이터 원본 옵션에서 허용되지 않습니다. 대신 '호스트', '포트' 및 '데이터베이스' 옵션을 지정하세요.
날짜-시간 필드 범위 초과
<rangeMessage>
. 필요한 경우 이 오류를 무시하려면 <ansiConfig>
"false"로 설정합니다.
날짜시간_오버플로우
날짜/시간 작업에서 오버플로 발생: <operation>
.
API 할당량 초과
데이터 원본 <sourceName>
대한 API 할당량을 초과했습니다.
자세한 내용은 DC_API_QUOTA_EXCEEDED를 참조하세요.
DC_연결_오류
<sourceName>
원본에 연결하지 못했습니다. 오류 코드: <errorCode>
.
자세한 내용은 DC_CONNECTION_ERROR 참조하세요.
DC_DYNAMICS_API_ERROR
Dynamics API 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_DYNAMICS_API_ERROR 참조하세요.
DC_NETSUITE_ERROR
Netsuite JDBC 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_NETSUITE_ERROR 참조하세요.
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: 할당된 항목 없음
<sourceName>
원본의 테이블 <tableName>
스키마 변경이 발생했습니다.
자세한 내용은 DC_SCHEMA_CHANGE_ERROR 참조하세요.
DC_SERVICENOW_API_ERROR
ServiceNow API 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_SERVICENOW_API_ERROR 참조하세요.
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Salesforce API 쿼리 작업이 너무 오래 걸리거나 실패했거나 수동으로 취소되었으므로 개체 <objName>
수집이 완료되지 않았습니다.
다시 시도하려면 전체 파이프라인을 다시 실행하거나 이 특정 대상 테이블을 새로 고칠 수 있습니다. 오류가 지속되면 티켓을 제출합니다. 작업 ID: <jobId>
. 작업 상태: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Sharepoint API 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_SHAREPOINT_API_ERROR 참조하세요.
DC 소스 API 오류
<sourceName>
API 호출에서 오류가 발생했습니다. 원본 API 유형: <apiType>
. 오류 코드: <errorCode>
.
이 경우 <sourceName>
API 제한에 도달했을 때 발생할 수 있습니다. API 제한을 초과하지 않은 경우 커넥터를 다시 실행해 보세요. 문제가 지속되면 티켓을 제출하세요.
DC_UNSUPPORTED_ERROR
지원되지 않는 오류가 데이터 원본 <sourceName>
에서 발생했습니다.
자세한 내용은 DC_UNSUPPORTED_ERROR 참조하세요.
DC_WORKDAY_RAAS_API_ERROR
Workday RAAS API 호출에서 오류가 발생했습니다. errorCode: <errorCode>
.
자세한 내용은 DC_WORKDAY_RAAS_API_ERROR 참조하세요.
소수 정밀도가 최대 정밀도를 초과했습니다
소수점 정밀도 <precision>
가 최대 정밀도 <maxPrecision>
를 초과합니다.
기본 데이터베이스가 존재하지 않습니다.
기본 데이터베이스 <defaultDatabase>
존재하지 않습니다. 먼저 만들거나 기본 데이터베이스를 <defaultDatabase>
변경하세요.
기본 파일을 찾을 수 없음
기본 파일이 업데이트되었을 수 있습니다. SQL에서 'REFRESH TABLE
tableName' 명령을 실행하거나 관련된 데이터 세트/DataFrame을 다시 만들어 Spark에서 캐시를 명시적으로 무효화할 수 있습니다. 디스크 캐시가 부실하거나 기본 파일이 제거된 경우 클러스터를 다시 시작하여 디스크 캐시를 수동으로 무효화할 수 있습니다.
기본 배치가 잘못되었습니다.
식의 일부이므로 MERGE
, INSERT
, UPDATE
또는 SET VARIABLE
명령의 DEFAULT
키워드를 대상 열에 직접 할당할 수 없습니다.
예를 들어 UPDATE
SET c1 = DEFAULT
허용되지만 UPDATE T
SET c1 = ``DEFAULT`` + 1
허용되지 않습니다.
DEFAULT_UNSUPPORTED
테이블 공급자가 있는 대상 데이터 원본에 대해 DEFAULT
값이 지원되지 않으므로 <statementType>
명령을 실행하지 못했습니다. "<dataSource>
".
스트리밍 소스에 의해 읽힌 서로 다른 델타 테이블
스트리밍 쿼리가 예기치 않은 델타 테이블에서 읽고 있었습니다(id = '<newTableId>
').
검사점별로 다른 델타 테이블(id = '<oldTableId>
')에서 읽는 데 사용되었습니다.
이 문제는 새 테이블에서 데이터를 읽도록 코드를 변경했거나 삭제하고 나서 발생할 수 있습니다.
테이블을 다시 만들었습니다. 변경 내용을 되돌리거나 스트리밍 쿼리 검사점을 삭제하세요.
처음부터 다시 시작합니다.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
고유 창 함수는 지원되지 않습니다. <windowExpr>
.
DIVIDE_BY_ZERO
0으로 나누기. 0으로 나누는 것을 허용하도록 try_divide
를 사용하고 대신 NULL
을 반환합니다. 필요한 경우 이 오류를 무시하려면 <config>
"false"로 설정합니다.
자세한 내용은 DIVIDE_BY_ZERO 참조하세요.
DLT_기대치_지원되지_않음
기대치는 Delta Live Tables 파이프라인 내에서만 지원됩니다.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED (지원되지 않음)
CLUSTER BY
절이 포함된 MATERIALIZED
VIEW는 Delta Live Tables 파이프라인에서만 지원됩니다.
DLT_VIEW_LOCATION_NOT_SUPPORTED (위치 보기 지원되지 않음)
<mv>
위치는 Delta Live Tables 파이프라인에서만 지원됩니다.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
지정된 형식의 <mv>
스키마는 Delta Live Tables 파이프라인에서만 지원됩니다.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED (DLT_VIEW_TABLE_CONSTRAINTS가 지원되지 않음)
보기의 CONSTRAINT
절은 Delta Live Tables 파이프라인에서만 지원됩니다.
드롭 스케줄이 존재하지 않습니다.
기존 일정이나 트리거가 없이는 SCHEDULE
을 테이블에서 삭제할 수 없습니다.
동일 CT 이름 (DUPLICATED_CTE_NAMES)
CTE 정의에는 중복된 이름이 있을 수 없습니다. <duplicateNames>
.
화살표 구조에서 중복된 필드 이름: DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
화살표 구조체에서 중복된 필드 이름은 허용되지 않으며, <fieldNames>
이(가) 발견되었습니다.
중복된 맵 키
중복된 맵 키 <key>
발견되었습니다. 입력 데이터를 확인하세요.
중복 키를 제거하려면 <mapKeyDedupPolicy>
"LAST_WIN
"로 설정하여 마지막으로 삽입한 키가 우선적으로 적용되도록 할 수 있습니다.
DUPLICATED_METRICS_NAME
메트릭 이름은 고유하지 않습니다. <metricName>
. 결과가 다른 메트릭에는 동일한 이름을 사용할 수 없습니다.
그러나 동일한 결과와 이름을 가진 여러 메트릭 인스턴스가 허용됩니다(예: 자체 조인).
중복 할당
<nameList>
열 또는 변수는 할당 대상으로 두 번 이상 표시됩니다.
중복 조항
중복된 조항을 찾았습니다: <clauseName>
. 그 중 하나를 제거하십시오.
중복된_키
<keyColumn>
중복 키를 찾았습니다.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
동일한 매개 변수 이름 <parameterName>
여러 인수 할당을 포함하므로 루틴 <routineName>
호출이 유효하지 않습니다.
자세한 내용은 DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT을 참조하세요.
중복된 루틴 매개변수 이름
사용자 정의 루틴 <routineName>
의 매개 변수 목록에서 중복된 이름 <names>
을 발견했습니다.
중복_루틴_반환_열
사용자 정의 루틴 <routineName>
의 RETURNS
절 열 목록에서 중복 열을 발견했습니다: <columns>
.
워터마크보다 오래된 행 배출 불가
이전 노드가 eventTime=<emittedRowEventTime>
인 행을 내보냈는데, 이는 current_watermark_value=<currentWatermark>
보다 오래되었습니다.
이로 인해 실행 파이프라인의 상태 저장 연산자 다운스트림에서 수정 문제가 발생할 수 있습니다.
현재 전역 워터마크 값 이후의 행을 내보내도록 연산자 논리를 수정하세요.
비어 있는 JSON 필드 값
데이터 형식 <dataType>
에 대해 빈 문자열을 구문 분석하지 못했습니다.
스테이징 액세스 쿼리에서 로컬 파일이 비어 있음
스테이징 <operation>
쿼리의 빈 로컬 파일
EMPTY_SCHEMA_NOT_SUPPORTED_FOR_DATASOURCE (빈 스키마는 데이터 소스에서 지원되지 않음)
<format>
데이터 원본은 빈 스키마 또는 중첩된 빈 스키마 작성을 지원하지 않습니다. 데이터 스키마에 하나 이상의 열이 있는지 확인하세요.
ENCODER_NOT_FOUND (인코더를 찾을 수 없음)
Spark SQL 내부 표현에 <typeName>
형식의 인코더를 찾을 수 없습니다.
입력 형식을 '<docroot>
/sql-ref-datatypes.html'에서 지원되는 형식 중 하나로 변경하는 것이 좋습니다.
시작 레이블 없이 끝 레이블
끝 레이블 <endLabel>
시작 레이블이 없으면 존재할 수 없습니다.
주제 파티션의 오프셋이 최신 값보다 큰 종료 오프셋으로 트리거 가능 여부: AVAILABLENOW
Kafka 토픽의 일부 파티션은 Trigger.AvailableNow를 사용하여 쿼리를 실행하는 동안 끝 오프셋보다 작은 사용 가능한 오프셋을 보고합니다. 오류가 일시적일 수 있습니다. 쿼리를 다시 시작하고 동일한 문제가 계속 표시되는 경우 보고합니다.
최신 오프셋: <latestOffset>
, 끝 오프셋: <endOffset>
토픽 파티션에 대한 최종 오프셋이 미리 가져온 것보다 큽니다.
Trigger.AvailableNow를 사용한 Kafka 데이터 원본의 경우 끝 오프셋은 미리 페치된 오프셋보다 각 토픽 파티션당 오프셋이 낮거나 같아야 합니다. 오류가 일시적일 수 있습니다. 쿼리를 다시 시작하고 동일한 문제가 계속 표시되는 경우 보고합니다.
미리 인출된 오프셋: <prefetchedOffset>
, 끝 오프셋: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT(Avro 파일을 읽는 중에 알 수 없는 지문 발견 오류)
avro 데이터를 읽는 동안 오류가 발생했습니다. 알 수 없는 지문 <fingerprint>
을(를) 발견했습니다. 어떤 스키마를 사용할지 확신이 없습니다.
이는 Spark 컨텍스트를 시작한 후 추가 스키마를 등록한 경우에 발생할 수 있습니다.
이벤트 로그는 공유 컴퓨팅이 필요합니다
할당되거나 격리되지 않은 공유 클러스터에서 이벤트 로그를 쿼리할 수 없습니다. 대신 공유 클러스터 또는 Databricks SQL 웨어하우스를 사용하세요.
이벤트 로그를 사용할 수 없음
<tableOrPipeline>
에 대한 이벤트 로그가 없습니다. 이벤트가 생성된 후 나중에 다시 시도하세요.
이벤트_로그_지원되지_않는_테이블_유형
<tableIdentifier>
테이블 형식은 <tableType>
입니다.
이벤트 로그 쿼리는 구체화된 뷰, 스트리밍 테이블 또는 Delta Live Tables 파이프라인만 지원합니다.
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE (이벤트 시간이 타임스탬프 유형에 없습니다)
이벤트 시간 <eventName>
의 유형이 <eventType>
으로 유효하지 않습니다. 예상되는 유형은 "TIMESTAMP
"입니다.
제한 길이 초과
char/varchar 형식 길이 제한을 초과합니다. <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT
열 <columnName>
이 해결되었고 StructType으로 예상되었지만 발견된 형식은 <dataType>
였습니다.
겹치는 열 제외 (EXCEPT_OVERLAPPING_COLUMNS)
EXCEPT
목록의 열은 고유하고 겹치지 않아야 하지만 got(<columns>
)이어야 합니다.
(No change required due to the nature of the text being a technical term or error code.)
EXCEPT
열 [<exceptColumns>
]은 해결되었지만, 스타 확장에서 [<expandedColumns>
] 열과 일치하지 않습니다.
구조 확장에서 해결되지 않은 열 제외(UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION)
EXCEPT
절의 열/필드 이름 <objectName>
을(를) 해결할 수 없습니다. 다음 중 하나를 의미했나요? [<objectList>
]?
참고: EXCEPT
절의 중첩 열은 구조체 확장 중에 한정자(테이블 이름, 부모 구조체 열 이름 등)를 포함하지 않을 수 있습니다. 중첩 열과 함께 사용되는 경우 한정자를 제거해 보세요.
EXECUTOR_BROADCAST_JOIN_OOM
브로드캐스트 관계 <relationClassName>
빌드할 메모리가 부족합니다. 관계 크기 = <relationSize>
. 이 작업에서 사용되는 총 메모리 = <taskMemoryUsage>
. 실행기 메모리 관리자 지표: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
] 이 쿼리에 대한 브로드캐스트를 비활성화하려면 'set spark.sql.autoBroadcastJoinThreshold=-1'을 설정하거나 조인 힌트를 사용하여 셔플 조인을 강제하십시오.
EXECUTOR_BROADCAST_JOIN_STORE_OOM
브로드캐스트 관계 <relationClassName>
저장할 메모리가 부족합니다. 관계 크기 = <relationSize>
. StorageLevel = <storageLevel>
. [sparkPlanId: <sparkPlanId>
] 'set spark.sql.autoBroadcastJoinThreshold=-1' 또는 조인 힌트를 사용하여 셔플 조인을 강제로 적용함으로써 이 쿼리의 브로드캐스트를 비활성화합니다.
즉시 실행 중복 인수 별칭
이 EXECUTE IMMEDIATE
명령의 USING
절에는 동일한 별칭(<aliases>
)이 있는 여러 인수가 포함되어 있으며 이는 유효하지 않습니다. 명령을 업데이트하여 고유한 별칭을 지정한 다음 다시 시도하세요.
영구 보기 예상, 임시 아님
'<operation>
'은 영구 보기를 기대하지만 <viewName>
임시 보기입니다.
EXPECT_TABLE_NOT_VIEW
'<operation>
'은 테이블을 기대했지만 <viewName>
은 뷰입니다.
자세한 내용은 EXPECT_TABLE_NOT_VIEW 참고하세요.
EXPECT_VIEW_NOT_TABLE
테이블 <tableName>
<operation>
지원하지 않습니다.
자세한 내용은 EXPECT_VIEW_NOT_TABLE 참조하세요.
EXPRESSION_DECODING_FAILED (식 표현 디코딩 실패)
식의 값으로 행을 디코딩하지 못했습니다: <expressions>
.
EXPRESSION_ENCODING_FAILED (표현 인코딩 실패)
식의 값 <expressions>
를 행에 인코딩하지 못했습니다.
표현_유형_정렬_불가
열 표현식 <expr>
의 형식 <exprType>
은 정렬할 수 없는 형식이므로 정렬할 수 없습니다.
외부_테이블_잘못된_스키마
외부 테이블은 <scheme>
체계를 지원하지 않습니다.
FABRIC_REFRESH_INVALID_SCOPE (선택한 범위가 유효하지 않습니다)
'REFRESH FOREIGN <scope> <name>
'를 실행하는 동안 오류가 발생했습니다. 패브릭 <scope>
을 직접 새로 고칠 수 없습니다. 대신 'REFRESH FOREIGN CATALOG <catalogName>
'을 사용하여 패브릭 카탈로그를 새로 고치십시오.
사용자 정의 함수 실행 실패
사용자 정의 함수(<functionName>
: (<signature>
) =><result>
)가 <reason>
때문에 실패했습니다.
함수 호출 실패
호출을 위해 함수 <funcName>
준비하지 못했습니다. 함수의 인수를 다시 확인하세요.
실패한_JDBC
작업 중 JDBC <url>
실패했습니다.
자세한 내용은 FAILED_JDBC 참조하세요.
구조 유형 구문 분석 실패
구조체 파싱 실패: <raw>
.
FAILED_READ_FILE
파일 <path>
읽는 동안 오류가 발생했습니다.
자세한 내용은 FAILED_READ_FILE 참조하세요.
KRYO에서 클래스 등록 실패
Kryo에 클래스를 등록하지 못했습니다.
경로 이름 변경 실패
대상이 이미 존재하기 때문에 <sourcePath>
을(를) <targetPath>
으로 이름 변경하는 데 실패했습니다.
임시 파일 이름 변경 실패
FileSystem.rename이 false를 반환함에 따라 임시 파일 <srcPath>
의 이름을 <dstPath>
으로 변경하는데 실패했습니다.
FAILED_ROW_TO_JSON
클래스 <class>
의 행 값 <value>
을(를) JSON 형식에서 대상 SQL 형식 <sqlType>
으로(로) 변환하지 못했습니다.
루틴을 로드하지 못했습니다.
루틴 <routineName>
로드하지 못했습니다.
구문 분석 실패 - 너무 복잡함
잠재적인 SQL 함수 및 참조된 뷰를 포함한 문이 너무 복잡하여 구문 분석할 수 없습니다.
이 오류를 완화하려면 문을 덜 복잡한 여러 부분으로 나눕니다.
기능이 활성화되지 않음
기능 <featureName>
사용할 수 없습니다. 이 기능을 활성화하려면 구성 <configKey>
을 <configValue>
으로 설정하는 것을 고려하세요.
클래식 창고에 없는 기능
<feature>
클래식 SQL 웨어하우스에서 지원되지 않습니다. 이 기능을 사용하려면 Pro 또는 서버리스 SQL 웨어하우스를 사용합니다.
FEATURE_REQUIRES_UC
<feature>
Unity 카탈로그 없이는 지원되지 않습니다. 이 기능을 사용하려면 Unity 카탈로그를 사용하도록 설정합니다.
기능 사용 불가
<feature>
사용자 환경에서 지원되지 않습니다. 이 기능을 사용하려면 Databricks 지원에 문의하세요.
필드가 이미 존재합니다
<struct>
에 <fieldNames>
이 이미 있으므로 <op>
열을 추가할 수 없습니다.
필드_찾을_수_없음
<fields>
에 이러한 구조체 필드 <fieldName>
가 없습니다.
임시 경로에 파일이 이미 존재합니다
준비 경로 <path>
에 파일이 이미 존재하지만 OVERWRITE
이 설정되지 않았습니다.
상태가 있는 그룹에 대한 사용자의 flatMap 함수 오류
flatMapGroupsWithState에서 사용자가 제공한 함수에서 오류가 발생했습니다. 이유: <reason>
금지된 작업
<objectType>
와 <objectName>
에 대해 작업 <statement>
이 허용되지 않습니다.
배치별 사용자 함수 오류 (FOREACH_BATCH_USER_FUNCTION_ERROR)
foreach 일괄 처리 싱크에서 사용자가 제공한 함수에서 오류가 발생했습니다. 이유: <reason>
FOREACH_USER_FUNCTION_ERROR
foreach 싱크에서 사용자가 제공한 함수에서 오류가 발생했습니다. 이유: <reason>
외래 키 불일치
외래 키 부모 열 <parentColumns>
가 기본 키 자식 열 <childColumns>
과 일치하지 않습니다.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
외래 <objectType>
이름이 비어 있지 않아야 하므로 이 명령을 실행할 수 없습니다.
다수의 데이터 소스를 발견함
이름이 '<provider>
'인 여러 데이터 원본이 검색되었습니다. 데이터 원본이 동시에 클래스 경로에 등록되어 있지 않은지 확인하세요.
FROM_JSON_충돌_스키마_업데이트
from_json 연산에서 <location>
에서 스키마 업데이트 충돌이 발생했습니다.
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json columnNameOfCorruptRecord(<columnNameOfCorruptRecord>
)가 있는 것을 발견했습니다.
JSON 객체 내에서 더 이상 진행할 수 없습니다. 에 대해 다른 값을 구성하세요.
'columnNameOfCorruptRecord' 옵션입니다.
JSON 손상된 스키마
from_json 유추에서 저장된 스키마를 읽을 수 없습니다. <location>
JSON 추론 실패
from_json 스키마를 유추할 수 없습니다. 대신 하나를 제공해 주세요.
JSON에서의 추론 미지원
from_json 유추는 스트리밍 테이블을 정의할 때만 지원됩니다.
FROM_JSON_잘못된_구성
from_json 구성이 잘못되었습니다.
자세한 내용은 FROM_JSON_INVALID_CONFIGURATION 참조하세요.
FROM_JSON_SCHEMA_EVOLUTION_FAILED (JSON 스키마 진화 실패)
from_json이 <old>
에서 <new>
로 진화할 수 없습니다.
함수 매개변수는 이름이 지정되어야 합니다.
<function>
함수에는 명명된 매개 변수가 필요합니다. 매개 변수 이름 누락: <exprs>
. 함수 호출을 업데이트하여 모든 매개 변수의 이름(예: <function>
(param_name => ...)을 추가하세요.
기본값이 있는 생성된 열
열에는 기본값과 생성 식이 모두 있을 수 없지만 열 <colName>
기본값은 (<defaultValue>
) 및 생성 식(<genExpr>
)입니다.
해당 Hive 버전에서는 GET_TABLES_BY_TYPE를 지원하지 않습니다
Hive 2.2 이하 버전은 getTablesByType을 지원하지 않습니다. Hive 2.3 이상 버전을 사용하세요.
웜업 추적 실패 발생
준비 추적을 얻지 못했습니다. 원인: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
함수 get_warmup_tracing()는 허용되지 않습니다.
Graphite 연결 잘못된 프로토콜
Graphite 프로토콜이 잘못되었습니다. <protocol>
.
GRAPHITE_싱크_속성_누락
흑연 싱크에는 '<property>
' 속성이 필요합니다.
그룹화_열_불일치
그룹화 열(<grouping>
)은 <groupingColumns>
그룹화 열에서 찾을 수 없습니다.
그룹화_ID_열_불일치
grouping_id(<groupingIdColumn>
)의 열이 그룹화 열(<groupByColumns>
)과 일치하지 않습니다.
그룹화 크기 제한 초과
그룹화 집합 크기는 <maxSize>
초과할 수 없습니다.
GROUP_BY_AGGREGATE
집계 함수는 GROUP BY
에 허용되지 않지만 <sqlExpr>
에서 발견되었습니다.
자세한 내용은 GROUP_BY_AGGREGATE 참조하세요.
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
은 집계 함수를 포함하는 식 <aggExpr>
을 참조합니다. 집계 함수는 GROUP BY
에서 허용되지 않습니다.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY
위치 <index>
선택 목록에 없습니다(유효한 범위는 [1, <size>
]).
그룹 표현 유형은 정렬할 수 없습니다
<dataType>
데이터 형식이 정렬 가능한 데이터 형식이 아니므로 <sqlExpr>
식을 그룹화 식으로 사용할 수 없습니다.
HDFS_HTTP_ERROR
HDFS에서 읽으려고 할 때 HTTP 요청이 실패했습니다.
자세한 내용은 HDFS_HTTP_ERROR 참조하세요.
HLL_잘못된_입력_스케치_버퍼
<function>
; 에 대한 호출이 잘못되었습니다. 유효한 HLL 스케치 버퍼만 입력으로 지원됩니다(예: hll_sketch_agg
함수에서 생성됨).
HLL_INVALID_LG_K
<function>
에 대한 호출이 잘못되었습니다. lgConfigK
값은 <min>
부터 <max>
까지 (<value>
포함) 설정되어야 합니다.
HLL_UNION_DIFFERENT_LG_K
스케치마다 lgConfigK
값이 다릅니다: <left>
및 <right>
.
<function>
을 다른 lgConfigK
값으로 호출하려면 allowDifferentLgConfigK
매개변수를 true로 설정하십시오.
HYBRID_ANALYZER_EXCEPTION
레거시 고정 지점 분석기 및 단일 패스 확인자를 모두 사용하여 쿼리 또는 명령을 확인하려고 할 때 오류가 발생했습니다.
자세한 내용은 HYBRID_ANALYZER_EXCEPTION 참조하세요.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
이름 부분이 2개 이상 있으므로 유효한 식별자가 아닙니다.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION (아이덴티티 열 중복 시퀀스 생성기 옵션)
중복된 "IDENTITY
" 열 시퀀스 생성기 옵션: "<sequenceGeneratorOption>
".
식별 열의 잘못된 단계
IDENTITY
열 단계는 0일 수 없습니다.
ID 열 미지원 데이터 유형
IDENTITY
열에는 DataType <dataType>
지원되지 않습니다.
잘못된 요일
잘못된 요일 입력: <string>
.
ILLEGAL_STATE_STORE_VALUE
State Store에 잘못된 값이 제공됨
자세한 내용은 ILLEGAL_STATE_STORE_VALUE를 참조하세요.
연결 옵션의 부적절한 URI 스킴
연결 옵션 '<option>
'에 대해 제공된 부적절한 URI <uri>
구성표로 인해 연결을 만들 수 없습니다.
허용된 스킴(들): <allowedSchemes>
.
URI에 없는 경우 스키마를 추가하거나 허용된 값에서 스키마를 지정하세요.
INCOMPARABLE_PIVOT_COLUMN
피벗 열 <columnName>
가 유효하지 않습니다. 피벗 열은 비교할 수 있어야 합니다.
호환되지 않는 열 유형
<operator>
은 열 유형이 호환되는 테이블에서만 작업을 수행할 수 있습니다. 첫 번째 테이블의 동일한 열에 있는 <dataType2>
과 호환되지 않는 <dataType1>
형식의 <tableOrdinalNumber>
테이블의 <columnOrdinalNumber>
열입니다.<hint>
.
호환되지 않는 데이터 소스 등록 (INCOMPATIBLE_DATASOURCE_REGISTER)
호환되지 않는 DataSourceRegister를 검색했습니다. 클래스 경로에서 호환되지 않는 라이브러리를 제거하거나 업그레이드하세요. 오류: <message>
INCOMPATIBLE_DATA_FOR_TABLE
테이블 <tableName>
호환되지 않는 데이터를 작성할 수 없습니다.
자세한 내용은 INCOMPATIBLE_DATA_FOR_TABLE 참조하세요.
호환되지 않는 조인 유형 (INCOMPATIBLE_JOIN_TYPES)
<joinType1>
조인 형식과 <joinType2>
호환되지 않습니다.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE (호환되지 않는 보기 스키마 변경)
뷰 <viewName>
의 SQL 쿼리에 호환되지 않는 스키마 변경으로 인해 열 <colName>
을 확인할 수 없습니다. 기대했던 <colName>
이름의 <expectedNum>
열이 아닌 <actualCols>
가 나왔습니다.
다음을 실행하여 뷰를 다시 만들어 보세요. <suggestion>
.
불완전_유형_정의
불완전한 복합 형식:
자세한 내용은 INCOMPLETE_TYPE_DEFINITION 참조하세요.
INCONSISTENT_BEHAVIOR_CROSS_VERSION (버전 간 일관되지 않은 동작)
업그레이드로 인해 다른 결과를 얻을 수 있습니다.
자세한 내용은 INCONSISTENT_BEHAVIOR_CROSS_VERSION 참조하세요.
잘못된 인수의 수
<failure>
<functionName>
최소한 <minArgs>
인수와 최대 <maxArgs>
인수가 필요합니다.
잘못된 상승 속도
<rowsPerSecond>
rowsPerSecond의 최대 오프셋은 <maxSeconds>
이지만, 'rampUpTimeSeconds'는 <rampUpTimeSeconds>
입니다.
INDETERMINATE_COLLATION
호출되는 함수에는 적용해야 하는 데이터 정렬에 대한 지식이 필요하지만 확정되지 않은 데이터 정렬이 발견되었습니다.
COLLATE
함수를 사용하여 데이터 정렬을 명시적으로 설정합니다.
인덱스가 이미 존재합니다
테이블 <tableName>
에 인덱스 <indexName>
를 만들 수 없습니다. 이미 존재하기 때문입니다.
인덱스를 찾을 수 없음
테이블 <tableName>
인덱스 <indexName>
찾을 수 없습니다.
무한 스트리밍 트리거 지원되지 않음
트리거 유형 <trigger>
이 클러스터 유형에 대해 지원되지 않습니다.
다른 트리거 유형(예: AvailableNow, Once)을 사용합니다.
INSERT_COLUMN_ARITY_MISMATCH
<tableName>
파일에 쓸 수 없습니다. 이유는
자세한 내용은 INSERT_COLUMN_ARITY_MISMATCH을 참조하세요.
삽입_파티션_컬럼_아리티_불일치
'<tableName>
'에 쓸 수 없습니다. <reason>
:
테이블 열: <tableColumns>
.
정적 값을 사용하여 열을 분할합니다. <staticPartCols>
.
데이터 열: <dataColumns>
.
권한이 부족합니다
권한이 부족합니다.
<report>
권한 부족_EXT_LOC
사용자 <user>
외부 위치 <location>
대한 권한이 부족합니다.
권한 부족 - 소유자 없음
<securableName>
대한 소유자가 없습니다. 관리자에게 소유자를 설정하도록 요청합니다.
권한 부족_소유권_확보 가능
사용자가 <securableName>
소유하지 않습니다.
권한 부족 보안 가능
사용자가 <action>
권한이 없어 <securableName>
을 사용할 수 없습니다.
권한 부족 - 보호 가능한 부모 소유자
<securableName>
소유자는 <parentSecurableName>
소유자와 다릅니다.
저장 자격 증명에 대한 권한이 부족합니다.
스토리지 자격 증명 <credentialName>
권한이 부족합니다.
권한 불충분_기초 보안 자원
사용자는 기본 보안 개체에 대한 권한 때문에 <securableName>
에서 <action>
할 수 없습니다.
권한 불충분_기본 보안 가능한 요소_자세한 설명
기본 보안 개체에 대한 권한 때문에 사용자는 <securableName>
<action>
수 없습니다.
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
간격 작업 중 정수 오버플로가 발생했습니다.
자세한 내용은 INTERVAL_ARITHMETIC_OVERFLOW 참조하세요.
INTERVAL_DIVIDED_BY_ZERO
0으로 나누기.
try_divide
사용하여 0이 되는 것을 허용하고 대신 NULL
반환합니다.
INVALID_AGGREGATE_FILTER
집계 함수에서 FILTER
식 <filterExpr>
가 잘못되었습니다.
자세한 내용은 INVALID_AGGREGATE_FILTER 참조하세요.
잘못된_배열_인덱스
<indexValue>
인덱스가 범위를 벗어났습니다. 배열에는 <arraySize>
요소가 있습니다. SQL 함수 get()
사용하여 잘못된 인덱스에서 요소에 액세스하는 것을 허용하고 대신 NULL
반환합니다. 필요한 경우 이 오류를 무시하려면 <ansiConfig>
"false"로 설정합니다.
자세한 내용은 유효하지 않은 배열 인덱스을 참조하세요.
요소의 잘못된 배열 인덱스
<indexValue>
인덱스가 범위를 벗어났습니다. 배열에는 <arraySize>
요소가 있습니다.
try_element_at
사용하여 잘못된 인덱스에서 요소에 액세스하는 것을 허용하고 대신 NULL
반환합니다. 필요한 경우 이 오류를 무시하려면 <ansiConfig>
"false"로 설정합니다.
자세한 내용은 INVALID_ARRAY_INDEX_IN_ELEMENT_AT을 참고하십시오.
속성 이름 구문 오류
특성 이름의 구문 오류: <name>
. 백틱이 쌍으로 나타나는지 확인하고, 따옴표로 묶인 문자열이 전체 이름의 일부로 간주되며, 따옴표로 묶인 이름 부분 내에서만 백틱을 사용합니다.
잘못된 비트맵 위치
0으로 인덱싱된 비트맵 위치 <bitPosition>
가 범위를 벗어났습니다. 비트맵에는 <bitmapNumBits>
비트(<bitmapNumBytes>
바이트)가 있습니다.
잘못된 불리언 문장
조건에서는 부울 조건문이 필요하지만, <invalidStatement>
이(가) 발견되었습니다.
INVALID_BOUNDARY
경계 <boundary>
이(가) 유효하지 않습니다: <invalidValue>
.
자세한 내용은 INVALID_BOUNDARY을 참조하세요.
INVALID_BUCKET_COLUMN_DATA_TYPE
버킷 열에 <type>
을 사용할 수 없습니다. 정렬된 데이터 유형은 버킷팅을 위해 지원하지 않습니다.
INVALID_BUCKET_FILE
버킷 파일이 잘못되었습니다. <path>
.
유효하지 않은 바이트 문자열
예상 형식은 ByteString이지만 <unsupported> (<class>
) 입니다.
INVALID_COLUMN_NAME_AS_PATH
데이터 원본 <datasource>
이름에 파일 경로에서 허용되지 않는 일부 문자가 포함되어 있으므로 열 <columnName>
저장할 수 없습니다. 별칭을 사용하여 이름을 바꾸세요.
잘못된 열 또는 필드 데이터 유형
열 또는 필드 <name>
는 <type>
형식이지만, <expectedType>
형식으로 되어야 합니다.
유효하지 않은 설정 값
구성 "<confName>
"의 '<confValue>
' 값이 잘못되었습니다.
자세한 내용은 INVALID_CONF_VALUE 참조하세요.
유효하지 않은 손상된 기록 유형
손상된 레코드를 위한 열 <columnName>
는 nullable STRING
유형이어야 하지만, <actualType>
유형이 제공되었습니다.
잘못된 현재 수신자 사용
current_recipient
함수는 CREATE VIEW
문 또는 ALTER VIEW
문에서만 사용하여 Unity 카탈로그에서 공유 전용 보기를 정의할 수 있습니다.
INVALID_CURSOR
커서가 잘못되었습니다.
자세한 내용은 INVALID_CURSOR 참조하세요.
유효하지 않은_날짜시간_형식
인식할 수 없는 날짜/시간 패턴: <pattern>
.
자세한 내용은 INVALID_DATETIME_PATTERN 참조하세요.
유효하지 않은 기본값
대상 열 또는 변수 <colName>
DEFAULT
값이 <defaultValue>
때문에 <statement>
명령을 실행하지 못했습니다.
자세한 내용은 INVALID_DEFAULT_VALUE을 참조하십시오.
잘못된_구분자_값
구분 기호의 값이 잘못되었습니다.
자세한 내용은: INVALID_DELIMITER_VALUE을 참조하세요.
잘못된 대상 카탈로그
SYNC
명령의 대상 카탈로그는 Unity 카탈로그 내에 있어야 합니다.
<catalog>
발견됨.
잘못된 드라이버 메모리
시스템 메모리 <systemMemory>
<minSystemMemory>
이상이어야 합니다.
Spark 구성에서 -driver-memory 옵션 또는 "<config>
"을 사용하여 힙 크기를 늘리세요.
유효하지 않은 동적 옵션
<option_list> 전달된 옵션은 외부 테이블 <table_name>에서 사용할 수 없습니다.
유효하지 않은 빈 위치
위치 이름은 빈 문자열일 수 없지만 <location>
지정되었습니다.
INVALID_ESC
잘못된 이스케이프 문자열을 찾았습니다. <invalidEscape>
. 이스케이프 문자열에는 문자가 하나만 포함되어야 합니다.
잘못된 이스케이프 문자
EscapeChar
은 길이가 1인 문자열 리터럴이어야 하지만 대신에 <sqlExpr>
을 받았습니다.
유효하지 않은 실행자 메모리 (INVALID_EXECUTOR_MEMORY)
실행기 메모리 <executorMemory>
<minSystemMemory>
이상이어야 합니다.
Spark 구성에서 -executor-memory 옵션 또는 "<config>
"를 사용하여 실행기 메모리를 늘립니다.
잘못된_표현_인코더
유효하지 않은 식 인코더를 찾았습니다. ExpressionEncoder의 인스턴스를 예상했지만 받은 것은 <encoderType>
입니다. 자세한 내용은 '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'를 참조하세요.
INVALID_EXTERNAL_TYPE
외부 형식 <externalType>
이/가 식 <expr>
의 <type>
형식에 대해 유효하지 않습니다.
INVALID_EXTRACT_BASE_FIELD_TYPE (잘못된 추출 기준 필드 유형)
<base>
값을 추출할 수 없습니다. 복합 형식 [STRUCT
, ARRAY
, MAP
]이 필요한데 <other>
을(를) 받았습니다.
유효하지 않은 추출 필드
<expr>
에서 <field>
을 추출할 수 없습니다.
필드 유형 추출 오류 (INVALID_EXTRACT_FIELD_TYPE)
필드 이름은 null이 아닌 문자열 리터럴이어야 하지만 현재 값은 <extraction>
입니다.
잘못된 필드 이름
필드 이름 <fieldName>
잘못되었습니다. <path>
구조체가 아닙니다.
INVALID_FORMAT
형식이 잘못되었습니다. <format>
.
자세한 내용은 INVALID_FORMAT 참조하세요.
초의 분수값이 잘못되었습니다
초의 유효한 범위는 [0, 60](포함)이지만 제공된 값은 <secAndMicros>
. 오류를 방지하기 위해서는, 오류가 발생하면 NULL
을 반환하는 try_make_timestamp
를 사용하십시오.
이 함수의 세션 기본 타임스탬프 버전을 사용하지 않으려면 try_make_timestamp_ntz
사용하거나 try_make_timestamp_ltz
.
잘못된_핸들
핸들 <handle>
이 잘못되었습니다.
자세한 내용은 INVALID_HANDLE 확인하세요.
유효하지 않은 HTTP 요청 방식
입력 매개 변수: 메서드, 값: <paramValue>
유효한 HTTP 메서드가 아니므로 http_request 유효한 매개 변수가 아닙니다.
잘못된 HTTP 요청 경로
경로 탐색이 허용되지 않으므로 입력 매개변수인 path와 값 <paramValue>
는 http_request에 유효한 매개변수가 아닙니다.
잘못된_식별자
따옴표가 없는 식별자 <ident>
는 유효하지 않으며 `<ident>
`로 백쿼트를 사용하여 묶어야 합니다.
따옴표가 지정되지 않은 식별자는 ASCII
문자(‘a’ - ‘z’, ‘A’ - ‘Z’), 숫자(‘0’ - ‘9’), 및 밑줄(‘_’)만 포함할 수 있습니다.
따옴표가 없는 식별자도 숫자로 시작해서는 안 됩니다.
다른 데이터 원본 및 메타 저장소는 유효한 식별자에 추가 제한을 적용할 수 있습니다.
잘못된 인덱스: 0
인덱스 0이 잘못되었습니다. 인덱스는 < 0 또는 > 0이어야 합니다(첫 번째 요소에는 인덱스 1이 포함됨).
INVALID_INLINE_TABLE
인라인 테이블이 잘못되었습니다.
자세한 내용은 INVALID_INLINE_TABLE 참고하십시오.
잘못된 간격 형식
'<input>
'을 간격으로 변환 중 오류가 발생했습니다. 제공된 값이 간격을 정의하는 데 유효한 형식인지 확인하세요. 올바른 형식의 설명서를 참조할 수 있습니다.
자세한 내용은 INVALID_INTERVAL_FORMAT을 참조하세요.
마이크로초 추가로 인한 잘못된 간격
마이크로초 부분이 0이 아니므로 날짜에 간격을 추가할 수 없습니다. 필요한 경우 이 오류를 무시하려면 <ansiConfig>
"false"로 설정합니다.
유효하지 않은 역 분포 함수
잘못된 역 분포 함수 <funcName>
.
자세한 내용은 INVALID_INVERSE_DISTRIBUTION_FUNCTION 참조하세요.
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName>
Java의 유효한 식별자가 아니며 필드 이름으로 사용할 수 없습니다.
<walkedTypePath>
.
JOINWITH에 대한 잘못된 조인 유형 (INVALID_JOIN_TYPE_FOR_JOINWITH)
joinWith: <joinType>
에서 잘못된 조인 유형입니다.
INVALID_JSON_DATA_TYPE (유효하지 않은 JSON 데이터 유형)
JSON 문자열 '<invalidType>
'을 데이터 형식으로 변환하지 못했습니다. 유효한 데이터 형식을 입력하세요.
잘못된 정렬을 위한 JSON 데이터 유형
문자열 형식에만 정렬을 적용할 수 있지만 JSON 데이터 형식은 <jsonType>
입니다.
잘못된_JSON_레코드_유형
<failFastMode>
모드에서 공통 스키마를 유추하는 동안 잘못된 형식의 JSON 레코드가 검색되었습니다.
STRUCT
형식이 필요했지만 <invalidType>
이(가) 발견되었습니다.
잘못된_JSON_루트_필드
JSON 루트 필드를 대상 Spark 형식으로 변환할 수 없습니다.
JSON 스키마 맵 유형 오류
입력 스키마 <jsonSchema>
는 MAP
에 대한 키 유형으로 STRING
만 포함할 수 있습니다.
잘못된 Kryo 직렬화기 버퍼 크기
config “<bufferSizeConfKey>
”의 값은 2048 MiB 미만이어야 하지만 받은 값은 <bufferSizeConfValue>
MiB입니다.
잘못된 라벨 사용
레이블 <labelName>
사용이 잘못되었습니다.
자세한 내용은 INVALID_LABEL_USAGE 참조하세요.
INVALID_LAMBDA_FUNCTION_CALL
잘못된 람다 함수 호출입니다.
자세한 내용은 INVALID_LAMBDA_FUNCTION_CALL 참조해 주시기 바랍니다.
INVALID_LATERAL_JOIN_TYPE
OUTER
하위 쿼리가 조인 파트너와 상관 관계를 가질 수 없기 때문에 <joinType>
JOIN은 LATERAL
상관 관계와 함께 허용되지 않습니다.
LATERAL
상관 관계를 제거하거나 INNER
JOIN 또는 LEFT OUTER
JOIN을 대신 사용합니다.
INVALID_LIMIT_LIKE_EXPRESSION
식 <expr>
같은 제한이 잘못되었습니다.
자세한 내용은 INVALID_LIMIT_LIKE_EXPRESSION 참조하세요.
잘못된 비절대 경로
제공된 비절대 경로 <path>
는 한정할 수 없습니다. 경로를 유효한 dbfs 탑재 위치로 업데이트하세요.
유효하지 않은 비결정적 표현
연산자는 결정적 식을 예상하지만 실제 식은 <sqlExprs>
.
잘못된 숫자 리터럴 범위
숫자 리터럴 <rawStrippedQualifier>
는 최소값이 <minValue>
이고 최대값이 <maxValue>
인 <typeName>
의 유효 범위를 벗어났습니다. 그에 따라 값을 조정하십시오.
유효하지 않은 관측된 메트릭
관찰된 메트릭이 잘못되었습니다.
자세한 내용은 INVALID_OBSERVED_METRICS를 참조하세요.
잘못된 옵션
잘못된 옵션:
자세한 내용은 INVALID_OPTIONS를 참조하시기 바랍니다.
INVALID_PANDAS_UDF_PLACEMENT (유효하지 않은 판다스 UDF 배치)
그룹 집계 "pandas UDF <functionList>
"은 다른 비 pandas 집계 함수와 함께 호출할 수 없습니다.
INVALID_PARAMETER_MARKER_VALUE
잘못된 매개 변수 매핑이 제공되었습니다.
자세한 내용은 INVALID_PARAMETER_MARKER_VALUE를 참조하십시오.
INVALID_PARAMETER_VALUE
매개 변수 <parameter>
의 값이 <functionName>
에서 유효하지 않습니다.
자세한 내용은 INVALID_PARAMETER_VALUE 참조하세요.
유효하지 않은 파티션 열 데이터 유형
파티션 열에 <type>
사용할 수 없습니다.
INVALID_PARTITION_OPERATION
파티션 명령이 잘못되었습니다.
자세한 내용은 INVALID_PARTITION_OPERATION을 참조하세요.
파티션 값 오류 (INVALID_PARTITION_VALUE)
파티션 열 <columnName>
에 대해 데이터 형식 <dataType>
으로 값을 <value>
캐스팅하지 못했습니다. 값이 이 파티션 열의 예상 데이터 형식과 일치하는지 확인합니다.
유효하지 않은 파이프라인 ID
파이프라인 ID <pipelineId>
잘못되었습니다.
파이프라인 ID는 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx' 형식의 UUID여야 합니다.
잘못된 권한
권한 <privilege>
은(는) <securable>
에 대해 유효하지 않습니다.
유효하지 않은 속성 키
<key>
잘못된 속성 키입니다. 따옴표(예: SET <key>=<value>
)를 사용하세요.
잘못된 속성 값 (INVALID_PROPERTY_VALUE)
<value>
잘못된 속성 값입니다. 따옴표(예: SET <key>=<value>
)를 사용하세요.
유효하지 않은 자격을 갖춘 열 이름
<columnName>
열 이름은 테이블 이름으로 정규화되지 않았거나 4개 이상의 이름 부분으로 구성되므로 유효하지 않습니다.
잘못된_쿼리_혼합된_쿼리_매개변수
매개 변수가 있는 쿼리는 위치 매개 변수 또는 명명된 매개 변수 중 하나만 사용해야 하며, 둘 다 사용해서는 안 됩니다.
INVALID_REGEXP_REPLACE
regexp_replace를 source = "<source>
", pattern = "<pattern>
", replacement = "<replacement>
" 및 position = <position>
에 대해 수행할 수 없습니다.
잘못된 초기화 명령 형식
필요한 형식은 'RESET
' 또는 'RESET
키'입니다. 키에 특수 문자를 포함하려면 따옴표(예: RESET key
)를 사용하세요.
INVALID_S3_COPY_CREDENTIALS
COPY INTO
자격 증명에는 AWS_ACCESS_KEY
, AWS_SECRET_KEY
및 AWS_SESSION_TOKEN
포함되어야 합니다.
유효하지 않은 저장 모드
지정한 저장 모드 <mode>
잘못되었습니다. 유효한 저장 모드에는 "append", "overwrite", "ignore", "error", "errorifexists" 및 "default"가 포함됩니다.
INVALID_SCHEMA
입력 스키마 <inputSchema>
유효한 스키마 문자열이 아닙니다.
자세한 내용은 INVALID_SCHEMA에서 확인하세요.
유효하지 않은 스키마 또는 관계 이름
<name>
테이블/스키마의 유효한 이름이 아닙니다. 유효한 이름에는 알파벳 문자, 숫자 및 _만 포함됩니다.
잘못된 체계
Unity 카탈로그는 기본 파일 구성표로 <name>
지원하지 않습니다.
잘못된_비밀_조회
잘못된 비밀 조회:
자세한 내용은 INVALID_SECRET_LOOKUP 참조하세요.
유효하지 않은 설정 문법
필요한 형식은 'SET
', 'SET
키', 또는 'SET
키=값'입니다. 키에 특수 문자를 포함하거나 값에 세미콜론을 포함하려면 백쿼트(예: SET key
=value
)를 사용하세요.
공유 별칭 이름 무효
<sharedObjectType>
별칭 이름은 "schema.name" 형식이어야 합니다.
단일 변형 컬럼이 유효하지 않음
사용자가 지정한 스키마도 있는 경우 singleVariantColumn
옵션을 사용할 수 없습니다.
잘못된 소스 카탈로그
원본 카탈로그는 SYNC
명령에 대한 Unity 카탈로그 내에 있지 않아야 합니다.
<catalog>
을 찾았습니다.
INVALID_SQL_ARG (유효하지 않은 SQL 인수)
인수 <name>
이(가) sql()
에 대해 잘못되었습니다. SQL 리터럴 또는 컬렉션 생성자 함수(예: map()
, array()
, struct()
)로 바꿔야 합니다.
SQL 구문 오류
잘못된 SQL 구문:
자세한 내용은 INVALID_SQL_SYNTAX 참조하세요.
스테이징_액세스_쿼리의_잘못된_스테이징_경로
스테이징 <operation>
쿼리의 스테이징 경로가 잘못되었습니다. <path>
실행 입력에 대한 잘못된 명령문
EXECUTE IMMEDIATE
INTO
절은 쿼리에만 유효하지만 지정된 문은 쿼리가 아닙니다. <sqlString>
.
잘못된 문장 또는 절
문 또는 절: <operation>
유효하지 않습니다.
INVALID_SUBQUERY_EXPRESSION
잘못된 하위 쿼리:
자세한 내용은 INVALID_SUBQUERY_EXPRESSION 참조하십시오.
잘못된 임시 개체 참조
<tempObj>
형식의 임시 개체 <tempObjName>
참조하므로 <obj>
형식의 영구 개체 <objName>
만들 수 없습니다. 임시 개체 <tempObjName>
를 영구적으로 만들거나, 영구 개체 <objName>
을 임시로 만드십시오.
잘못된_타임스탬프_형식
제공된 타임스탬프 <timestamp>
이 예상 구문 <format>
과 일치하지 않습니다.
잘못된 시간대
표준 시간대: <timeZone>
잘못되었습니다. 표준 시간대는 지역 기반 영역 ID 또는 영역 오프셋이어야 합니다. 지역 ID에는 '지역/도시' 형식(예: 'America/Los_Angeles')이 있어야 합니다. 영역 오프셋은 '(+|-)HH', '(+|-)HH:mm' 또는 '(+|-)HH:mm:ss'(예: '-08', '+01:00' 또는 '-13:33:33' 형식이어야 하며 -18:00에서 +18:00까지의 범위에 있어야 합니다. 'Z' 및 'UTC'는 '+00:00'의 동의어로 허용됩니다.
잘못된_시간_여행_사양
테이블을 이동하는 시간 동안 버전과 타임스탬프를 둘 다 지정할 수 없습니다.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
시간 여행 타임스탬프 표현 <expr>
은 유효하지 않습니다.
자세한 내용은 INVALID_TIME_TRAVEL_TIMESTAMP_EXPR 참조하세요.
INVALID_TYPED_LITERAL
형식화된 리터럴 <valueType>
값이 잘못되었습니다. <value>
.
INVALID_UDF_IMPLEMENTATION (UDF 구현 오류)
함수 <funcName>
ScalarFunction 또는 AggregateFunction을 구현하지 않습니다.
잘못된 업그레이드 구문
<command> <supportedOrNot>
원본 테이블은 Hive Metastore에 있고 대상 테이블은 Unity 카탈로그에 있습니다.
INVALID_URL
URL이 잘못되었습니다. <url>
. 잘못된 URL을 허용하고 대신에 NULL
을 반환하도록 try_parse_url
을 사용합니다.
별 또는 정규 표현식의 잘못된 사용
<prettyName>
에서 <elem>
의 사용이 잘못되었습니다.
INVALID_UTF8_STRING (유효하지 않은 UTF-8 문자열)
문자열에 잘못된 UTF8 바이트 시퀀스가 있습니다. <str>
.
INVALID_UUID
입력 <uuidInput>
유효한 UUID가 아닙니다.
UUID는 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx' 형식이어야 합니다.
UUID의 형식을 확인하세요.
INVALID_VARIABLE_DECLARATION
잘못된 변수 선언입니다.
자세한 내용은 INVALID_VARIABLE_DECLARATION 참조하세요.
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
변수 유형은 문자열 유형이어야 하지만 <varType>
를 받았습니다.
INVALID_VARIANT_CAST (유효하지 않은 변형 캐스트)
<value>
변형 값은 <dataType>
으로 캐스팅할 수 없습니다. 대신 try_variant_get
사용하세요.
INVALID_VARIANT_FROM_PARQUET
잘못된 변형입니다.
자세한 내용은 INVALID_VARIANT_FROM_PARQUET 참조하세요.
잘못된_변형_경로_가져오기
<path>
경로가 <functionName>
유효한 변형 추출 경로가 아닙니다.
유효한 경로는 $
시작하고 [123]
, .name
, ['name']
또는 ["name"]
같은 세그먼트가 0개 이상 뒤에 와야 합니다.
잘못된_변형_분할_스키마
스키마 <schema>
유효한 변형 파쇄 스키마가 아닙니다.
유효하지 않은 WHERE 조건
WHERE
조건 <condition>
잘못된 식을 포함합니다. <expressionList>
.
WHERE
절에서 창 함수, 집계 함수 및 생성기 함수를 방지하려면 쿼리를 다시 작성합니다.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC (집계 함수에 대한 잘못된 윈도우 사양)
<aggFunc>
에 대해 ORDER BY
또는 창 프레임을 지정할 수 없습니다.
작성자 커밋 메시지가 잘못되었습니다
데이터 원본 작성기가 잘못된 수의 커밋 메시지를 생성했습니다. 각 작업에서 정확히 하나의 작성자 커밋 메시지를 예상했지만, <detail>
개를 받았습니다.
잘못된_쓰기_분배
요청된 쓰기 배포가 잘못되었습니다.
자세한 내용은 INVALID_WRITE_DISTRIBUTION을 참조하세요.
고립된 명령 실패
<command>
실행하지 못했습니다.
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
조인 조건 <joinCondition>
이/가 잘못된 형식 <conditionType>
입니다. ‘BOOLEAN
’로 예상됩니다.
KAFKA_DATA_LOSS
일부 데이터는 더 이상 Kafka에서 사용할 수 없으므로 손실되었을 수 있습니다.
Kafka에 의해 데이터가 오래되어 제거되었거나, 모든 데이터가 삭제되기 전에 토픽이 삭제된 경우
토픽이 처리되었습니다.
이러한 경우 스트리밍 쿼리가 실패하지 않도록 하려면 원본 옵션 failOnDataLoss를 false로 설정합니다.
이유:
자세한 내용은 KAFKA_DATA_LOSS 참조하세요.
분할 끝 오프셋까지 샤드를 읽을 수 없음
분할 <shardId>
에서 원하는 시퀀스 번호 <endSeqNum>
까지 읽을 수 없었습니다.
kinesis 스트림 <stream>
의 소비자 모드 <consumerMode>
. 쿼리가 실패할 것입니다.
잠재적인 데이터 손실 마지막 읽은 기록은 시퀀스 번호 <lastSeqNum>
에 있었습니다.
endSeqNum이 있는 데이터가 이미 오래된 경우 또는 Kinesis 스트림이
삭제되고 동일한 이름으로 다시 구성됩니다. 오류 동작을 재정의할 수 있습니다.
spark 구성에서 spark.databricks.kinesis.failOnDataLoss를 false로 설정하십시오.
KINESIS_EFO_CONSUMER_NOT_FOUND
kinesis 스트림 <streamId>
에서 이전에 등록된 EFO 소비자 <consumerId>
이 삭제되었습니다.
새 소비자가 등록되도록 쿼리를 다시 시작합니다.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
샤드 <shard>
의 경우, subscribeToShard API의 이전 호출은 다음 호출 5초 이내에 이루어졌습니다.
5초 이상 후에 쿼리를 다시 시작합니다.
추적된 샤드보다 가져온 KINESIS 샤드가 적습니다.
Kinesis에서 가져온 최소 shardId(<fetchedShardId>
)
최소로 추적된 shardId(<trackedShardId>
)보다 작습니다.
이는 예기치 않은 작업이며 Kinesis 스트림을 삭제하고 동일한 이름으로 다시 만들 때 발생합니다.
이 Kinesis 스트림을 사용하는 스트리밍 쿼리는 기존 검사점 위치를 사용하여 다시 시작됩니다.
새 검사점 위치로 스트리밍 쿼리를 다시 시작하거나 새 이름으로 스트림을 만듭니다.
KINESIS_POLLING_MODE_UNSUPPORTED (Kinesis 폴링 모드가 지원되지 않음)
Kinesis 폴링 모드는 지원되지 않습니다.
KINESIS_레코드_순서번호_순서_위반
샤드 <shard>
에 대해, 이전 인출에서 Kinesis에서 읽은 마지막 레코드의 시퀀스 번호는 <lastSeqNum>
입니다.
현재 인출에서 읽은 시퀀스 번호가 <recordSeqNum>
인 레코드보다 큰 값입니다.
이는 예기치 않은 작업이며 다시 시도 또는 다음 인출의 시작 위치가 잘못 초기화되어 중복 레코드 다운스트림이 발생할 수 있습니다.
KINESIS_SOURCE_MUST_BE_IN_EFO_MODE_TO_CONFIGURE_CONSUMERS
소비자 구성(consumerName
, consumerNamePrefix
또는 registeredConsumerId
)을 사용하여 Kinesis Streams에서 읽으려면 consumerMode
이(가) efo
여야 합니다.
KINESIS_SOURCE 는 등록된 소비자 ID와 유형을 명시해야 합니다.
등록된 소비자와 함께 Kinesis Streams에서 읽으려면 registeredConsumerId
및 registeredConsumerIdType
옵션을 모두 지정해야 합니다.
KINESIS_SOURCE는 스트림 이름 또는 ARN을 지정해야 합니다.
Kinesis Streams에서 읽으려면 streamName
또는 streamARN
옵션 중 하나를 스트림 이름/ARN의 쉼표로 구분된 목록으로 구성해야 합니다.
KINESIS_SOURCE_NO_CONSUMER_OPTIONS_WITH_REGISTERED_CONSUMERS
등록된 소비자와 함께 Kinesis Streams에서 읽으려면 consumerName
또는 consumerNamePrefix
옵션이 적용되지 않으므로 구성하지 마세요.
KINESIS_소스_등록_소비자_ID_수_불일치
등록된 소비자 ID 수는 Kinesis 스트림 수와 같아야 하지만, 소비자 ID가 <numConsumerIds>
개이고 스트림이 <numStreams>
개입니다.
KINESIS_SOURCE_REGISTERED_CONSUMER_NOT_FOUND (등록된 소비자를 찾을 수 없음)
제공된 등록된 소비자 <consumerId>
을(를) streamARN <streamARN>
에서 찾을 수 없습니다. 소비자를 등록했는지 또는 registeredConsumerId
옵션을 제공하지 않는지 확인합니다.
KINESIS_소스_등록된_소비자_유형_유효하지_않음
등록된 소비자 유형 <consumerType>
잘못되었습니다. 반드시 name
또는 ARN
이어야 합니다.
KRYO_버퍼 오버플로우
Kryo 직렬화 실패: <exceptionMsg>
. 이를 방지하려면 "<bufferSizeConfKey>
" 값을 늘립니다.
레이블 불일치
시작 레이블 <beginLabel>
끝 레이블 <endLabel>
일치하지 않습니다.
이미 존재하는 레이블
레이블 <label>
이 이미 있습니다. 다른 이름을 선택하거나 기존 레이블의 이름을 바꿉니다.
로드_데이터_경로_존재하지_않음
LOAD DATA 입력 경로가 없습니다. <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
는 file
스키마와 함께 사용해야 하지만 <actualSchema>
을(를) 받았습니다.
위치가 이미 존재합니다
관리되는 테이블의 이름을 <identifier>
으로 지정할 수 없습니다. 이는 연결된 위치 <location>
이 이미 존재하기 때문입니다. 다른 테이블 이름을 선택하거나 기존 위치를 먼저 제거하세요.
주제 파티션 손실: 오프셋 끝부분에 트리거 사용 가능함
Trigger.AvailableNow를 사용하여 쿼리를 실행하는 동안 Kafka 토픽의 일부 파티션이 손실되었습니다. 오류가 일시적일 수 있습니다. 쿼리를 다시 시작하고 동일한 문제가 계속 표시되는 경우 보고합니다.
최신 오프셋에 대한 토픽 파티션: <tpsForLatestOffset>
, 끝 오프셋에 대한 토픽 파티션: <tpsForEndOffset>
잘못된 AVRO 메시지
잘못된 형식의 Avro 메시지는 역직렬화 중 감지됩니다. 구문 분석 모드: <mode>
. 잘못된 형식의 Avro 메시지를 null 결과로 처리하려면 'mode' 옵션을 'PERMISSIVE
'로 설정해 보세요.
잘못된_문자_코딩
<charset>
을 사용하여 <function>
을 수행할 때 잘못된 값이 발견되었습니다.
구조가 잘못된 CSV 레코드
형식이 잘못된 CSV 레코드: <badRecord>
MALFORMED_RECORD_IN_PARSING (파싱 중 잘못된 레코드)
레코드 구문 분석에서 형식상의 오류가 있는 레코드가 검출됩니다. <badRecord>
.
구문 분석 모드: <failFastMode>
. 잘못된 형식의 레코드를 null 결과로 처리하려면 'mode' 옵션을 'PERMISSIVE
'로 설정하시기 바랍니다.
자세한 내용은 MALFORMED_RECORD_IN_PARSING 참조하세요.
잘못된_변형
변형 이진 파일이 잘못되었습니다. 데이터 원본이 유효한지 확인하세요.
관리된 테이블 (CRED 포함)
스토리지 자격 증명을 사용하여 관리되는 테이블 만들기는 지원되지 않습니다.
구체화된_뷰_MESA_리프레시_파이프라인_ID_없음
pipelineId가 존재하기 전에 물질화된 뷰를 <refreshType>
할 수 없습니다.
<refreshType>
을 사용하려면, 물리화된 뷰를 삭제한 후 다시 생성하세요.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
구체화된 뷰 작업 <operation>
는 허용되지 않습니다.
자세한 내용은 "MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED"을 참조하세요.
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
구체화된 뷰의 출력 식 <expression>
은 명시적으로 별칭을 지정해야 합니다.
스트리밍 쿼리 상의 물리화된 뷰가 유효하지 않음
스트리밍 쿼리로 구체화된 뷰 <name>
를 생성할 수 없습니다.
CREATE
[OR REFRESH
] <st>
사용하거나 FROM
절에 STREAM
키워드를 제거하여 이 관계를 일괄 처리 쿼리로 전환하세요.
실현된_뷰_지원되지_않는_작업
이 버전의 구체화된 뷰에서는 <operation>
작업이 지원되지 않습니다.
세션당 최대 변수 개수 초과
세션의 변수 수가 허용되는 최대 개수(<maxNumVariables>
)를 초과하므로 <variableName>
새 변수를 만들 수 없습니다.
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch는 <kinesisRecordLimit>
보다 작거나 같은 양의 정수여야 합니다.
병합 기본 범주 위반
MERGE
문장의 ON
검색 조건은 원본 테이블의 여러 행과 대상 테이블의 단일 행을 일치시켰습니다.
이로 인해 대상 행이 업데이트 또는 삭제 작업으로 한 번 이상 적용될 수 있으며, 이는 허용되지 않습니다.
조건 없이 병합
MERGE
문에는 하나 이상의 WHEN
절이 있어야 합니다.
메트릭 제약 사항은 지원되지 않음
METRIC CONSTRAINT
사용할 수 없습니다.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
제공된 값 "<argValue>
"는 METRIC_STORE
테이블 함수에 대해 인수 "<argName>
"에서 지원되지 않습니다.
자세한 내용은 METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR 참조하세요.
METRIC_STORE_UNSUPPORTED_ERROR (메트릭 저장소 지원되지 않음 오류)
메트릭 저장소 루틴 <routineName>
현재 이 환경에서 사용할 수 없습니다.
마이그레이션이 지원되지 않습니다
<table>
<tableKind>
테이블이 아니므로 관리되는 테이블로 마이그레이션할 수 없습니다.
오프셋 끝과 미리 가져온 항목 사이의 불일치된 토픽 파티션
Trigger.AvailableNow의 Kafka 데이터 원본은 각 마이크로배치에 대해 시작 오프셋에서 종료 오프셋까지 미리 가져온 동일한 토픽 파티션을 제공해야 합니다. 오류가 일시적일 수 있습니다. 쿼리를 다시 시작하고 동일한 문제가 계속 표시되는 경우 보고합니다.
미리 페치된 오프셋에 대한 토픽 파티션: <tpsForPrefetched>
, 끝 오프셋에 대한 토픽 파티션: <tpsForEndOffset>
.
집계 누락
비집계 표현식 <expression>
는 GROUP BY
절에 참여하지 않는 열들을 기반으로 합니다.
열 또는 식을 GROUP BY
에 추가하거나, 식을 집계하거나, 그룹 내의 특정 값이 반환되는 것에 신경 쓰지 않는 경우 <expressionAnyValue>
을 사용합니다.
자세한 내용은 MISSING_AGGREGATION 참조하세요.
작업을 위한 조건이 누락되었습니다.
작업 <operation>
에 대한 절 <clauses>
이 없습니다. 필요한 절을 추가하세요.
연결 옵션 없음
'<connectionType>
' 형식의 연결에는 다음 옵션이 포함되어야 합니다. <requiredOptions>
.
V1 세션 카탈로그에 대한 데이터베이스 누락
v1 세션 카탈로그에 데이터베이스 이름이 지정되지 않았습니다. v1 카탈로그와 상호 작용할 때 유효한 데이터베이스 이름을 제공해야 합니다.
그룹별 누락
쿼리에는 GROUP BY
절이 포함되지 않습니다.
GROUP BY
을 추가하거나 OVER 절을 사용하여 윈도우 함수로 전환합니다.
제약 조건에 대한 이름 누락
CHECK
제약 조건에는 이름이 있어야 합니다.
카프카에 필요한 매개 변수가 누락됨
Kafka에 필요한 매개변수 <parameterName>
가 <functionName>
에 지정되지 않았습니다.
루틴에 필요한 매개변수가 누락되었습니다.
매개변수 <parameterName>
는 필요하지만, <functionName>
에 지정되지 않았습니다.
타임아웃 구성 누락
작업 시간이 초과되었지만 시간 제한 기간은 구성되지 않았습니다. 처리 시간 기반 시간 제한을 설정하려면 'mapGroupsWithState' 또는 'flatMapGroupsWithState' 작업에서 'GroupState.setTimeoutDuration()'을 사용합니다. 이벤트 시간 기반 시간 제한의 경우 'GroupState.setTimeoutTimestamp()'를 사용하고 'Dataset.withWatermark()'를 사용하여 워터마크를 정의합니다.
창 지정 누락
창 사양은 <windowName>
대한 WINDOW
절에 정의되어 있지 않습니다.
WINDOW
절에 대한 자세한 내용은 '<docroot>
/sql-ref-syntax-qry-select-window.html'을 참조하세요.
내장 카탈로그 수정
기본 제공 카탈로그 <catalogName>
수정은 지원되지 않습니다.
MULTIPLE_LOAD_PATH
Databricks Delta는 load() API에서 여러 입력 경로를 지원하지 않습니다.
paths: <pathList>
. 하나의 데이터 프레임을 로드하여 빌드하려면
동일한 델타 테이블에서 여러 경로가 있을 경우, 루트 경로를 로드하세요.
해당 파티션 필터가 있는 델타 테이블입니다. 여러 경로가 있을 경우
는 서로 다른 델타 테이블에서 온 것입니다. Dataset의 union()/unionByName() API를 사용하세요.
별도의 load() API 호출에 의해 생성된 DataFrame을 결합합니다.
다중 일치 조건
지정된 조건과 일치하는 제약 조건이 두 개 이상 있습니다.
멀티플 쿼리 결과 절과 파이프 연산자(MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS)
<clause1>
및 <clause2>
은 '|>'를 사용하여 동일한 SQL 파이프 연산자에서는 공존할 수 없습니다. 여러 결과 절을 별도의 파이프 연산자로 분리한 다음 쿼리를 다시 시도하세요.
다중 시간 여행 사양
시간 이동 절과 옵션 모두에서 시간 여행을 지정할 수 없습니다.
다중_XML_데이터_소스
이름이 <provider> (<sourceNames>
)인 여러 데이터 원본이 검색되었습니다. 정규화된 클래스 이름을 지정하거나 클래스 경로에서 <externalSource>
제거하세요.
식에 다중 소스가 지원되지 않습니다.
표현식 <expr>
은 둘 이상의 원본을 지원할 수 없습니다.
다중_UDF_인터페이스_오류
여러 UDF 인터페이스를 구현할 수 없습니다. UDF 클래스는 <className>
.
상호 배타적 조항
상호 배타적 절 또는 옵션 <clauses>
. 이러한 절 중 하나를 제거하세요.
백업 유형이 잘못된 MV_ST 변경 쿼리
입력 쿼리는 <expectedType>
예상하지만 기본 테이블은 <givenType>
.
이름이 지정된 매개변수가 지원되지 않음
명명된 매개 변수는 함수 <functionName>
지원되지 않습니다. 대신 함수 호출에 대한 위치 인수를 사용하여 쿼리를 다시 시도하세요.
SQL 사용자 정의 함수에 대한 이름 매개변수는 지원되지 않음
명명된 인수 참조가 지원되지 않으므로 함수 <functionName>
호출할 수 없습니다. 이 경우 명명된 인수 참조가 <argument>
입니다.
이름 매개변수 지원 비활성화됨
명명된 인수 참조를 사용할 수 없으므로 함수 <functionName>
호출할 수 없습니다.
이 경우 명명된 인수 참조가 <argument>
입니다.
"spark.sql.allowNamedFunctionArguments"를 "true"로 설정하여 이 기능을 활성화합니다.
네임스페이스가 이미 존재합니다
이미 있으므로 네임스페이스 <nameSpaceName>
만들 수 없습니다.
다른 이름을 선택하거나, 기존 네임스페이스를 삭제하거나, IF NOT EXISTS
절을 추가하여 기존 네임스페이스를 허용합니다.
네임스페이스_비어있지_않음
네임스페이스 <nameSpaceNameName>
개체가 포함되어 있으므로 삭제할 수 없습니다.
코드 DROP NAMESPACE
을(를) 사용하세요 ... 네임스페이스와 모든 개체를 삭제하기 위해 CASCADE
명령을 실행합니다.
네임스페이스를 찾을 수 없습니다 (NAMESPACE_NOT_FOUND)
네임스페이스 <nameSpaceName>
찾을 수 없습니다. 네임스페이스의 맞춤법 및 정확성을 확인합니다.
이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 이름을 올바르게 한정합니다.
삭제에 대한 오류를 허용하려면 DROP NAMESPACE IF EXISTS
사용합니다.
NATIVE_IO_ERROR
네이티브 요청이 실패했습니다. requestId: <requestId>
, 클라우드: <cloud>
, 작업: <operation>
요청: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
오류: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
이 클러스터에서는 네이티브 XML 데이터 원본을 사용할 수 없습니다.
주파수 표현의 음수 값
<frequencyExpression>
: <negativeValue>
음수 값을 찾았지만 양수 정수 값을 예상했습니다.
중첩 집계 함수
다른 집계 함수의 인수에는 집계 함수를 사용할 수 없습니다. 하위 쿼리에서 내부 집계 함수를 사용하세요.
NESTED_EXECUTE_IMMEDIATE
중첩된 EXECUTE IMMEDIATE
명령은 허용되지 않습니다. 제공된 SQL 쿼리(<sqlString>
)에 다른 EXECUTE IMMEDIATE
명령이 포함되어 있지 않은지 확인하세요.
NONEXISTENT_FIELD_NAME_IN_LIST
<nonExistFields>
필드가 없습니다. 사용 가능한 필드: <fieldNames>
접히지 않는 인수 (NON_FOLDABLE_ARGUMENT)
함수 <funcName>
매개 변수 <paramName>
<paramType>
형식의 접을 수 있는 식이어야 하지만 실제 인수는 접을 수 없습니다.
마지막이 아닌 일치된 절 생략 조건
MERGE
문에 둘 이상의 MATCHED
절이 있는 경우 마지막 MATCHED
절만 조건을 생략할 수 있습니다.
소스 조건에 의해 일치하지 않는 마지막이 아닌 절 무시
MERGE
문에 둘 이상의 NOT MATCHED BY SOURCE
절이 있는 경우 마지막 NOT MATCHED BY SOURCE
절만 조건을 생략할 수 있습니다.
마지막이 아닌 항목이 대상 절 조건에 맞지 않는 경우 생략
MERGE
문에 둘 이상의 NOT MATCHED [BY TARGET
] 절이 있는 경우, 마지막 NOT MATCHED [BY TARGET
] 절만이 조건을 생략할 수 있습니다.
비문자 피벗 값
피벗 값에 필요한 리터럴 식이 발견됨: <expression>
.
파티션되지 않은 열
PARTITION
절에는 파티션이 아닌 열 <columnName>
포함할 수 없습니다.
스트리밍에서 시간 창 사용 불가
윈도우 함수는 스트리밍 DataFrames/데이터 세트의 <windowFunc>
열(<columnName>
)에서는 지원되지 않습니다.
구조적 스트리밍은 WINDOW
함수를 사용하는 시간 범위 집계만 지원합니다. (창 사양: <windowSpec>
)
허용되지 않음(발신지)
FROM
절에는 허용되지 않습니다.
자세한 내용은 NOT_ALLOWED_IN_FROM 참조하십시오.
명령어 연산자에서 허용되지 않음
파이프 WHERE
절에는 허용되지 않습니다.
보다 자세한 내용은 오류 메시지 NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE을 참조하세요.
NOT_A_CONSTANT_STRING
루틴 또는 절 <name>
에 사용되는 식 <expr>
는 반드시 NOT NULL
인 상수 STRING
이어야 합니다.
자세한 내용은 NOT_A_CONSTANT_STRING 확인하세요.
파티션된 테이블이 아님
<tableIdentWithDB>
은(는) 분할된 테이블이 아니기 때문에 작업 <operation>
을(를) 사용할 수 없습니다.
NOT_A_SCALAR_FUNCTION (스칼라 함수가 아님)
<functionName>
여기에 스칼라 식으로 표시되지만 함수는 테이블 함수로 정의되었습니다. 쿼리를 업데이트하여 함수 호출을 FROM
절로 이동하거나 <functionName>
스칼라 함수로 다시 정의하세요.
NOT_A_TABLE_FUNCTION (테이블 함수가 아님)
<functionName>
여기에 테이블 함수로 표시되지만 이 함수는 스칼라 함수로 정의되었습니다. 쿼리를 업데이트하여 함수 호출을 FROM
절 외부로 이동하거나 <functionName>
테이블 함수로 다시 정의하세요.
NOT_NULL_ASSERT_VIOLATION (널 값 아님 주장 위반)
NULL
값이 널을 허용하지 않는 필드에 나타났습니다: <walkedTypePath>
스키마가 Scala 튜플/케이스 클래스 또는 Java 빈에서 유추된 경우, scala.Option[_] 또는 다른 널을 허용하는 형식(예: int/scala.Int 대신 java.lang.Integer)을 사용해 보십시오.
NULL이 아님 제약 조건 위반 (NOT_NULL_CONSTRAINT_VIOLATION)
여기서는 NULL
할당할 수 없습니다.
자세한 내용은 "NOT_NULL_CONSTRAINT_VIOLATION" 참조하세요.
열 변경이 지원되지 않음
ALTER TABLE ALTER
/
CHANGE COLUMN
는 유형이 <originType>
인 <table>
의 열 <originName>
를 유형이 <newType>
로 <newName>
로 변경하는 것은 지원되지 않습니다.
V2 테이블에 대해 지원되지 않는 명령어
v2 테이블에는 <cmd>
지원되지 않습니다.
지원되지 않는 명령어 - 하이브 지원 필요
<cmd>
지원되지 않습니다. 사용하도록 설정하려면 "spark.sql.catalogImplementation"을 "hive"로 설정하세요.
JDBC 카탈로그에서 지원되지 않음
JDBC 카탈로그에서 지원되지 않는 명령:
자세한 내용은 NOT_SUPPORTED_IN_JDBC_CATALOG 참조하세요.
DB_SQL과 호환되지 않음
SQL <endpoint>
에서 <operation>
은(는) 지원되지 않습니다.
서버리스에서는 지원되지 않음
<operation>
서버리스 컴퓨팅에서는 지원되지 않습니다.
NOT_UNRESOLVED_ENCODER
해결되지 않은 인코더가 예상되었으나 <attr>
이 발견되었습니다.
기본 열 값을 사용할 수 없음
nullable이 아니고 기본값이 없으므로 <colName>
기본값을 확인할 수 없습니다.
UDAF에 대한 핸들러가 없습니다
UDAF '<functionName>
'에 대한 처리기가 없습니다. 대신 sparkSession.udf.register(...)를 사용합니다.
병합 작업이 지정되지 않음
df.mergeInto 뒤에는 whenMatched/whenNotMatched/whenNotMatchedBySource 중 하나 이상이 뒤따라야 합니다.
경로에 대한 외부 상위 위치가 없습니다
SQLSTATE: 할당된 항목 없음
경로 '<path>
'에 대한 부모 외부 위치를 찾을 수 없습니다. 부모 경로 중 하나에 외부 위치를 만든 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Protobuf 스키마에서 <catalystFieldPath>
찾을 수 없습니다.
테이블에 대한 저장 위치가 없습니다.
SQLSTATE: 할당된 항목 없음
테이블 자격 증명을 생성할 때 테이블 '<tableId>
'에 대한 스토리지 위치를 찾을 수 없습니다. 테이블 형식과 테이블 위치 URL을 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_CATALOG_EXCEPTION (카탈로그를 찾을 수 없음 오류)
카탈로그 '<catalog>
'을(를) 찾을 수 없습니다. 카탈로그 이름을 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: 할당된 항목 없음
클린룸 '<cleanroom>
'이(가) 없습니다. 클린룸 이름의 철자가 올바르고 유효한 기존 클린룸의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION (해당 외부 위치를 찾을 수 없음 예외)
SQLSTATE: 할당된 항목 없음
외부 위치 '<externalLocation>
'이(가) 없습니다. 외부 위치 이름이 올바른지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: 할당된 항목 없음
메타스토어를 찾을 수 없습니다. 계정 관리자에게 현재 작업 영역에 metastore를 할당한 다음 쿼리 또는 명령을 다시 시도하도록 요청하세요.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: 할당된 항목 없음
공유 공급자 '<providerName>
'이(가) 없습니다. 공유 공급자 이름의 철자가 올바르고 유효한 기존 공급자 이름의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_SUCH_RECIPIENT_EXCEPTION (수신자 없음 예외)
SQLSTATE: 할당된 항목 없음
받는 사람 '<recipient>
'이 없습니다. 받는 사람 이름의 철자가 올바르고 유효한 기존 받는 사람의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
공유_없음_예외
SQLSTATE: 할당된 항목 없음
'<share>
' 주식이 존재하지 않습니다. 공유 이름의 철자가 올바르고 유효한 기존 공유의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
해당 저장소 자격 증명을 찾을 수 없습니다 (NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION)
SQLSTATE: 할당된 항목 없음
스토리지 자격 증명 '<storageCredential>
'이(가) 없습니다. 스토리지 자격 증명 이름의 철자가 올바르고 유효한 기존 스토리지 자격 증명의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
사용자 없음 예외
SQLSTATE: 할당된 항목 없음
사용자 '<userName>
'이(가) 없습니다. 사용 권한을 부여하거나 소유권을 변경하는 사용자에게 철자가 올바르게 지정되어 있고 유효한 기존 사용자의 이름과 일치하는지 확인한 다음 쿼리 또는 명령을 다시 시도하세요.
NO_UDF_INTERFACE
UDF 클래스 <className>
UDF 인터페이스를 구현하지 않습니다.
널 허용 열 또는 필드
열 또는 필드 <name>
은(는) null 값이 허용되지 않아야 하는데 현재 null 값이 허용되고 있습니다.
널 값 허용 행 ID 속성
행 ID 속성은 null을 허용하지 않습니다. <nullableRowIdAttrs>
.
NULL_데이터_소스_옵션
데이터 원본 읽기/쓰기 옵션 <option>
null 값을 가질 수 없습니다.
널 맵 키
null을 지도 키로 사용할 수 없습니다.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
즉시 실행하려면 null이 아닌 변수가 쿼리 문자열로 필요하지만 제공된 변수 <varName>
null입니다.
지원 범위를 벗어난 숫자
<value>
값은 38자리를 초과하여 숫자로 해석할 수 없습니다.
숫자 값이 범위를 초과했습니다
자세한 내용은 NUMERIC_VALUE_OUT_OF_RANGE 참조하세요.
열_개수_불일치
<operator>
열 수가 동일한 입력에서만 수행할 수 있지만 첫 번째 입력에는 <firstNumColumns>
열이 있고 <invalidOrdinalNum>
입력에는 <invalidNumColumns>
열이 있습니다.
숫자_테이블_값_별칭_불일치
지정된 별칭 수가 출력 열 수와 일치하지 않습니다.
함수 이름: <funcName>
; 별칭 수: <aliasesNum>
; 출력 열 수: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED (사용자 정의 ID 클레임이 제공되지 않음)
사용자 지정 ID 클레임이 제공되지 않았습니다.
여기는 비밀 기능만 지원됩니다.
이 <location>
에서는 호출 함수 <functionName>
은 지원되지 않습니다. 여기에서 <supportedFunctions>
가 지원됩니다.
UC_SQL_CONNECTOR로만 지원됨
Databricks SQL 커넥터 중 Unity 카탈로그를 지원하는 경우에만 SQL 작업 <operation>
이 사용 가능합니다.
작업 취소됨
작업이 취소되었습니다.
작업에는 유니티 카탈로그가 필요합니다
작업 <operation>
에는 Unity 카탈로그가 사용 가능해야 합니다.
읽기 전용으로 인해 지원되지 않는 작업
<plan>
읽기 전용 세션 모드에서는 지원되지 않습니다.
정렬 위치 범위 초과
ORDER BY
위치 <index>
선택 목록에 없습니다(유효한 범위는 [1, <size>
]).
PARQUET_CONVERSION_FAILURE
데이터 유형 <dataType>
의 Parquet 형식이 <parquetType>
인 경우 Parquet 변환기를 만들 수 없습니다.
자세한 내용은 PARQUET_CONVERSION_FAILURE 참조하세요.
PARQUET_TYPE_ILLEGAL
Parquet 유형이 잘못되었습니다. <parquetType>
.
PARQUET_유형_인식되지_않음
인식할 수 없는 Parquet 유형: <field>
.
PARQUET_TYPE_NOT_SUPPORTED (파케 유형은 지원되지 않음)
Parquet 형식 <parquetType>
은(는) 아직 지원되지 않습니다.
비어 있는 문장 구문 분석
구문 오류, 예기치 않은 빈 구문입니다.
구문 모드 미지원
함수 <funcName>
<mode>
모드를 지원하지 않습니다. 허용되는 모드는 PERMISSIVE
FAILFAST
.
파싱_문법_오류
구문 오류가 <error> <hint>
근처에서 발생했습니다.
파티션이 이미 존재합니다
테이블 <tableName>
의 파티션 <partitionList>
에는 이미 존재하기 때문에 추가하거나 RENAME
할 수 없습니다.
다른 이름을 선택하거나, 기존 파티션을 삭제하거나, IF NOT EXISTS
절을 추가하여 기존 파티션을 허용합니다.
파티션_찾을_수_없음
테이블 <tableName>
에서 파티션(들) <partitionList>
를 찾을 수 없습니다.
파티션 사양 및 테이블 이름을 확인합니다.
드롭 오류를 허용하려면 ALTER TABLE
...
DROP IF EXISTS PARTITION
.
파티션 열이 스키마에 발견되지 않음
스키마 <schema>
파티션 열 <column>
찾을 수 없습니다. 분할을 위해 기존 열을 제공해 주세요.
파티션 위치가 이미 존재합니다.
파티션 위치 <locationPath>
는 테이블 <tableName>
에 이미 있습니다.
테이블 디렉토리 아래에 없는 파티션 위치
ALTER TABLE SET PARTITION LOCATION
문을 실행하지 못했습니다. 왜냐하면
파티션 위치 <location>
는 테이블 디렉터리 <table>
아래에 있지 않습니다.
이 문제를 해결하려면 파티션의 위치를 <table>
하위 디렉터리로 설정하세요.
PARTITION_METADATA
Unity 카탈로그에서 파티션 메타데이터 저장이 지원되지 않기 때문에 <action>
은 테이블 <tableName>
에서 허용되지 않습니다.
PARTITION_NUMBER_MISMATCH
값 수(<partitionNumber>
)가 스키마 크기(<partitionSchemaSize>
)와 일치하지 않음 : 값이 <partitionValues>
스키마가 <partitionSchema>
파일 경로가 <urlEncodedPath>
.
테이블을 다시 구체화하거나 소유자에게 문의하세요.
파티션 변환 표현식이 파티션 구분 기준에 포함되지 않음
식 <expression>
는 'partitionedBy' 내에 있어야 합니다.
경로가 이미 존재합니다
경로 <outputPath>
이미 있습니다. 모드를 "덮어쓰기"로 설정하여 기존 경로를 덮어씁니다.
경로를 찾을 수 없습니다
경로가 존재하지 않습니다: <path>
.
PHOTON 복원된 프로토버프 메모리 제한 초과
Photon protobuf 플랜을 역직렬화하려면 최소 <size>
바이트가 필요하며, 이는 허용된 범위를 초과합니다.
<limit>
바이트 제한이 있습니다. 이는 매우 큰 계획 때문이거나 어떤 것이 크게 관련되어 있을 수 있습니다.
넓은 스키마. 쿼리를 단순화하거나, 불필요한 열을 제거하거나, Photon을 사용하지 않도록 설정합니다.
포톤_직렬화_프로토버프_메모리_제한_초과
직렬화된 Photon protobuf 계획의 크기는 <size>
바이트로, 이는 한도를 초과합니다.
<limit>
바이트입니다. 계획에서 데이터 형식의 직렬화된 크기는 <dataTypeSize>
바이트입니다.
이는 매우 큰 계획 또는 매우 넓은 스키마의 존재 때문일 수 있습니다.
쿼리를 다시 작성하여 원치 않는 작업 및 열을 제거하거나 Photon을 사용하지 않도록 설정하는 것이 좋습니다.
파이프_연산자_집계_표현식에_집계_함수가_포함되어_있지_않음
그룹화되지 않은 식 <expr>
가 |>AGGREGATE
파이프 연산자의 인수로 제공되었지만, 집계 함수를 포함하고 있지 않습니다. 집계 함수를 포함하도록 업데이트한 후에 쿼리를 다시 실행하십시오.
파이프 연산자에 집계 함수 포함
파이프 연산자 |><clause>
절을 사용할 때 집계 함수 <expr>
은 허용되지 않습니다. 대신에 파이프 연산자 |>AGGREGATE
절을 사용하십시오.
피벗 값 데이터 유형 불일치
잘못된 피벗 값 '<value>
': 값 데이터 유형 <valueType>
이 피벗 열 데이터 유형 <pivotType>
와 일치하지 않습니다.
프로시저_인수_수_불일치
프로시저 <procedureName>
은(는) <expected>
개의 인수를 예상했지만, <actual>
개가 제공되었습니다.
프로시저_생성_빈_루틴
빈 루틴 정의가 있는 CREATE PROCEDURE
허용되지 않습니다.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
매개 변수 <parameterName>
이(가) 매개 변수 모드 <parameterMode>
로 정의됩니다. 루틴을 호출할 때 OUT 및 INOUT
매개 변수를 생략할 수 없으므로 DEFAULT
식을 지원하지 않습니다. 계속하려면 DEFAULT
절을 제거하거나 매개변수 모드를 IN
로 변경하십시오.
지원되지 않는 절차
저장 프로시저는 지원되지 않습니다.
HMS에서 절차가 지원되지 않습니다
저장 프로시저는 Hive Metastore에서 지원되지 않습니다. 대신 Unity 카탈로그를 사용하세요.
PROTOBUF_DEPENDENCY_NOT_FOUND
종속성을 찾을 수 없습니다. <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND (프로토버프 설명자 파일을 찾을 수 없습니다)
경로: <filePath>
에서 Protobuf 설명자 파일을 읽는 동안 오류가 발생했습니다.
프로토콜 버퍼 필드 누락
<protobufSchema>
Protobuf 스키마에서 <field>
검색하여 <matchSize>
일치를 제공했습니다. 후보: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA (SQL 스키마에서 프로토콜 버퍼 필드 누락)
Protobuf 스키마에서 <field>
찾았지만 SQL 스키마에는 일치하는 항목이 없습니다.
PROTOBUF_FIELD_TYPE_MISMATCH
필드 <field>
에 대한 형식 불일치가 발생했습니다.
`PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED (프로토콜 버퍼 자바 클래스 지원되지 않음)`
Java 클래스는 <protobufFunction>
에서 지원되지 않습니다. 대체 옵션에 대해서는 Databricks 지원에 문의하세요.
PROTOBUF_MESSAGE_NOT_FOUND
설명자에서 메시지 <messageName>
찾을 수 없습니다.
프로토버프가 로드되지 않았습니다 - SQL 기능을 사용할 수 없습니다
Protobuf 데이터 원본이 로드되지 않으므로 <functionName>
SQL 함수를 호출할 수 없습니다.
명령줄에서 –packages 인수를 사용하는 등 로드된 'spark-protobuf' 패키지로 작업 또는 세션을 다시 시작한 다음 쿼리 또는 명령을 다시 시도하세요.
프로토버프_유형_지원_안됨
Protobuf 형식은 아직 지원되지 않습니다. <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
pubsub 인출 단계의 작업은 다시 시도될 수 없습니다. 스테이지 <stageInfo>
, 파티션 <partitionInfo>
, TID <taskId>
.
잘못된_빈옵션_PS
<key>
빈 문자열일 수 없습니다.
유형이 잘못된 키입니다
PubSub 중복 제거를 위한 잘못된 키 유형: <key>
.
옵션이_유효하지_않음
<key>
옵션은 PubSub에서 지원되지 않습니다. 테스트에만 사용할 수 있습니다.
PS_INVALID_OPTION_TYPE (잘못된 옵션 유형)
<key>
잘못된 형식입니다.
<key>
는 <type>
형식일 것으로 예상됩니다.
PS_INVALID_READ_LIMIT
PubSub 스트림의 읽기 제한이 유효하지 않습니다: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
유효하지 않은 UnsafeRow입니다. PubSubMessageMetadata로 디코딩할 수 없습니다. 원하는 프로토 스키마는 <protoSchema>
입니다. UnsafeRow 입력이 손상되었을 수 있습니다. <unsafeRow>
.
인증 정보 누락
전체 PubSub 인증 정보를 찾지 못했습니다.
필수 옵션 누락
필요한 옵션을 찾을 수 없습니다. <key>
.
체크포인트 이동 실패
원시 데이터 검사점 파일을 <src>
에서 목적지 디렉터리인 <dest>
으로 이동하지 못했습니다.
여러 번 실패한 에포크
두 개 이상의 페치 실패가 있으므로 PubSub 스트림을 시작할 수 없습니다. <failedEpochs>
.
PS_옵션_범위를_벗어남
<key>
는 두 경계(<min>
, <max>
)를 제외하고 그 사이에 있어야 합니다.
자격 증명 제공 옵션 (PS_PROVIDE_CREDENTIALS_WITH_OPTION)
공유 클러스터는 인스턴스 프로필에 대한 인증을 지원하지 않습니다. .option()을 사용하여 스트림에 직접 자격 증명을 제공합니다.
PS_SPARK_SPECULATION_NOT_SUPPORTED
PubSub 원본 커넥터는 spark.speculation
사용하지 않도록 설정된 클러스터에서만 사용할 수 있습니다.
구독을 생성할 수 없습니다
구독 <subId>
을(를) 토픽 <topicId>
에 생성하는 중에 오류가 발생했습니다. 구독을 만들고 다시 시도할 수 있는 충분한 권한이 있는지 확인하세요.
PS_프로토콜_구문_분석_불가
직렬화된 바이트를 구문 분석하여 proto를 생성할 수 없습니다.
오프셋 호출을 지원하지 않음
제한을 제공하지 않으면 getOffset이 지원되지 않습니다.
파이썬_데이터_소스_오류
Python 데이터 원본 <type>
에서 <action>
이(가) 실패했습니다: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Python 스트리밍 데이터 소스가 <action>
을 수행할 때 실패 발생: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
이전에 할당된 열 마스크가 현재 테이블 스키마와 호환되지 않으므로 참조된 테이블에 액세스할 수 없습니다. 계속하려면 테이블 소유자에게 문의하여 정책을 업데이트하세요.
자세한 내용은 QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY 참조하세요.
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
이전에 할당된 행 수준 보안 정책이 현재 테이블 스키마와 호환되지 않으므로 참조된 테이블에 액세스할 수 없습니다. 계속하려면 테이블 소유자에게 문의하여 정책을 업데이트하세요.
자세한 내용은 QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY 참조하세요.
현재 파일을 찾을 수 없습니다
<message>
기본 파일이 업데이트되었을 수 있습니다. SQL에서 'REFRESH TABLE
tableName' 명령을 실행하거나 관련된 데이터 세트/DataFrame을 다시 만들어 Spark에서 캐시를 명시적으로 무효화할 수 있습니다.
파일_읽기_모호한_루틴_매개변수
함수 <functionName>
호출에는 상호 별칭인 <parameterName>
및 <alternativeName>
가 설정되어 있습니다. 그 중 하나만 설정하세요.
READ_TVF_예상치 못한 필수 매개변수
함수 <functionName>
의 필수 매개변수 <parameterName>
은 이름을 지정하지 않고 위치 <expectedPos>
에 할당해야 합니다.
수신자 만료가 지원되지 않음
받는 사람 만료 타임스탬프에는 TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
형식만 지원됩니다.
RECURSIVE_PROTOBUF_SCHEMA
기본적으로 Spark에서 처리할 수 없는 Protobuf 스키마에서 재귀 참조를 찾았습니다. <fieldDescriptor>
. 옵션을 recursive.fields.max.depth
1에서 10으로 설정해 보세요. 10개 수준의 재귀를 초과할 수 없습니다.
재귀적_보기
재귀 뷰 <viewIdent>
이 감지되었습니다(주기: <newPath>
).
파티션에서 기본값은 허용되지 않습니다.
DEFAULT
열 값에 대한 참조는 PARTITION
절 내에서 허용되지 않습니다.
8G 이상 관계
8G보다 큰 <relationName>
빌드할 수 없습니다.
원격 함수 HTTP 실패 오류
원격 HTTP 요청이 코드 <errorCode>
및 오류 메시지 <errorMessage>
로 인해 실패했습니다.
원격_함수_HTTP_결과_구문_분석_오류
원격 HTTP 응답에서 JSON 결과를 파싱할 수 없어 <functionName>
SQL 함수를 평가하지 못했습니다. 오류 메시지는 <errorMessage>
입니다. API 설명서를 확인하세요: <docUrl>
. 오류 메시지에 표시된 문제를 해결하고 쿼리를 다시 시도하세요.
원격 함수 HTTP 결과 예기치 않은 오류
예기치 않은 원격 HTTP 응답을 처리할 수 없어 <functionName>
SQL 함수를 평가하지 못했습니다. 오류 메시지가 <errorMessage>
. API 설명서: <docUrl>
을(를) 확인하십시오. 오류 메시지에 표시된 문제를 해결하고 쿼리를 다시 시도하세요.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
<N>
번 다시 시도한 후 원격 요청이 실패했습니다. 마지막으로 실패한 HTTP 오류 코드가 <errorCode>
메시지가 <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
<errorMessage>
때문에 <functionName>
SQL 함수를 평가하지 못했습니다.
<docUrl>
요구 사항을 확인하세요. 오류 메시지에 표시된 문제를 해결하고 쿼리를 다시 시도하세요.
RENAME_원본_경로_찾을_수_없음
<sourcePath>
을 찾을 수 없어서 이름 변경에 실패했습니다.
반복_구문
<clause>
절은 <operation>
작업당 최대 한 번만 사용할 수 있습니다.
필수 매개변수가 위치 인수로 이미 제공되었습니다.
루틴 <routineName>
의 필수 매개변수 <parameterName>
은 이름 없이 위치 <positionalIndex>
에 할당되었습니다.
이 매개변수에 대해 <parameterName>
명명된 인수를 제거하거나, 위치 인수를 제거하도록 함수 호출을 업데이트하세요.
<positionalIndex>
에서 인수를 확인한 후 쿼리를 다시 시도하십시오.
필수 매개변수를 찾을 수 없음
<parameterName>
매개 변수가 필요하지만 루틴 호출에서 값을 제공하지 않았기 때문에 루틴 <routineName>
호출할 수 없습니다. 루틴 호출을 업데이트하여 인수 값(인덱스 <index>
또는 이름)을 제공하고 쿼리를 다시 실행하세요.
단일 부분 네임스페이스가 필요합니다.
<sessionCatalog>
에는 단일 파트 네임스페이스가 필요하지만, <namespace>
을 사용했습니다.
RESCUED_DATA_COLUMN_SINGLE_VARIANT와의 충돌
'rescuedDataColumn' DataFrame API 판독기 옵션은 'singleVariantColumn' DataFrame API 옵션과 함께 사용할 수 없습니다.
그 중 하나를 제거한 다음 DataFrame 작업을 다시 시도하세요.
쓰기 시 예약된 CDC 열
쓰기에는 사용되는 예약된 열 <columnList>
포함됩니다.
변경 데이터 피드의 메타데이터로 내부적으로 사용됩니다. 테이블에 쓰려면 이름을 바꾸거나 삭제하십시오.
테이블에서 변경 데이터 피드를 설정하거나 비활성화하기 위해 이러한 열을 사용하세요.
<config>
을(를) false로 설정합니다.
제한된 스트리밍 옵션 권한 시행됨
<option>
옵션에는 <source>
원본에 대한 공유 클러스터의 값이 제한됩니다.
자세한 내용은 RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED 참조하세요.
루틴_이미_존재함
이미 해당 이름의 <existingRoutineType>
이 있어서 <newRoutineType> <routineName>
을 만들 수 없습니다.
다른 이름을 선택하거나 기존 <existingRoutineType>
을 삭제 또는 변경하고 기존 <newRoutineType>
를 허용하기 위해 IF NOT EXISTS
절을 추가하십시오.
루틴을 찾을 수 없음
루틴 <routineName>
찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법 및 정확성을 확인합니다.
스키마 및 카탈로그로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 스키마 및 카탈로그로 이름을 한정합니다.
드롭에서 오류를 허용하려면 DROP
...
IF EXISTS
.
ROUTINE_PARAMETER_NOT_FOUND (루틴 매개 변수를 찾을 수 없음)
루틴 <routineName>
은(는) <pos>
위치에 지정된 매개 변수 <parameterName>
을(를) 지원하지 않습니다.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME (루틴에서 시스템 예약 클래스 이름을 사용)
지정된 클래스 이름 '<className>
'이 시스템 사용을 위해 예약되어 있으므로 함수 <routineName>
만들 수 없습니다. 클래스의 이름을 바꾸고 다시 시도하세요.
행 수준 보안 검사 제약 조건이 지원되지 않음
테이블 <tableName>
에 행 수준 보안 정책을 적용하여 CHECK
제약 조건을 생성하는 것은 지원되지 않습니다.
행 수준 보안 - 중복 열 이름
<statementType>
문은 테이블에 행 수준 보안 정책을 할당하려고 했지만 참조된 두 개 이상의 열에 <columnName>
이름이 같으며 이는 유효하지 않습니다.
행 수준 보안 기능 지원되지 않음
<tableName>
대한 행 수준 보안 정책은 지원되지 않습니다.
자세한 내용은 ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED를 참조하세요.
행 수준 보안 불일치 스키마 변경
테이블 <tableName>
이 행 수준 보안 정책에서 참조되어, <statementType> <columnName>
작업을 수행할 수 없습니다. 계속하기 전에 테이블 소유자가 이 정책을 제거하거나 변경해야 합니다.
행 수준 보안 병합 미지원 소스
MERGE INTO
작업은 원본 테이블 <tableName>
행 수준 보안 정책을 지원하지 않습니다.
행 수준 보안 병합이 지원되지 않는 대상
MERGE INTO
작업은 행 수준 보안 정책이 있는 테이블 <tableName>
에 쓰기를 지원하지 않습니다.
행 수준 보안 다중 부분 열 이름
이 문장은 테이블에 행 수준 보안 정책을 할당하려고 시도했지만, 참조된 열 <columnName>
이 여러 개의 이름 부분을 가지고 있으며, 이는 올바르지 않습니다.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
행 수준 보안 정책은 Unity 카탈로그에서만 지원됩니다.
ROW_LEVEL_SECURITY_SHOW_PARTITIONS_UNSUPPORTED (행 수준 보안이 파티션 표시를 지원하지 않음)
행 수준 보안 정책을 사용하는<format>
테이블에는 SHOW PARTITIONS
명령이 지원되지 않습니다.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
테이블 <tableName>
에서 행 수준 보안 정책으로 <mode>
을 복제하는 것은 지원되지 않습니다.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED (이 오류는 행 수준의 보안 테이블을 복제하는 대상이 지원되지 않음을 나타냅니다)
테이블 <mode>
을(를) 행 수준 보안 정책과 함께 <tableName>
에 복제하는 것은 지원되지 않습니다.
행 수준 보안에서 지원되지 않는 상수를 매개변수로 사용
행 수준 보안 정책에서 상수를 매개 변수로 사용하는 것은 지원되지 않습니다. 행 필터 정의에서 상수 제거를 위해 SQL 명령을 업데이트한 다음 명령을 다시 시도하세요.
행 수준 보안을 지원하지 않는 제공자
테이블 공급자를 사용하여 대상 데이터 원본에 대해 행 수준 보안 정책을 할당할 수 없으므로 <statementType>
명령을 실행하지 못했습니다. "<provider>
".
ROW_SUBQUERY_TOO_MANY_ROWS (행 하위 쿼리가 너무 많은 행을 반환함)
행으로 사용되는 하위 쿼리에서 둘 이상의 행이 반환됩니다.
행 값이 비어 있습니다
인덱스 <index>
에서 NULL
이 연속적으로 발견되었습니다.NULL
값이 아닌 것을 기대합니다.
규칙 ID를 찾을 수 없음 (RULE_ID_NOT_FOUND)
규칙 이름 "<ruleName>
"에 대한 ID를 찾을 수 없습니다. 새 규칙을 추가하는 경우 RuleIdCollection.scala를 수정하세요.
샘플_테이블_권한
샘플 데이터베이스/테이블에서는 사용 권한이 지원되지 않습니다.
스칼라_함수_비호환
ScalarFunction <scalarFunc>
사용자 지정 구현을 사용하여 'produceResult(InternalRow)' 메서드를 재정의하지 않습니다.
스칼라 함수가 완전히 구현되지 않음
ScalarFunction <scalarFunc>
'produceResult(InternalRow)' 메서드를 구현하거나 재정의하지 않습니다.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
상관된 스칼라 하위 쿼리 ‘<sqlExpr>
’은 GROUP BY
에 포함되어 있지 않으며, 집계 함수에도 존재하지 않습니다.
서수 위치를 사용하여 GROUP BY
에 추가하거나, 가져오는 값이 상관없다면 first()
(또는 first_value
)로 감쌉니다.
스칼라 하위 쿼리 결과 행이 너무 많음
식으로 사용되는 하위 쿼리에서 두 개 이상의 행이 반환되었습니다.
일정이 이미 존재합니다
<existingScheduleType>
이 이미 있는 테이블에는 <scheduleType>
를 추가할 수 없습니다. 기존 일정을 삭제하거나 ALTER TABLE
사용하세요...
ALTER <scheduleType>
... 그것을 변경합니다.
일정 기간이 유효하지 않음
<timeUnit>
의 일정 기간은 1과 <upperBound>
사이의 정수 값이어야 합니다(포함). 수신됨: <actual>
.
스키마가 이미 존재합니다.
이미 있으므로 스키마 <schemaName>
만들 수 없습니다.
다른 이름을 선택하거나, 기존 스키마를 삭제하거나, IF NOT EXISTS
절을 추가하여 기존 스키마를 허용합니다.
SCHEMA_NOT_EMPTY
스키마 <schemaName>
개체가 포함되어 있으므로 삭제할 수 없습니다.
DROP SCHEMA
사용 ...
CASCADE
명령어로 스키마 및 모든 개체를 삭제하십시오.
SCHEMA_NOT_FOUND (스키마를 찾을 수 없음)
스키마 <schemaName>
찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법 및 정확성을 확인합니다.
카탈로그로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 카탈로그로 이름을 한정합니다.
삭제에 대한 오류를 허용하려면 DROP SCHEMA IF EXISTS
사용합니다.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
스키마 레지스트리의 스키마를 초기화할 수 없습니다.
<reason>
.
두 번째 함수 인수가 정수가 아닙니다.
<functionName>
함수의 두 번째 인수는 정수여야 합니다.
비밀_함수_잘못된_위치
SECRET
함수에 대한 하나 이상의 암호화되지 않은 참조를 사용하여 <commandType>
명령을 실행할 수 없습니다. AES_ENCRYPT
사용하여 이러한 각 함수 호출의 결과를 암호화하고 명령을 다시 시도하세요.
SEED_EXPRESSION_IS_UNFOLDABLE (사업 상 표현은 펼칠 수 없음)
식 <exprWithSeed>
의 시드 식 <seedExpr>
는 접을 수 있어야 합니다.
서버가 바쁩니다
서버가 사용 중이므로 요청을 처리할 수 없습니다. 잠시 기다렸다가 다시 시도하세요.
충돌하는 네임스페이스가 포함된 열 표시 (SHOW_COLUMNS_WITH_CONFLICT_NAMESPACE)
충돌하는 네임스페이스가 있는 SHOW COLUMNS
: <namespaceA>
!= <namespaceB>
.
버킷 없이 정렬
sortBy는 bucketBy와 함께 사용해야 합니다.
스파크 작업이 취소되었습니다.
작업 <jobId>
이 <reason>
에 의해 취소됨
버키팅을 지정할 수 없습니다
명시적 열 목록이 없는 CREATE TABLE
은 버킷팅 정보를 지정할 수 없습니다.
명시적 열 목록과 함께 양식을 사용하고 버킷팅 정보를 지정하세요.
또는 절을 생략하여 버킷 정보를 유추하도록 할 수 있습니다.
클러스터별 지정 시 버킷화를 사용할 수 없습니다.
CLUSTER BY
및 CLUSTERED BY INTO BUCKETS
둘 다 지정할 수 없습니다.
PARTITIONED_BY와 함께 CLUSTER_BY를 지정하는 것은 허용되지 않습니다.
CLUSTER BY
및 PARTITIONED BY
둘 다 지정할 수 없습니다.
파티션 지정은 허용되지 않습니다.
명시적 열 목록이 없는 CREATE TABLE
는 PARTITIONED BY
을 지정할 수 없습니다.
명시된 열 목록을 포함한 양식을 사용하고 PARTITIONED BY
을 지정하세요.
또는 PARTITION BY
절을 생략하여 분할을 유추할 수 있습니다.
SQL 구성 파일을 찾을 수 없음
SQL 구성 <sqlConf>
찾을 수 없습니다. 구성이 있는지 확인하세요.
스테이징 경로에 현재 접근할 수 없음
대상 준비 경로 <path>
액세스하는 동안 일시적인 오류입니다. 몇 분 후에 시도해 보세요.
STAR_GROUP_BY_POS
서수 위치로 GROUP BY
가 사용될 때 선택 목록에서 별표(*)는 허용되지 않습니다.
상태 저장 프로세서는 유효하지 않은 핸들 상태에서 작업을 수행할 수 없습니다.
상태 저장 프로세서 작업=<operationType>
잘못된 핸들 상태=<handleState>
수행하지 못했습니다.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE (유효하지 않은 시간 모드로 인해 상태 프로세서가 작업을 수행할 수 없습니다)
stateful 프로세서 작업=<operationType>
을(를) 잘못된 timeMode=<timeMode>
로 수행하지 못했습니다.
상태 저장 프로세서 중복 상태 변수 정의됨
이름이 <stateVarName>
상태 변수가 StatefulProcessor에 이미 정의되어 있습니다.
상태 저장 프로세서: 부적절한 시간 모드로 TTL 할당 실패
TTL을 "상태=<stateName>
" 및 "timeMode=<timeMode>
"에 사용할 수 없습니다. 대신 "TimeMode.ProcessingTime()"을 사용하십시오.
상태 저장 프로세서의 TTL 기간은 양수여야 합니다.
TTL 기간은 상태 저장소 작업에서 상태=<stateName>
의 경우<operationType>
보다 큰 값이어야 합니다.
상태 저장 프로세서 알 수 없는 시간 모드
알 수 없는 시간 모드 <timeMode>
. 허용되는 timeMode 모드는 'none', 'processingTime', 'eventTime'입니다.
예약된 문자를 포함해 컬럼 패밀리를 생성할 수 없음
시작 문자와 이름이 지원되지 않기 때문에 열 패밀리(<colFamilyName>
)를 만들지 못했습니다.
잘못된 이름의 열 패밀리는 사용할 수 없습니다.
잘못된 이름=<colFamilyName>
의 열 패밀리 작업=<operationName>
를 수행하지 못했습니다. 열 패밀리 이름은 비워 둘 수 없거나 선행/후행 공백을 포함하거나 예약 키워드=default를 사용할 수 없습니다.
상태 저장소 열 패밀리 스키마 불일치
호환되지 않는 스키마 변환: 열 패밀리=<colFamilyName>
, 이전 스키마=<oldSchema>
, 새로운 스키마=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED (상태 저장소 핸들이 초기화되지 않았습니다)
이 StatefulProcessor에 대한 핸들이 초기화되지 않았습니다.
transformWithState 연산자 내에서 StatefulProcessor만 사용하세요.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
잘못된 정렬 순번의 수=<numOrderingCols>
범위 스캔 인코더입니다. 순서 지정 서수의 수는 0이거나 스키마 열 수를 초과할 수 없습니다.
상태_저장소_프리픽스_스캔을_위한_잘못된_프리픽스_열_수
접두사 스캔 인코더의 접두사 열 수가 잘못되었습니다. 오류 식별자:<numPrefixCols>
. 접두사 열은 0일 수 없으며 스키마 열의 수보다 크거나 같을 수 없습니다.
재시작 후 상태 저장소의 잘못된 구성
재시작 간에 <configName>
를 <oldConfig>
에서 <newConfig>
로 변경할 수 없습니다.
<configName>
를 <oldConfig>
로 설정하거나, 새 체크포인트 디렉토리로 다시 시작하세요.
상태_저장소_잘못된_제공자
지정된 상태 저장소 공급자 <inputClass>
org.apache.spark.sql.execution.streaming.state.StateStoreProvider를 확장하지 않습니다.
상태_저장소_잘못된_변수_타입_변경
쿼리가 다시 시작될 때 <stateVarName>
을(를) <newType>
으로 변경할 수 없습니다.
<stateVarName>
를 <oldType>
로 설정하거나, 새 체크포인트 디렉터리로 다시 시작하세요.
STATE_STORE_NULL_TYPE_ORDERING_COLS_지원을_하지_않습니다
Null 유형의 정렬 열 name=<fieldName>
, index=<index>
은 범위 검색 인코더에서 지원되지 않습니다.
상태 저장소 공급자는 세분화된 상태 재생을 지원하지 않습니다.
지정된 State Store 공급자 <inputClass>
은 org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay를 확장하지 않습니다.
따라서 상태 데이터 원본에서 snapshotStartBatchId 또는 readChangeFeed 옵션을 지원하지 않습니다.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
상태 저장소 작업=<operationType>
은(는) 누락된 열 패밀리=<colFamilyName>
에서 지원되지 않습니다.
상태 저장소에서는 가변 크기 정렬 열을 지원하지 않습니다.
범위 검색 인코더는 name=<fieldName>
및 index=<index>
에 있는 변수 크기 정렬 열을 지원하지 않습니다.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST (삽입 열 목록에 있는 정적 파티션 열)
정적 파티션 열 <staticName>
열 목록에도 지정됩니다.
커밋된 배치가 사용 불가능합니다.
커밋된 배치를 찾을 수 없습니다. 체크포인트 위치: <checkpointLocation>
. 중지하기 전에 쿼리가 실행되고 마이크로배치를 커밋했는지 확인합니다.
STDS_CONFLICT_OPTIONS
<options>
옵션은 함께 지정할 수 없습니다. 하나를 지정하십시오.
STDS 운영자 메타데이터를 읽는 데 실패했습니다.
checkpointLocation=<checkpointLocation>
및 batchId=<batchId>
대한 연산자 메타데이터를 읽지 못했습니다.
파일이 없거나 파일이 손상되었습니다.
스트리밍 쿼리를 다시 실행하여 운영자 메타데이터를 생성하고 오류가 지속되는 경우 해당 커뮤니티 또는 공급업체에 보고합니다.
상태 스키마를 읽는 데 실패했습니다 (STDS_FAILED_TO_READ_STATE_SCHEMA)
상태 스키마를 읽지 못했습니다. 파일이 없거나 파일이 손상되었습니다. 옵션: <sourceOptions>
.
스트리밍 쿼리를 다시 실행하여 상태 스키마를 구성하고 오류가 지속되는 경우 해당 커뮤니티 또는 공급업체에 보고합니다.
유효하지 않은 옵션 값 오류
소스 옵션 '<optionName>
'에 대한 값이 잘못되었습니다.
자세한 내용은 STDS_INVALID_OPTION_VALUE 참조하십시오.
상태 저장소에서 파티션을 발견하지 못함
그 상태에는 파티션이 없습니다. 쿼리가 유효한 상태를 가리키는지 다시 확인하세요. 옵션: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
<batchId>
대한 오프셋 로그가 없습니다. 검사점 위치: <checkpointLocation>
.
쿼리에 사용할 수 있는 일괄 처리 ID를 지정하세요. 상태 메타데이터 데이터 원본을 사용하여 사용 가능한 일괄 처리 ID를 쿼리할 수 있습니다.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
메타데이터는 <batchId>
오프셋 로그에 사용할 수 없습니다. 검사점 위치: <checkpointLocation>
.
검사점은 이전 Spark 버전에서만 실행되는 것 같습니다. Spark가 상태 메타데이터를 생성할 수 있도록 최신 Spark 버전으로 스트리밍 쿼리를 실행합니다.
필수 옵션이 지정되지 않음
'<optionName>
'를 지정해야 합니다.
상태 저장 연산자에 대해 스트리밍 AQE가 지원되지 않습니다
구조적 스트리밍의 상태 저장 연산자는 적응 쿼리 실행을 지원하지 않습니다.
물리화된 보기에서 스트리밍
자료화된 뷰 <viewName>
에서 스트리밍할 수 없습니다. 구체화된 뷰의 스트리밍은 지원되지 않습니다.
STREAMING_OUTPUT_MODE
스트리밍 출력 모드가 잘못되었습니다. <outputMode>
.
자세한 내용은 STREAMING_OUTPUT_MODE 참조하세요.
스트리밍 실시간 모드
실시간 스트리밍 모드에는 다음과 같은 제한 사항이 있습니다.
자세한 내용은 STREAMING_REAL_TIME_MODE를 참고하시기 바랍니다.
스트리밍 상태 저장 연산자가 상태 메타데이터에 맞지 않음
스트리밍 상태 저장 연산자 이름이 상태 메타데이터의 연산자 이름과 일치하지 않습니다. 이는 사용자가 기존 스트리밍 쿼리의 상태 저장 연산자를 추가/제거/변경할 때 발생할 수 있습니다.
메타데이터의 상태 저장 연산자: [<OpsInMetadataSeq>
]; 현재 일괄 처리의 상태 저장 연산자: [<OpsInCurBatchSeq>
].
스트리밍 테이블 새로고침 필요
<operation>
실행하려면 스트리밍 테이블 <tableName>
새로 고쳐야 합니다.
DBSQL
테이블이 생성된 경우, REFRESH <st>
을 실행하세요.
델타 라이브 테이블의 파이프라인에서 테이블을 만드는 경우 파이프라인 업데이트를 실행하세요.
스트리밍 테이블은 지원되지 않습니다.
스트리밍 테이블은 Delta Live Tables 및 Databricks SQL Warehouse에서만 만들고 새로 고칠 수 있습니다.
스트리밍 테이블 작업 허용되지 않음
작업 <operation>
허용되지 않습니다.
자세한 내용은 STREAMING_TABLE_OPERATION_NOT_ALLOWED 참고하십시오.
스트리밍_테이블_쿼리_잘못됨
스트리밍 테이블 <tableName>
스트리밍 쿼리에서만 만들 수 있습니다.
FROM
절에 STREAM
키워드를 추가하여 이 관계를 스트리밍 쿼리로 전환하세요.
There is no change needed as "STREAM_NOT_FOUND_FOR_KINESIS_SOURCE" should remain untranslated to maintain its intended use in a technical context.
<streamName>
키네시스 스트림이 <region>
에서 찾을 수 없습니다.
올바른 스트림 이름을 가리키는 새 쿼리를 시작하세요.
구조체_배열_길이_불일치
입력 행에는 스키마에 필요한 예상 값 수가 없습니다.
<expected>
필드는 필수이며, <actual>
값이 제공되어야 합니다.
제한 및 오프셋의 합이 최대 정수값을 초과함
LIMIT
구문과 OFFSET
구문의 합계는 최대 32비트 정수 값인 2,147,483,647을 초과해서는 안 되지만, 제한 값은 <limit>
이고, 오프셋 값은 <offset>
입니다.
메타데이터 동기화 - 델타만
테이블 동기화 메타데이터 복구 명령은 델타 테이블에 대해서만 지원됩니다.
동기화_소스_대상_테이블_다름
원본 테이블 이름 <srcTable>
대상 테이블 이름 <destTable>
동일해야 합니다.
SYNTAX_DISCONTINUED
절 또는 키워드 <clause>
에 대한 지원이 이 컨텍스트에서 중단되었습니다.
자세한 내용은 SYNTAX_DISCONTINUED를 참조하세요.
테이블_또는_뷰_이미_존재함
테이블이나 뷰 <relationName>
이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 개체를 삭제하거나, 기존 개체를 허용할 IF NOT EXISTS
절을 추가하거나, OR REPLACE
절을 추가하여 기존의 구체화된 뷰를 대체하거나, OR REFRESH
절을 추가하여 기존 스트리밍 테이블을 새로 고칩니다.
테이블_또는_보기가_찾을_수_없습니다
테이블 또는 뷰 <relationName>
찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법 및 정확성을 확인합니다.
스키마로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 스키마 및 카탈로그로 이름을 한정합니다.
삭제 오류를 무시하려면 DROP VIEW IF EXISTS
또는 DROP TABLE IF EXISTS
을(를) 사용하세요.
자세한 내용은 TABLE_OR_VIEW_NOT_FOUND 참조하십시오.
SQL 함수에 대한 테이블 값 인수는 아직 구현되지 않았습니다.
이 기능이 아직 구현되지 않았기 때문에 TABLE
인수를 사용하여 SQL 사용자 정의 함수 <functionName>
<action>
수 없습니다.
파이썬에서 테이블 값 함수 분석 실패
Python 사용자 정의 테이블 함수를 분석하지 못했습니다. <msg>
호출과 호환되지 않는 테이블 값 함수 필수 메타데이터
테이블 함수 <functionName>
의 평가에 실패했습니다. 테이블 메타데이터는 <requestedMetadata>
이지만, 함수 호출은 <invalidFunctionCallProperty>
입니다.
테이블 값 함수에 필요한 메타데이터가 유효하지 않음
테이블 메타데이터가 유효하지 않아 테이블 함수 <functionName>
평가하지 못했습니다. <reason>
.
테이블_값_함수_테이블_인수_너무_많음
테이블 반환 함수에 대한 테이블 인수가 너무 많습니다.
하나의 테이블 인수를 허용하지만 받음: <num>
.
허용하려면 "spark.sql.allowMultipleTableArguments.enabled"를 "true"로 설정하세요.
ID로_식별된_테이블을_찾을_수_없습니다
ID <tableId>
인 테이블을 찾을 수 없습니다. UUID의 정확성을 확인합니다.
작업_쓰기_실패
<path>
행을 작성하는 동안 작업이 실패했습니다.
임시_테이블_또는_뷰가_이미_존재합니다
<relationName>
임시 뷰가 이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 보기를 삭제하거나 바꾸거나, IF NOT EXISTS
절을 추가하여 기존 보기를 허용합니다.
임시 뷰 이름에 너무 많은 이름 부분이 포함되어 있습니다.
CREATE TEMPORARY VIEW
또는 해당 데이터 세트 API는 단일 파트 뷰 이름만 허용하지만 <actualName>
을(를) 받았습니다.
선택 내 트레일링 콤마
SELECT
절에서 후행 쉼표가 검색되었습니다.
FROM
절 앞에 있는 후행 쉼표 제거
잘못된 트리거 간격
트리거 간격은 전체 초로 변환할 수 있는 양수 기간이어야 합니다. 수신됨: <actual>
초.
UC_BUCKETED_TABLES
버킷 테이블은 Unity 카탈로그에서 지원되지 않습니다.
카탈로그 이름이 제공되지 않았습니다.
Unity 카탈로그의 경우 카탈로그 이름을 명시적으로 지정하세요. 예를 들어 SHOW GRANT your.address@email.com ON CATALOG
main입니다.
UC_COMMAND_NOT_SUPPORTED (지원되지 않는 명령어)
명령: <commandName>
Unity 카탈로그에서 지원되지 않습니다.
더 많은 정보를 원하시면 UC_COMMAND_NOT_SUPPORTED을/를 참고하십시오.
이 명령은 서버리스 환경에서 지원되지 않습니다.
서버리스의 Unity 카탈로그 클러스터에는 <commandName>
명령이 지원되지 않습니다. 대신 단일 사용자 또는 공유 클러스터를 사용합니다.
공유 액세스 모드에서 명령이 지원되지 않음
명령(들)인 <commandName>
는 공유 액세스 모드에서 Unity 카탈로그 클러스터에 대해 지원되지 않습니다. 대신 단일 사용자 액세스 모드를 사용합니다.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
지정된 자격 증명 종류는 지원되지 않습니다.
UC 데이터 소스 지원 안 함
<dataSourceFormatName>
데이터 원본 형식은 Unity 카탈로그에서 지원되지 않습니다.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED (설정한 데이터 소스 옵션이 지원되지 않습니다)
데이터 원본 옵션은 Unity 카탈로그에서 지원되지 않습니다.
UC_외부_볼륨_위치_누락
외부 볼륨에는 LOCATION
절이 있어야 합니다. 구문 'CREATE EXTERNAL VOLUME
...을 확인해 주세요.
LOCATION
...' 외부 볼륨을 만드는 데 사용할 수 있습니다.
UC_FAILED_PROVISIONING_STATE
쿼리가 테이블 <tableName>
참조하려고 했지만 수행할 수 없어 실패했습니다. <failureReason>
. 테이블 <tableName>
업데이트하여 활성 프로비저닝 상태인지 확인하고 쿼리를 다시 시도하세요.
테이블 생성에 대한 파일 스킴이 지원되지 않습니다.
파일 구성표 <schemeName>
사용하여 Unity 카탈로그에서 테이블을 만드는 것은 지원되지 않습니다.
대신 동일한 테이블 공급자에 대한 CREATE CONNECTION
명령을 사용하여 페더레이션된 데이터 원본 연결을 만든 다음, CREATE FOREIGN CATALOG
명령을 사용하여 해당 테이블을 참조하는 연결에 따라 카탈로그를 만듭니다.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_지원되지 않음
Hive Metastore 페더레이션 보기는 여러 카탈로그에서 종속성을 지원하지 않습니다. Hive Metastore 페더레이션 카탈로그의 보기 <view>
는 반드시 hive_metastore 또는 spark_catalog 카탈로그의 종속성을 사용해야 하지만, 종속성 <dependency>
은 다른 카탈로그 <referencedCatalog>
에 있습니다. 이 제약 조건을 충족하도록 종속성을 업데이트한 다음 쿼리 또는 명령을 다시 시도하세요.
UC_HIVE_메타스토어_연합_비활성화됨
이 클러스터에서는 Hive Metastore 페더레이션을 사용할 수 없습니다.
카탈로그 <catalogName>
액세스는 이 클러스터에서 지원되지 않습니다.
UC_잘못된_종속성
<viewName>
의 종속성은 <parsedDeps>
로 구문 분석되는 동안 <storedDeps>
로 기록됩니다. 이 오류는 SQL이 아닌 API를 부적절하게 사용하여 발생했을 수 있습니다.
ALTER VIEW <viewName>
AS <viewText>
실행하여 Databricks 런타임의 종속성을 복구할 수 있습니다.
UC_유효하지 않은_네임스페이스
Unity 카탈로그에서는 중첩되거나 빈 네임스페이스가 지원되지 않습니다.
UC_잘못된_참조
Unity-Catalog 개체 <name>
Unity 카탈로그 개체에서 참조할 수 없습니다.
UC_LAKEHOUSE_연합_쓰기_허용되지_않음
Unity Catalog Lakehouse Federation 쓰기 지원이 이 클러스터의 공급자 <provider>
에 대해 활성화되지 않았습니다.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED (관리되는 볼륨에 대한 위치가 지원되지 않음)
관리되는 볼륨은 LOCATION
절을 허용하지 않습니다. 'CREATE VOLUME
...' 구문을 확인하세요. 관리되는 볼륨을 만드는 데 사용할 수 있습니다.
UC_NOT_ENABLED
이 클러스터에서 Unity 카탈로그를 사용할 수 없습니다.
연합 쿼리가 활성화되지 않음
이 클러스터에서는 Unity 카탈로그 쿼리 페더레이션을 사용할 수 없습니다.
UC 서비스 자격 증명이 활성화되지 않음
이 클러스터에서 서비스 자격 증명을 사용할 수 없습니다.
UC_볼륨이 활성화되지 않음
이 인스턴스에서는 Unity 카탈로그 볼륨에 대한 지원을 사용할 수 없습니다.
UC_볼륨_공유_미활성화됨
볼륨 공유에 대한 지원은 이 인스턴스에서 사용할 수 없습니다.
UC_VOLUME_NOT_FOUND (볼륨을 찾을 수 없음)
볼륨 <name>
은 존재하지 않습니다. 사용 가능한 볼륨을 나열하려면 'SHOW VOLUMES
'를 사용하세요.
UDF_ERROR
SQLSTATE: 할당된 항목 없음
함수 <fn>
실행 실패
자세한 내용은 UDF_ERROR 참조하세요.
UDF_LIMITS
UDF 제한을 위반한 것이 하나 이상 있습니다.
자세한 내용은 UDF_LIMITS 참조하세요.
UDF_MAX_COUNT_EXCEEDED
<maxNumUdfs>
UDF의 쿼리 전반에 걸친 UDF 제한을 초과했습니다(공개 미리 보기 기간 중에 제한됨). 찾음 <numUdfs>
. UDF들은 <udfNames>
입니다.
UDF_PYSPARK_ERROR
Python 작업자가 예기치 않게 종료됨
자세한 내용은 UDF_PYSPARK_ERROR 참조하세요.
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>
)는 공유 액세스 모드의 클러스터에서 지원되지 않습니다.
유저 정의 함수 PySpark 사용자 코드 오류
실행이 실패했습니다.
자세한 내용은 UDF_PYSPARK_USER_CODE_ERROR 참조하세요.
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
매개 변수 기본값은 사용자 정의 <functionType>
함수에 대해 지원되지 않습니다.
UDF_USER_CODE_ERROR
함수 <fn>
실행하지 못했습니다.
자세한 내용은 UDF_USER_CODE_ERROR 참조하세요.
오류 코드: UDTF_ALIAS_NUMBER_MISMATCH
AS 절에 제공된 별칭 수가 UDTF에서 출력하는 열 수와 일치하지 않습니다.
예상한 <aliasesSize>
별칭이 있었는데 <aliasesNames>
이었습니다.
제공된 별칭 수가 UDTF의 출력 열 수와 일치하는지 확인하세요.
요청된 분석 방법의 정렬 문자열에서 잘못된 별칭이 있는 UDTF입니다.
'analyze' 메서드가 열 이름 식에 불필요한 별칭이 포함된 요청된 OrderingColumn을 반환했기 때문에 사용자 정의 테이블 함수를 평가하지 못했습니다<aliasName>
; 이 별칭을 제거한 다음 쿼리를 다시 시도하세요.
분석 메서드로부터 선택된 표현에 별칭이 필요합니다 - UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION
'analyze' 메서드가 해당 별칭을 포함하지 않는 요청된 'select' 식(<expression>
)을 반환했기 때문에 사용자 정의 테이블 함수를 평가하지 못했습니다. UDTF를 업데이트하여 별칭을 지정한 다음 쿼리를 다시 시도하세요.
메모리를_획득할_수_없습니다
<requestedBytes>
바이트의 메모리를 가져올 수 없고, <receivedBytes>
바이트가 확보되었습니다.
프로토버프 메시지 유형으로 변환할 수 없음
SQL 형식 <toType>
를 Protobuf 형식 <protobufType>
로 변환할 수 없습니다.
HIVE 테이블을 가져올 수 없음
Hive 데이터베이스의 테이블을 가져올 수 없습니다. <dbName>
. 오류 클래스 이름: <className>
.
UNABLE_TO_INFER_SCHEMA (스키마를 추론할 수 없음)
<format>
스키마를 유추할 수 없습니다. 수동으로 지정해야 합니다.
무단 접근
권한 없는 액세스:
<report>
UNBOUND_SQL_PARAMETER
바인딩되지 않은 매개 변수를 찾았습니다. <name>
.
args
을 수정해 주시고 map()
, array()
, struct()
과 같은 SQL 리터럴 또는 컬렉션 생성자 함수에 매개 변수가 매핑되도록 해주세요.
UNCLOSED_BRACKETED_COMMENT
닫히지 않은 괄호 안의 주석을 찾았습니다. 주석 끝에 */를 추가하세요.
예상치 못한 입력 유형
함수 <functionName>
의 매개 변수 <paramIndex>
은(는) <requiredType>
형식을 필요로 하지만, <inputSql>
은(는) <inputType>
형식을 사용합니다.
UNEXPECTED_INPUT_TYPE_OF_NAMED_PARAMETER
함수 <functionName>
의 <namedParamKey>
매개 변수에는 <requiredType>
형식이 필요하지만, <inputSql>
의 형식은 <inputType>
입니다.<hint>
스트리밍 뷰에서 예상치 못한 연산자
스트리밍 소스로 CREATE VIEW
문에서 예기치 않은 연산자 <op>
.
스트리밍 뷰 쿼리는 SELECT
, WHERE
및 UNION ALL
작업으로만 구성되어야 합니다.
예기치 않은 위치 인수
에 할당된 명명된 인수 다음에 위치 인수가 포함되어 있으므로 루틴 <parameterName>
<routineName>
호출할 수 없습니다. 위치 인수가 먼저 오도록 다시 정렬한 다음 쿼리를 다시 시도하세요.
클래스를 위한 예상치 못한 직렬화 프로그램
클래스 <className>
예기치 않은 식 직렬 변환기가 있습니다. "STRUCT
" 또는 "IF
"이 기대되며, "STRUCT
"를 반환하는 것으로 예상되었으나, <expr>
이 발견되었습니다.
UNKNOWN_FIELD_EXCEPTION
구문 분석 중 <changeType>
을(를) 만났고, 자동 재시도로 수정 가능한 <unknownFieldBlob>
: <isRetryable>
자세한 내용에 대해서는 UNKNOWN_FIELD_EXCEPTION을 참조하십시오.
UNKNOWN_POSITIONAL_ARGUMENT
루틴 <routineName>
호출에는 위치 <pos>
의 정체를 알 수 없는 위치 인수 <sqlExpr>
이 포함됩니다. 유효하지 않습니다.
유형_변형에서_알_수_없는_기본_형식
변형 값에서 ID가 <id>
인 알 수 없는 원시 형식이 발견되었습니다.
알 수 없는 PROTOBUF 메시지 유형
<descriptorName>
를 메시지로 처리하려고 했지만, 그것은 <containingType>
이었다.
UNPIVOT는 속성을 필요로 함
UNPIVOT
<empty>
식이 지정되지 않은 경우 지정된 모든 <given>
식이 열이어야 합니다. 다음은 열이 아닙니다. [<expressions>
].
UNPIVOT_값_열이_필요합니다
ids로 지정된 모든 열인 UNPIVOT
하나 이상의 값 열을 지정해야 합니다.
UNPIVOT 값 데이터 유형 불일치
피벗 해제 값 열은 최소 공통 형식을 공유해야 합니다. 일부 형식은 공유하지 않습니다. [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
피벗 해제 값 열은 값 열 이름(<names>
)과 크기가 같아야 합니다.
인식할 수 없는 매개변수 이름
루틴 호출에 <argumentName>
인수에 대한 명명된 인수 참조가 포함되어 있으므로 루틴 <routineName>
호출할 수 없지만 이 루틴에는 이 이름의 인수가 포함된 서명이 포함되지 않습니다. 다음 중 하나를 의미했나요? [<proposal>
].
인식되지 않은 SQL 유형
인식할 수 없는 SQL 형식 - 이름: <typeName>
, id: <jdbcType>
.
인식되지 않은 통계
통계 <stats>
인식되지 않습니다. 유효한 통계에는 count
, count_distinct
, approx_count_distinct
, mean
, stddev
, min
, max
및 백분위수 값이 포함됩니다. 백분위수는 '%'으로 끝나는 숫자 값이어야 하며, 0%부터 100%까지의 범위 내에 있어야 합니다.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
<name>
을 테이블 값 함수로 해결할 수 없습니다.
<name>
테이블 반환 함수로 정의되고 필요한 모든 매개 변수가 올바르게 제공되었는지 확인하세요.
<name>
정의되지 않은 경우 사용하기 전에 테이블 반환 함수를 만드세요.
테이블 반환 함수 정의에 대한 자세한 내용은 Apache Spark 설명서를 참조하세요.
그룹별 모든 미해결 항목
SELECT 문에 따라 GROUP BY ALL
에 대한 그룹화 열을 유추할 수 없습니다. 그룹화 열을 명시적으로 지정하세요.
해결되지 않은 열
이름이 <objectName>
인 열, 변수 또는 함수 매개변수를 확인할 수 없습니다.
자세한 내용은 UNRESOLVED_COLUMN을 참조하십시오.
해결되지 않은_필드
이름이 <fieldName>
인 필드는 구조체 타입 열 <columnPath>
로 해결할 수 없습니다.
자세한 내용은 UNRESOLVED_FIELD 참조하세요.
UNRESOLVED_MAP_KEY
열 <objectName>
을 맵 키로 사용할 수 없습니다. 키가 문자열 리터럴인 경우 주위에 작은따옴표 ''를 추가합니다.
자세한 내용을 보려면 UNRESOLVED_MAP_KEY을 참조하세요.
해결되지 않은 루틴
검색 경로 <searchPath>
에서 루틴 <routineName>
을(를) 해결할 수 없습니다.
자세한 내용은 UNRESOLVED_ROUTINE 참조하세요.
조인에 사용할 컬럼 미해결
USING
열 <colName>
은 조인의 <side>
쪽에서 해결할 수 없습니다.
<side>
-측 기둥: [<suggestion>
].
UNRESOLVED_VARIABLE
검색 경로 <searchPath>
에서 변수 <variableName>
을(를) 해결할 수 없습니다.
비정형 데이터 처리 지원되지 않는 파일 형식
구조화되지 않은 파일 형식 <format>
지원되지 않습니다. 지원되는 파일 형식은 <supportedFormats>
.
<expr>
식에서 format
을 지원되는 형식 중 하나로 업데이트한 후 쿼리를 다시 시도하세요.
비정형_데이터_처리_지원되지_않는_모델
구조화되지 않은 모델 <model>
지원되지 않습니다. 지원되는 모델은 <supportedModels>
.
지원되는 모델 중 하나로 전환한 다음 쿼리를 다시 시도하세요.
파일 추가 지원 안 됨
파일 추가를 지원하지 않습니다.
자세한 내용은 UNSUPPORTED_ADD_FILE 참조하세요.
지원되지 않는 화살표 유형
<typeName>
유형의 화살표는 지원되지 않습니다.
지원되지 않는 배치 테이블 값 함수
<funcName>
함수는 일괄 처리 쿼리를 지원하지 않습니다.
UNSUPPORTED_CALL
클래스 "<className>
"의 "<methodName>
" 메서드를 호출할 수 없습니다.
자세한 내용은 UNSUPPORTED_CALL 참조하세요.
지원되지 않는 CHAR 또는 VARCHAR를 문자열로 사용함
char/varchar 형식은 테이블 스키마에서 사용할 수 없습니다.
Spark를 Spark 3.0 이하와 동일한 문자열 형식으로 처리하려면 "spark.sql.legacy.charVarcharAsString"을 "true"로 설정하세요.
작업에 대해 지원되지 않는 조항
<clause>
는 <operation>
에 지원되지 않습니다.
지원되지 않는 정렬
데이터 정렬 <collationName>
지원되지 않습니다.
자세한 내용은 UNSUPPORTED_COLLATION(#지원되지 않는 정렬) 참조하세요.
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
소스 경로 및 sourceArchiveDir의 공통 조상은 UC에 등록되어야 합니다.
이 오류 메시지가 표시되면 원본 경로 및 sourceArchiveDir을 다른 외부 위치에 등록할 가능성이 높습니다.
단일 외부 위치에 배치하세요.
지원되지 않는 제약 조건 구문
<clauses>
제약 조건 절은 지원되지 않습니다.
지원되지 않는 제약 조건 유형
지원되지 않는 제약 조건 형식입니다.
<supportedConstraintTypes>
만 지원됩니다.
직접 쿼리에 지원되지 않는 데이터 소스
파일에 대한 직접 쿼리에 지원되지 않는 데이터 원본 형식: <dataSourceType>
지원되지 않는_데이터유형
지원되지 않는 데이터 형식은 <typeName>
.
지원되지 않는 데이터 소스 저장 모드
"<source>
" 데이터 원본은 <createMode>
모드로 작성할 수 없습니다. 대신 "추가" 또는 "덮어쓰기" 모드를 사용하세요.
해당 데이터 소스에 지원되지 않는 데이터 유형
<format>
데이터 원본은 <columnType>
형식의 열 <columnName>
지원하지 않습니다.
인코더에 지원되지 않는 데이터 유형
<dataType>
대한 인코더를 만들 수 없습니다. UDF 또는 DataFrame에 다른 출력 데이터 형식을 사용하세요.
UNSUPPORTED_DEFAULT_VALUE
DEFAULT
열 값은 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_DEFAULT_VALUE를 참조하세요.
UNSUPPORTED_DESERIALIZER
역직렬 변환기는 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_DESERIALIZER를 확인하십시오.
지원되지 않는 표현 생성 열
<reason>
때문에 생성 식 <expressionStr>
으로 계산 열 <fieldName>
을 만들 수 없습니다.
지원되지 않는 연산자의 표현식
쿼리 연산자에는 지원되지 않는 식이 하나 이상 포함되어 있습니다.
WHERE
절에서는 창 함수, 집계 함수, 및 생성기 함수를 피하기 위해 다시 작성하는 것을 고려하세요.
잘못된 식: [<invalidExprSqls>
]
매개변수에 대한 지원되지 않는 표현(UNSUPPORTED_EXPR_FOR_PARAMETER)
쿼리 매개 변수에는 지원되지 않는 식이 포함됩니다.
매개 변수는 변수 또는 리터럴일 수 있습니다.
잘못된 식: [<invalidExprSql>
]
창에 대해 지원되지 않는 표현식
식 <sqlExpr>
창 함수 내에서 지원되지 않습니다.
지원되지 않는_기능
이 기능은 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_FEATURE를 참조하세요.
지원되지 않는 함수 유형
지원되지 않는 사용자 정의 함수 형식: <language>
UNSUPPORTED_GENERATOR
생성기는 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_GENERATOR 참조하세요.
지원되지 않는 그룹화 표현
grouping()/grouping_id()는 GroupingSets/Cube/Rollup에서만 사용할 수 있습니다.
지원되지 않는 초기 위치 및 Kinesis 소스에 대한 트리거 쌍
Kinesis 원본에서는 초기 위치 <initialPosition>
의 <trigger>
가 지원되지 않습니다.
UNSUPPORTED_INSERT
대상에 삽입할 수 없습니다.
자세한 내용은 UNSUPPORTED_INSERT 확인하세요.
지원되지 않는 조인 유형
지원되지 않는 조인 유형 '<typ>
'. 지원되는 조인 유형은 다음과 같습니다. <supported>
.
지원되지 않는 관리 테이블 생성
데이터 원본 <dataSource>
사용하여 관리되는 테이블 <tableName>
만드는 것은 지원되지 않습니다. 데이터 원본 DELTA
사용하거나 CREATE EXTERNAL TABLE <tableName>
사용하여 외부 테이블을 만들어야 합니다.
USING <dataSource>
...
지원되지 않는 병합 조건
MERGE
작업에는 지원되지 않는 <condName>
조건이 포함됩니다.
자세한 내용은 UNSUPPORTED_MERGE_CONDITION 참조하십시오.
지원되지 않는_메트릭_보기_사용
현재 메트릭 뷰 사용은 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_METRIC_VIEW_USAGE 참조하세요.
지원되지 않는 중첩 행 또는 열 접근 정책
테이블 <tableName>
는 행 수준 보안 정책 또는 열 마스크가 있으며, 이는 행 수준 보안 정책 또는 열 마스크가 있는 다른 테이블을 간접적으로 참조합니다. 이는 지원되지 않습니다. 호출 순서: <callSequence>
지원되지 않는 덮어쓰기
읽고 있는 대상으로는 덮어쓸 수 없습니다.
자세한 내용은 UNSUPPORTED_OVERWRITE 참조하세요.
지원되지 않는 파티션 변환
지원되지 않는 파티션 변환: <transform>
. 지원되는 변환은 identity
, bucket
및 clusterBy
. 변환 식에서 다음 중 하나를 사용하는지 확인합니다.
UNSUPPORTED_SAVE_MODE - 저장 모드가 지원되지 않습니다.
<saveMode>
저장 모드는 다음에서 지원되지 않습니다.
자세한 내용은 UNSUPPORTED_SAVE_MODE 참조하세요.
UNSUPPORTED_SHOW_CREATE_TABLE
SHOW CREATE TABLE
명령을 지원하지 않습니다.
자세한 내용은 UNSUPPORTED_SHOW_CREATE_TABLE 참고하세요.
지원되지 않는 단일 통과 분석기 기능 (UNSUPPORTED_SINGLE_PASS_ANALYZER_FEATURE)
단일 패스 분석기는 아직 <feature>
지원하지 않으므로 이 쿼리 또는 명령을 처리할 수 없습니다.
지원되지 않는 스트리밍 연산자(워터마크 없음)
<outputMode>
출력 모드는 워터마크 없이 스트리밍 DataFrames/DataSets에서 <statefulOperator>
을 지원하지 않습니다.
지원되지 않는 스트리밍 옵션 보기
보기 스트리밍이 지원되지 않습니다. 이유:
자세한 내용은 UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW에 대한 내용을 참조하세요.
지원되지 않는 스트리밍 옵션 권한 적용
공유 클러스터에서 데이터 원본 <source>
의 스트리밍 옵션 <options>
은 지원되지 않습니다. 옵션이 올바르게 지정되고 철자가 지정되었는지 확인하고https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode 제한 사항을 확인하세요.
스트리밍 싱크 미지원 권한 시행됨
데이터 원본 <sink>
공유 클러스터에서 스트리밍 싱크로 지원되지 않습니다.
지원되지 않는 스트리밍 소스, 권한 적용됨
데이터 원본 <source>
공유 클러스터에서 스트리밍 원본으로 지원되지 않습니다.
지원되지 않는 스트리밍 테이블 값 함수
<funcName>
함수는 스트리밍을 지원하지 않습니다.
STREAM
키워드를 제거하세요.
KINESIS 소스에 대한 지원되지 않는 스트림 읽기 제한
<streamReadLimit>
Kinesis 원본에서 지원되지 않습니다.
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
지원되지 않는 하위 쿼리 식:
자세한 내용은 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY 참조하세요.
지원되지 않는 시계열 열
시간열을 사용하는 기본 키 생성은 지원되지 않습니다.
하나 이상의 열이 있는 시계열은 지원되지 않습니다.
시계열 열이 둘 이상 있는 <colSeq>
기본 키 생성은 지원되지 않습니다.
KINESIS_SOURCE에 대한 지원되지 않는 트리거
<trigger>
Kinesis 원본에서 지원되지 않습니다.
지원되지 않는 타입의 리터럴
<unsupportedType>
형식의 리터럴은 지원되지 않습니다. 지원되는 형식은 <supportedTypes>
.
지원되지 않는 사용자 정의 함수 기능
<function>
함수는 최신 버전의 Databricks 런타임이 필요한 다음 기능을 사용합니다. <features>
. 자세한 내용은 <docLink>
참조하세요.
UNTYPED_SCALA_UDF
입력 형식 정보가 없는 형식화되지 않은 Scala UDF를 사용하고 있습니다.
Spark는 기본 형식 인수를 사용하여 Scala 클로저에 null을 맹목적으로 전달할 수 있으며, 닫기에서 null 인수에 대한 Java 형식의 기본값(예: udf((x: Int) => x, IntegerType)
)이 표시됩니다. 결과는 null 입력의 경우 0입니다. 이 오류를 제거하려면 다음을 수행할 수 있습니다.
- 형식화된 Scala UDF API(반환 형식 매개 변수 제외)를 사용합니다(예:
udf((x: Int) => x)
. - 입력 형식이 모두 기본 형식이 아닌 경우 java UDF API(예:
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
)를 사용합니다. - "spark.sql.legacy.allowUntypedScalaUDF"를 "true"로 설정하고 이 API를 주의해서 사용합니다.
업그레이드가 지원되지 않음
테이블은 Hive Metastore에서 Unity 카탈로그로 업그레이드할 수 없습니다. 이유:
자세한 내용은 UPGRADE_NOT_SUPPORTED(업그레이드 지원되지 않음) 참조하세요.
사용자 정의 함수
사용자 정의 함수가 잘못되었습니다.
자세한 내용은 USER_DEFINED_FUNCTIONS 참조하세요.
사용자에 의해 발생한 예외
<errorMessage>
사용자가 발생시킨 예외: 매개변수 불일치
raise_error()
함수는 매개 변수를 <expectedParms>
기대하는 오류 클래스 <errorClass>
을 발생시키는 데 사용되었습니다.
제공된 매개 변수 <providedParms>
예상 매개 변수와 일치하지 않습니다.
모든 예상 매개 변수를 제공해야 합니다.
사용자가 발생시킨 예외: 알 수 없는 오류 클래스
raise_error()
함수를 사용하여 알 수 없는 오류 클래스 <errorClass>
을 발생시켰습니다.
변수가 이미 존재합니다
변수가 이미 있으므로 <variableName>
만들 수 없습니다.
다른 이름을 선택하거나 기존 변수를 삭제하거나 바꿉다.
변수를 찾을 수 없음
<variableName>
변수를 찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법 및 정확성을 확인합니다.
스키마 및 카탈로그로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 스키마 및 카탈로그로 이름을 한정합니다.
삭제에 대한 오류를 허용하려면 DROP VARIABLE IF EXISTS
사용합니다.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
16MiB보다 큰 Variant를 생성할 수 없습니다. Variant 값의 허용되는 최대 크기는 16MiB입니다.
변형_중복_키
중복 개체 키 <key>
인해 변형을 빌드하지 못했습니다.
변형_크기_최대치
<functionName>
에서 <sizeLimit>
보다 큰 변형을 빌드할 수 없습니다.
이 식에 큰 입력 문자열을 사용하지 마세요(예: 함수 호출을 추가하여 식 크기를 확인하고 너무 큰 경우 먼저 NULL
변환).
이미 보기가 존재합니다.
뷰 <relationName>
이미 있으므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 개체를 삭제하거나 바꾸거나, IF NOT EXISTS
절을 추가하여 기존 개체를 허용합니다.
보기의 최대 중첩 깊이를 초과함
뷰 <viewName>
의 깊이가 최대 뷰 해상도 깊이(<maxNestedDepth>
)를 초과합니다.
오류를 방지하기 위해 분석이 중단됩니다. 이 작업을 수행하려면 "spark.sql.view.maxNestedViewDepth" 값을 늘려 보세요.
뷰를 찾을 수 없음
뷰 <relationName>
찾을 수 없습니다. 스키마 및 카탈로그의 맞춤법 및 정확성을 확인합니다.
스키마로 이름을 한정하지 않은 경우 current_schema() 출력을 확인하거나 올바른 스키마 및 카탈로그로 이름을 한정합니다.
삭제에 대한 오류를 허용하려면 DROP VIEW IF EXISTS
사용합니다.
VOLUME_ALREADY_EXISTS (볼륨이 이미 존재합니다)
볼륨 <relationName>
은(는) 이미 존재하므로 만들 수 없습니다.
다른 이름을 선택하거나, 기존 개체를 삭제하거나 바꾸거나, IF NOT EXISTS
절을 추가하여 기존 개체를 허용합니다.
윈도우 함수 및 프레임 불일치
<funcName>
함수는 단일 오프셋인 <windowExpr>
을 사용하여 순서가 지정된 행 기반 창 프레임에서만 평가할 수 있습니다.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE (오버 클라우스 없는 윈도우 함수)
window 함수 <funcName>
에는 OVER 절이 필요합니다.
WITH_CREDENTIAL
<type>
에서 WITH CREDENTIAL
구문은 지원되지 않습니다.
스트림 쓰기 허용되지 않음
writeStream
스트리밍 데이터 세트/데이터 프레임에서만 호출할 수 있습니다.
델타 ALTER TABLE 열 추가를 위한 열 기본값이 잘못되었습니다 - 지원되지 않음
새 값을 추가할 때 DEFAULT
값이 지원되지 않으므로 명령을 실행하지 못했습니다.
기존 델타 테이블에 대한 열; 기본값 없이 열을 추가하세요.
먼저 값을 지정한 다음 두 번째 ALTER TABLE ALTER COLUMN SET DEFAULT
명령을 실행하여 적용합니다.
나중에 삽입된 행을 대신 사용합니다.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
<commandType>
명령을 실행하지 못했습니다. 그 이유는 열 DEFAULT
값이 할당되었기 때문입니다.
하지만 해당 테이블 기능을 사용할 수 없습니다. 명령을 다시 시도하세요.
ALTER TABLE
tableName SET
을 실행한 후
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'supported').
객체 유형에 잘못된 명령입니다
작업 <operation>
에 <requiredType>
이 필요합니다. 그러나 <objectName>
는 <foundType>
입니다. 대신 <alternative>
사용합니다.
잘못된_인수_수
<functionName>
는 <expectedNum>
개의 매개변수를 필요로 하지만 실제 개수는 <actualNum>
입니다.
자세한 내용은 WRONG_NUM_ARGS 참조하세요.
XML 행 태그 누락
XML 형식의 파일을 읽는 데는 <rowTag>
옵션이 필요합니다.
XML_지원되지 않는 중첩 형식
XML은 <dataType>
의 내부 형식으로서 <innerDataType>
을 지원하지 않습니다.
<dataType>
내에서 <innerDataType>
를 사용할 때는 StructType 필드 내에서 래핑하세요.
XML_와일드카드_구조된_데이터_충돌_오류
복구된 데이터 및 와일드카드 열을 동시에 사용할 수 없습니다. 와일드카드 열 이름 옵션을 제거합니다.
ZORDERBY 열이 존재하지 않습니다.
ZOrderBy 열 <columnName>
가 존재하지 않습니다.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND (활성 스파크 세션을 찾을 수 없습니다)
활성 SparkSession을 찾을 수 없습니다.
DELTA_ACTIVE_TRANSACTION_ALREADY_SET (델타 활성 거래가 이미 설정되었습니다)
이미 활성 상태인 경우 새 txn을 활성으로 설정할 수 없습니다.
내부 이름으로 열 추가 실패 (DELTA)
이름이 예약되어 있으므로 열 <colName>
추가하지 못했습니다.
델타_추가_삭제_벡터_허용되지_않음
현재 작업에서 새 삭제 벡터를 만들 수 없는 테이블에 삭제 벡터를 추가하려고 했습니다. 버그 보고서를 제출하세요.
델타 추가 삭제 벡터에 대한 엄격한 경계 비허용
삭제 벡터를 추가하는 모든 작업은 통계의 tightBounds 열을 false로 설정해야 합니다. 버그 보고서를 제출하세요.
델타_추가_열_인덱스가_0보다_작습니다
열 <columnName>
추가하는 인덱스 <columnIndex>
0보다 낮음
DELTA_열_추가_부모_구조_아님
해당 부모가 StructType이 아니므로 <columnName>
추가할 수 없습니다. 발견됨 <other>
DELTA_컬럼_구조체_찾을_수_없음
위치 <position>
구조체를 찾을 수 없습니다.
제약조건 추가 (DELTA_ADD_CONSTRAINTS)
ALTER TABLE
ADD CONSTRAINT
사용하여 CHECK
제약 조건을 추가하세요.
생성된 열에서 델타 집계
<sqlExpr>
발견됨. 생성된 열은 집계 식을 사용할 수 없습니다.
델타 집계가 지원되지 않음
<operation> <predicate>
에서는 집계 함수가 지원되지 않습니다.
델타_변경_대조_불가_블룸_필터
블룸 필터 인덱스가 있으므로 열 <column>
데이터 정렬을 변경하지 못했습니다. 기존 데이터 정렬을 유지하거나 블룸 필터 인덱스 삭제한 다음 다시 명령을 다시 시도하여 데이터 정렬을 변경하세요.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
클러스터링 열이므로 열 <column>
데이터 정렬을 변경하지 못했습니다. 기존 데이터 정렬을 유지하거나 ALTER TABLE
명령을 사용하여 열을 비클러스터형 열로 변경한 다음 다시 시도하여 데이터 정렬을 변경하세요.
델타가 테이블 변경 작업에서 열 변경을 지원하지 않습니다.
ALTER TABLE CHANGE COLUMN
은(는) 열 <currentType>
을(를) <newType>
으로(로) 변경하는 것을 지원하지 않습니다.
DELTA_테이블_수정_CLUSTER_BY_허용_안됨
ALTER TABLE CLUSTER BY
는 Liquid 클러스터링이 있는 델타 테이블에 대해서만 지원됩니다.
델타: 파티션된 테이블에서 CLUSTER BY를 사용한 ALTER TABLE은 허용되지 않습니다
분할된 테이블에는 ALTER TABLE CLUSTER BY
적용할 수 없습니다.
테이블 이름 변경이 허용되지 않음 (DELTA)
작업 허용 안 됨: S3의 최종 일관성이 델타 트랜잭션 로그를 손상할 수 있으므로 S3의 관리되는 델타 테이블에는 ALTER TABLE RENAME
TO가 허용되지 않습니다. 새 이름이 <newName>
인 델타 테이블이 이전에 없었다고 확신하고 이렇게 해야 한다고 주장하는 경우, <key>
을 true로 설정하여 이 기능을 사용할 수 있습니다.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED (클러스터링 테이블 기능 설정이 허용되지 않음)
ALTER TABLE SET TBLPROPERTIES
를 사용하여 <tableFeature>
테이블 기능을 활성화할 수 없습니다.
CREATE
OR REPLACE TABLE CLUSTER BY
사용하여 클러스터링이 있는 델타 테이블을 만드세요.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
<column>
데이터 형식을 <from>
에서 <to>
로 변경할 수 없습니다. 이 변경 내용에는 열 제거 및 추가가 포함되므로 모호합니다. [ADD | DROP | RENAME
] COLUMN
ALTER TABLE
사용하여 개별적으로 변경하세요.
DELTA_AMBIGUOUS_PARTITION_COLUMN
모호한 파티션 열 <column>
은(는) <colMatches>
일 수 있습니다.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE
<identifier>
및 <location>
두 개의 서로 다른 위치를 포함합니다.
CREATE TABLE
문에서 LOCATION
절을 제거하거나 설정할 수 있습니다.
이 검사를 건너뛰려면 <config>
의 값을 true로 설정하세요.
제한 내 보관 파일(Delta)
테이블 <table>
지정된 <limit>
레코드의 LIMIT
충족하기에 보관되지 않은 파일에 충분한 레코드가 없습니다.
스캔에서 아카이브된 파일의 변동량
쿼리의 일부로 스캔해야 할 테이블 <table>
에서 보관될 가능성이 있는 파일 <numArchivedFiles>
개를 발견했습니다.
보관된 파일에 액세스할 수 없습니다. 보관될 때까지 남은 현재 시간은 <archivalTime>
으로 구성되어 있습니다.
보관된 파일을 제외하도록 쿼리 필터를 조정하세요.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
테이블이 CDF(변경 데이터 피드)를 사용하도록 설정하고 DROP COLUMN
또는 RENAME COLUMN
사용하여 스키마를 변경한 경우에는 "<opName>
" 작업이 허용되지 않습니다.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
존재하지 않는 다음의 열에 대한 블룸 필터 인덱스를 삭제할 수 없습니다: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
다음 열에 대한 블룸 필터 인덱스를 작성하는 동안 메모리 부족 오류가 발생했습니다. <columnsWithBloomFilterIndices>
.
'numItems' 옵션에 대해 더 작은 값, 'fpp' 옵션의 더 큰 값을 선택하거나 더 적은 열을 인덱싱하여 블룸 필터 인덱스의 메모리 공간을 줄일 수 있습니다.
델타는 데이터 유형을 변경할 수 없습니다.
데이터 형식을 변경할 수 없음: <dataType>
DELTA_위치를_변경할_수_없습니다
SET TBLPROPERTIES
사용하여 델타 테이블의 '위치'를 변경할 수 없습니다. 대신 ALTER TABLE SET LOCATION
사용하세요.
델타_공급자_변경_불가
'provider'는 예약된 테이블 속성이며 변경할 수 없습니다.
델타_비존재_열_블룸_필터_생성_불가
존재하지 않는 열 <unknownCols>
에 대한 블룸 필터 인덱스를 만들 수 없습니다.
로그 경로를 생성할 수 없습니다 (DELTA)
<path>
만들 수 없습니다.
델타_뷰_기록을_설명할_수_없습니다.
뷰의 역사를 설명할 수 없습니다.
인덱싱되지 않은 열에서 블룸 필터를 삭제할 수 없습니다.
인덱싱되지 않은 열에서는 블룸 필터 인덱스를 삭제할 수 없습니다: <columnName>
델타_체크_제약_조건_기능_삭제_불가
CHECK
제약 조건 테이블 기능을 삭제할 수 없습니다.
먼저 다음 제약 조건을 삭제해야 합니다. <constraints>
.
DELTA_정렬_기능_삭제_불가
데이터 정렬 테이블 기능을 삭제할 수 없습니다.
기본 데이터 정렬이 아닌 열은 먼저 UTF8_BINARY를 사용하도록 변경해야 합니다: <colNames>
.
DELTA_표현_평가_불가
식을 계산할 수 없음: <expression>
DELTA_버킷 사양을 찾을 수 없음
버킷 처리된 델타 테이블을 예상했지만, 테이블에서 버킷 사양이 찾을 수 없습니다.
DELTA_표현식_코드를_생성할_수_없음
식에 대한 코드를 생성할 수 없습니다. <expression>
델타를 수정할 수 없음: 추가 전용으로 설정됨
이 테이블은 추가만 허용하도록 구성됩니다. 업데이트 또는 삭제를 허용하려면 'ALTER TABLE
<table_name>SET TBLPROPERTIES (<config>
=false)'를 사용합니다.
DELTA가 조정된 커밋 종속성을 수정할 수 없음
<Command>
은 이 테이블에서 조정된 커밋이 활성화되어 있으며 이에 의존하기 때문에 커밋 내 타임스탬프 테이블 속성을 재정의하거나 해제할 수 없습니다.
TBLPROPERTIES
절에서 해당 항목("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp")을 제거한 다음 명령을 다시 시도하세요.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY (테이블 속성을 수정할 수 없음)
사용자가 델타 테이블 구성 <prop>
지정할 수 없습니다.
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS (연결된 커밋 구성을 덮어쓸 수 없음)
<Command>
기존 대상 테이블에 대한 조정된 커밋 구성을 재정의할 수 없습니다.
TBLPROPERTIES
절에서 "delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview"을 제거한 후, 명령을 다시 실행하세요.
URI에서 경로를 복원할 수 없습니다
상대 경로로 전환할 수 없는 URI(<uri>
)가 트랜잭션 로그에서 발견되었습니다.
DELTA_CANNOT_RELATIVIZE_PATH (경로를 상대화할 수 없음)
현재 입력에서 상대화될 수 없는 경로(<path>
)가 발견되었습니다.
트랜잭션 로그입니다. 이것을 다시 실행하세요.
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
다음을 실행합니다.
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_이름_변경_불가_경로
<currentPath>
이름을 <newPath>
으로 바꿀 수 없습니다.
DELTA_CANNOT_REPLACE_MISSING_TABLE(테이블을 찾을 수 없어 대체할 수 없습니다.)
테이블 <tableName>
존재하지 않으므로 바꿀 수 없습니다.
CREATE
OR REPLACE TABLE
사용하여 테이블을 만듭니다.
DELTA_열을_해결할_수_없음 (DELTA_CANNOT_RESOLVE_COLUMN)
<schema>
열에 있는 <columnName>
을(를) 해결할 수 없습니다.
델타_테이블_버전_복구_불가
테이블을 버전 <version>
복원할 수 없습니다. 사용 가능한 버전: [<startVersion>
, <endVersion>
].
DELTA_이전 시간으로 타임스탬프 복원 불가
사용 가능한 가장 빠른 버전 이전의 타임스탬프(<requestedTimestamp>
)로 테이블을 복원할 수 없습니다. (<earliestTimestamp>
) 후에 타임스탬프를 사용하세요.
델타_타임스탬프가_더_커서_복원할_수_없음
사용 가능한 최신 버전 이후의 타임스탬프(<requestedTimestamp>
)로 테이블을 복원할 수 없습니다. (<latestTimestamp>
) 전에 타임스탬프를 사용하세요.
델타에서 조정된 커밋 종속성을 설정할 수 없습니다.
<Command>
커밋 시 타임스탬프 테이블 속성을 조정된 커밋과 함께 설정할 수 없습니다. 왜냐하면 후자가 전자에 의존하고 전자는 내부적으로 설정되기 때문입니다.
TBLPROPERTIES
절에서 해당 항목("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp")을 제거한 다음 명령을 다시 시도하세요.
경로 식별자에 위치를 설정할 수 없습니다.
경로 기반 테이블의 위치를 변경할 수 없습니다.
DELTA_관리_통계_열_속성을_설정할_수_없음
DLT가 아닌 테이블에 delta.managedDataSkippingStatsColumns를 설정할 수 없습니다.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS (델타_조정된_커밋_설정을_해제할_수_없음)
ALTER
조정된 커밋 구성을 해제할 수 없습니다. 조정된 커밋에서 테이블을 다운그레이드하려면 ALTER
TABLE [table-name] ``DROP FEATURE`` ‘coordinatedCommits-preview’
사용하여 다시 시도하세요.
델타_배열_필드를_업데이트할_수_없음
%1$s 필드 %2$s 형식을 업데이트할 수 없습니다. %2$s.element를 업데이트하여 요소를 업데이트합니다.
델타_맵_필드를_업데이트할_수_없습니다
%1$s 필드 %2$s 형식을 업데이트할 수 없습니다: %2$s.key나 %2$s.value를 업데이트하여 맵을 수정하십시오.
DELTA_다른_필드를_업데이트할_수_없음
<typeName>
유형의 <tableName>
필드를 업데이트할 수 없습니다.
구조 필드를 업데이트할 수 없음
<tableName>
필드 <fieldName>
형식을 업데이트할 수 없습니다: 필드를 추가, 삭제 또는 업데이트하여 구조체를 변경할 수 없습니다.
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION (모든 열을 파티션에 사용할 수 없음)
파티션 열로 모든 열을 사용할 수 없습니다.
DELTA_CANNOT_VACUUM_LITE (델타_캔낫_백큠_라이트)
VACUUM
LITE는 일부 파일이 델타 로그에서 참조되지 않으므로 적격 파일을 모두 삭제할 수 없습니다.
VACUUM FULL
실행하세요.
DELTA_보기_쓰기_불가
<table>
보기입니다. 뷰에 쓰기는 지원되지 않습니다.
델타_형변환_오버플로우_테이블_쓰기
<sourceType>
형식 값을 <targetType>
형식 열 <columnName>
에 오버플로로 인해 쓰지 못했습니다.
입력 값에 try_cast
을 사용하여 오버플로를 허용하고 대신 NULL
을 반환하십시오.
필요한 경우 이 오류를 무시하려면 <storeAssignmentPolicyFlag>
를 "LEGACY
"로 설정하거나 이전 동작으로 되돌리려면 <updateAndMergeCastingFollowsAnsiEnabledFlag>
를 true로 설정하고 UPDATE
와 MERGE
에서 <ansiEnabledFlag>
을 따르십시오.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
구성 delta.enableChangeDataFeed를 설정할 수 없습니다. Delta의 변경 데이터 피드는 아직 사용할 수 없습니다.
델타_변경_데이터_피드_비호환_데이터_스키마
호환되지 않는 데이터 스키마로 인해 버전 <start>
및 <end>
간의 테이블 변경 내용을 검색하지 못했습니다.
읽기 스키마는 버전 <readVersion>
<readSchema>
버전 <incompatibleVersion>
호환되지 않는 데이터 스키마를 발견했습니다.
가능하면 <config>
endVersion
설정하여 최종 버전의 스키마를 사용하여 테이블 변경 내용을 검색하거나 지원에 문의하세요.
델타 변경 데이터 피드: 호환되지 않는 스키마 변경 (DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE)
호환되지 않는 스키마 변경으로 인해 버전 <start>
및 <end>
간의 테이블 변경 내용을 검색하지 못했습니다.
읽기 스키마는 버전 <readSchema>
에 <readVersion>
로 되어 있지만, 버전 <incompatibleVersion>
에서 호환되지 않는 스키마 변경이 발견되었습니다.
가능하면, 버전 <start>
부터 <incompatibleVersion>
- 1까지 테이블 변경 내용을 쿼리하고, 버전 <incompatibleVersion>
부터 <end>
까지 별도로 테이블 변경 내용을 쿼리하세요.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
트랜잭션 로그에서 참조되는 파일 <filePath>
찾을 수 없습니다. 이 문제는 테이블 DELETE
문을 사용하지 않고 파일 시스템에서 데이터를 수동으로 삭제한 경우에 발생할 수 있습니다. 이 요청은 변경 데이터 피드를 대상으로 하는 것으로 보입니다. 이 경우 변경 데이터 파일이 보존 기간을 초과하여 VACUUM
문에 의해 삭제된 경우 이 오류가 발생할 수 있습니다. 자세한 내용은 <faqPath>
참조하세요.
델타 변경 테이블 피드 비활성화
delta.enableChangeDataFeed가 설정된 테이블에 쓸 수 없습니다. 델타에서 데이터 피드를 변경할 수 없습니다.
DELTA_CHECKPOINT_NON_EXIST_TABLE
존재하지 않는 테이블 <path>
검사할 수 없습니다. _delta_log 디렉터리에서 파일을 수동으로 삭제했나요?
델타 클론 - 모호한 대상
두 개의 경로가 CLONE
대상으로 제공되었으므로 사용할 경로가 모호합니다. 외부 요소
CLONE
위치는 경로와 동시에 <externalLocation>
에서 제공되었습니다.
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
파일(<fileName>
)이 완전히 복사되지 않았습니다. 예상 파일 크기: <expectedSize>
, 찾음: <actualSize>
. 작업을 계속하기 위해 파일 크기 검사를 무시하려면 <config>
를 false로 설정하십시오.
DELTA_CLONE_UNSUPPORTED_SOURCE (지원되지 않는 소스)
지원되지 않는 <mode>
복제 원본 '<name>
'의 형식은 <format>
입니다.
지원되는 형식은 '델타', '빙산' 및 'parquet'입니다.
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
DBR 버전 < 14.0에서는 Liquid 클러스터링이 있는 델타 테이블에 CLONE
를 지원하지 않습니다.
델타 클러스터링 열의 데이터 유형이 지원되지 않습니다
<columnsWithDataTypes>
열이 데이터 건너뛰기를 지원하지 않으므로 CLUSTER BY
이 지원되지 않습니다.
델타 클러스터링 열 불일치
제공된 클러스터링 열이 기존 테이블과 일치하지 않습니다.
- 제공됨:
<providedClusteringColumns>
- 기존의:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Liquid 클러스터링에는 클러스터링 열에 통계가 있어야 합니다. 통계 스키마에서 클러스터링 열 ‘<columns>
’를 찾을 수 없습니다.
<schema>
델타 클러스터링 비-액체 테이블을 액체 테이블로부터 외부에 생성하기
액체 클러스터링이 있는 테이블 디렉터리에서 액체 클러스터링 없이 외부 테이블을 만들 수 없습니다. path: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
'은 클러스터링을 지원하지 않습니다.
델타 클러스터링 단계적 중단 실패
테이블의 <phaseOutType>
을 완료할 수 없습니다 (<tableFeatureToAdd>
테이블 기능 사용, 이유: <reason>
).
OPTIMIZE
명령을 다시 시도하세요.
== 오류 ==
<error>
델타_클러스터링_파티션_테이블로_테이블_대체
분할된 테이블이 있는 Liquid 클러스터링이 있는 델타 테이블을 REPLACE
수 없습니다.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
리퀴드 클러스터링에서 클러스터링 열이 없는 델타 테이블에 대해 SHOW CREATE TABLE
이(가) 지원되지 않습니다.
델타 클러스터링을 사용한 비어 있지 않은 클러스터링 열을 가진 분할 테이블로의 변환
Liquid 클러스터링을 사용하는 경우, 비어 있지 않은 클러스터링 열이 있는 기존 테이블에서 델타 테이블을 분할된 테이블로 변경할 수 없습니다 (운영: <operation>
).
먼저 ALTER TABLE CLUSTER BY
NONE을 실행하여 클러스터링 열을 제거하세요.
델타 클러스터링과 동적 파티션 덮어쓰기
Liquid 클러스터링을 사용하는 델타 테이블에는 동적 파티션 덮어쓰기 모드가 허용되지 않습니다.
델타 클러스터링 위드 파티션 프레디케이트
Liquid 클러스터링이 있는 Delta 테이블에 대한 OPTIMIZE
명령은 파티션 조건자를 지원하지 않습니다. 조건자를 제거하세요. <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
Liquid 클러스터링을 사용하는 Delta 테이블에 대한 OPTIMIZE
명령은 ZORDER BY
을 지정할 수 없습니다.
ZORDER BY (<zOrderBy>
)를 제거하세요.
델타_클러스터_잘못된_열_수에의한
Liquid 클러스터링용 CLUSTER BY
최대 <numColumnsLimit>
클러스터링 열을 지원하지만 테이블에는 <actualNumColumns>
클러스터링 열이 있습니다. 추가 클러스터링 열을 제거하세요.
스키마별 델타 클러스터가 제공되지 않음
스키마가 정의되지 않은 경우 CLUSTER BY
지정할 수 없습니다. 테이블 <tableName>
대한 스키마를 정의하세요.
델타_군집화_및_버켓화
클러스터링과 버킷팅은 둘 다 지정할 수 없습니다. 클러스터링을 사용하여 델타 테이블을 만들려면 CLUSTERED BY INTO BUCKETS
/bucketBy를 제거하세요.
델타 클러스터링 및 파티셔닝 방식 (DELTA_CLUSTER_BY_WITH_PARTITIONED_BY)
클러스터링과 분할은 둘 다 지정할 수 없습니다. 클러스터링을 사용하여 델타 테이블을 만들려면 PARTITIONED BY
/partitionBy/partitionedBy를 제거하세요.
델타 정렬이 지원되지 않음
데이터 정렬은 Delta Lake에서 지원되지 않습니다.
델타 열 데이터 건너뛰기 기능은 파티션된 열에서 지원되지 않습니다.
파티션 열 '<column>
'에는 데이터 건너뛰기가 지원되지 않습니다.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE / 델타 열 데이터 건너뛰기 지원되지 않는 유형
데이터 건너뛰기는 <type>
형식의 열 '<column>
'에 대해 지원되지 않습니다.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
최대 열 ID 속성(<prop>
)은 열 매핑이 설정된 테이블에 설정되지 않았습니다.
DELTA_열_매핑_최대_열_ID_정확히_설정되지_않음
열 매핑이 설정된 테이블의 최대 열 ID 속성(<prop>
)은 <tableMax>
모든 필드(<fieldMax>
)의 최대 열 ID보다 작을 수 없습니다.
델타 열에 데이터 유형이 누락됨
<colName>
열의 데이터 형식이 제공되지 않았습니다.
델타 열을 찾을 수 없음
지정된 열 <columnName>
찾을 수 없습니다. [<columnList>
]
병합에서 델타 열을 찾을 수 없음
INSERT
열에서 대상 테이블의 '<targetCol>
' 열을 찾을 수 없습니다. <colNames>
.
INSERT
절은 대상 테이블의 모든 열에 대한 값을 지정해야 합니다.
스키마에서 델타 열을 찾을 수 없음
열 <columnName>
찾을 수 없습니다.
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED (델타 열 경로가 중첩되지 않음)
<columnPath>
는 중첩된 데이터 유형으로 예상되었으나 <other>
이 발견되었습니다. 를 찾고 있었습니다.
중첩된 필드의 <column>
인덱스입니다.
스키마:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH (델타 열 구조 유형 불일치)
<targetTable>
에서 구조체 열 <source>
을(를) <targetType>
필드 <targetField>
에 삽입할 수 없습니다.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
리디렉션 테이블 상태 '<state>
' 내에서 테이블의 커밋을 처리할 수 없습니다.
DELTA_COMPACTION_VALIDATION_FAILED
<compactedPath>
에서 <newPath>
로의 경로 압축 유효성 검사에 실패했습니다. 버그 보고서를 제출하세요.
델타 복합 타입 열에 null 타입 포함
<dataType>
의 <columName>
열에서 중첩된 NullType을 발견했습니다. 델타는 복합 형식의 NullType 작성을 지원하지 않습니다.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: 파일이 동시 업데이트로 인해 <partition>
에 추가되었습니다. <retryMsg> <conflictingCommit>
자세한 내용은 <docLink>
참조하세요.
델타_동시_삭제_삭제
ConcurrentDeleteDeleteException: 이 트랜잭션은 동시 업데이트에 의해 삭제된 하나 이상의 파일(예: <file>
)을 삭제하려고 했습니다. 작업을 다시 시도하세요.<conflictingCommit>
자세한 내용은 <docLink>
참조하세요.
델타_동시_삭제_읽기
ConcurrentDeleteReadException: 이 트랜잭션은 동시 업데이트로 삭제된 하나 이상의 파일(예: <file>
)을 읽으려고 했습니다. 작업을 다시 시도하세요.<conflictingCommit>
자세한 내용은 <docLink>
참조하세요.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: 이 오류는 여러 스트리밍 쿼리가 동일한 검사점을 사용하여 이 테이블에 쓸 때 발생합니다. 동일한 스트리밍 쿼리의 여러 인스턴스를 동시에 실행했나요?<conflictingCommit>
자세한 내용은 <docLink>
참조하세요.
DELTA_동시_쓰기
ConcurrentWriteException: 현재 트랜잭션이 테이블을 읽은 이후 동시 트랜잭션이 새 데이터를 작성했습니다. 작업을 다시 시도하세요.<conflictingCommit>
자세한 내용은 <docLink>
참조하세요.
DELTA_CONFLICT_SET_COLUMN
이러한 SET
열에서 충돌이 있습니다. <columnList>
.
DELTA_CONF_OVERRIDE는 명령어에서 지원되지 않습니다.
<command>
중에는 명령에서 구성 "<configuration>
"을 설정할 수 없습니다.
TBLPROPERTIES
절에서 제거한 다음, 명령을 다시 입력해 보세요.
세션에서 DELTA 설정 재정의가 지원되지 않음
<command>
중에는 SparkSession 구성에서 구성 "<configuration>
"을 설정할 수 없습니다.
spark.conf.unset("<configuration>")
실행하여 설정을 해제한 다음 명령을 다시 시도하세요.
델타 제약 조건이 이미 존재합니다
제약 조건 '<constraintName>
'이 이미 있습니다. 먼저 이전 제약 조건을 삭제하세요.
이전 제약 조건:
<oldConstraint>
델타_제약조건_데이터_유형_불일치
열 <columnName>
<columnType>
데이터 형식을 가지며 이 열은 다음 check 제약 조건에 의해 참조되므로 <dataType>
데이터 형식으로 변경할 수 없습니다.
<constraints>
델타 제약 조건 종속 열 변경
이 열은 다음 check 제약 조건에 의해 참조되므로 열 <columnName>
변경할 수 없습니다.
<constraints>
델타 제약 조건이 존재하지 않습니다
테이블 <tableName>
존재하지 않는 제약 조건 <constraintName>
삭제할 수 없습니다. 오류가 발생하지 않도록 하려면 매개 변수 IF EXISTS
제공하거나 SQL 세션 구성 <config>
<confValue>
설정합니다.
DELTA_CONVERSION_MERGE_ON_READ 기능은 지원되지 않음
Merge-On-Read <format>
테이블 변환은 지원되지 않습니다. <path>
, <hint>
DELTA_CONVERSION_NO_PARTITION_FOUND (델타 변환 중 파티션을 찾을 수 없음)
카탈로그에서 테이블 <tableName>
대한 파티션 정보를 찾을 수 없습니다. 테이블에서 "MSCK REPAIR TABLE
"를 실행하여 파티션을 검색했나요?
델타 변환에서 지원되지 않는 정렬 분할 열
데이터 정렬된 파티션 열이 <colName>
Parquet 테이블을 Delta로 변환할 수 없습니다.
델타_변환_지원되지_않는_열_매핑
CONVERT
에서 DELTA
로 사용할 때 구성 '<config>
'을 <mode>
로 설정할 수 없습니다.
DELTA_CONVERSION_UNSUPPORTED_SCHEMA_CHANGE
<format>
테이블에 대해 지원되지 않는 스키마 변경 사항: <path>
, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
에서 DELTA
으로는 parquet 테이블만 지원되지만, 당신은 <sourceName>
원본을 변환하려고 합니다: <tableId>
델타 통계 없이 델타 행 추적으로 변환
통계를 수집하지 않고 행 추적을 사용하도록 설정할 수 없습니다.
행 추적을 사용하도록 설정하려면 다음을 수행합니다.
- 명령을 실행하여 통계 수집을 활성화하십시오.
SET <statisticsCollectionPropertyKey>
= true
- NO
STATISTICS
옵션 없이CONVERT
TODELTA
실행합니다.
통계를 수집하지 않으려면 행 추적을 사용하지 않도록 설정합니다.
- 명령을 실행하여 기본적으로 활성화된 테이블 기능을 비활성화합니다.
RESET <rowTrackingTableFeatureDefaultKey>
- 다음을 실행하여 테이블 속성을 기본적으로 비활성화합니다.
SET <rowTrackingDefaultPropertyKey>
= 거짓
DELTA_복사_대상_형식으로
COPY INTO
대상은 델타 테이블이어야 합니다.
델타_스키마_없는_외부_테이블_생성
외부 테이블 <tableName>
만들려고 합니다.
<path>
에서 델타를 사용하지만, 스키마는 지정되지 않았습니다.
입력 경로가 비어 있습니다.
Delta에 대한 자세한 내용은 <docLink>
참조하세요.
외부 테이블 생성 (DELTA, 트랜잭션 로그 없음)
외부 테이블 <tableName>
만들려고 합니다.
Delta를 사용하여 %2$s
에서 시작하지만 트랜잭션 로그가 존재하지 않습니다.
%2$s/_delta_log
. 업스트림 작업이 올바른 방식을 사용하여 작성되고 있는지 확인하세요.
format("delta") 및 경로가 테이블의 루트임을 나타냅니다.
Delta에 대한 자세한 내용은 <docLink>
참조하세요.
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
다른 위치를 사용하여 경로 기반 델타 테이블을 만드는 것은 지원되지 않습니다. 식별자: <identifier>
, 위치: <location>
테이블 이름 또는 위치가 누락되었습니다 (DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION)
테이블 이름 또는 위치를 지정해야 합니다.
DELTA_CREATE_TABLE_SCHEME_MISMATCH (테이블 스키마 불일치 오류)
지정된 스키마가 <path>
기존 스키마와 일치하지 않습니다.
== 지정됨 ==
<specifiedSchema>
== 기존 ==
<existingSchema>
== 차이점 ==
<schemaDifferences>
기존 스키마를 유지하려는 경우 다음을 생략할 수 있습니다.
테이블 만들기 명령의 스키마입니다. 그렇지 않으면 확인하세요.
스키마가 일치합니다.
테이블 클러스터링 기능을 설정할 때 'DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED' 오류 발생.
TBLPROPERTIES
사용하여 <tableFeature>
테이블 기능을 활성화할 수 없습니다.
CREATE
OR REPLACE TABLE CLUSTER BY
사용하여 클러스터링이 있는 델타 테이블을 만드세요.
델타_다른_클러스터링으로_테이블_생성
지정된 클러스터링 열이 기존 클러스터링 열 <path>
와 일치하지 않습니다.
== 지정됨 ==
<specifiedColumns>
== 기존 ==
<existingColumns>
다른 파티셔닝으로 테이블 생성_델타
지정된 분할이 <path>
기존 분할과 일치하지 않습니다.
== 지정됨 ==
<specifiedColumns>
== 기존 ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
지정된 속성이 <path>
기존 속성과 일치하지 않습니다.
== 지정됨 ==
<specifiedProperties>
== 기존 ==
<existingProperties>
DELTA_비어 있지 않은 위치에 대한 테이블 생성
테이블을 만들 수 없습니다('<tableId>
'). 연결된 위치('<tableLocation>
')가 비어 있지 않고 델타 테이블도 아닙니다.
DELTA_DATA_CHANGE_FALSE
'dataChange' 옵션이 false로 설정되어 있으므로 테이블 메타데이터를 변경할 수 없습니다. 시도된 작업: '<op>
'.
델타에서 삭제된 파케 파일을 찾을 수 없습니다
트랜잭션 로그에서 참조되는 파일 <filePath>
찾을 수 없습니다. 이 parquet 파일은 델타의 데이터 보존 정책에 따라 삭제될 수 있습니다.
기본 델타 데이터 보존 기간: <logRetentionPeriod>
. 파켓 파일의 수정 시간: <modificationTime>
. parquet 파일의 삭제 시간: <deletionTime>
. 델타 버전에서 삭제됨: <deletionVersion>
.
델타_삭제_벡터_레코드_수_누락
numRecords 통계가 누락된 삭제 벡터를 사용하여 파일을 커밋하는 것은 유효하지 않습니다.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED (델타 도메인 메타데이터 지원 안 함)
<domainNames>
도메인에 대해 DomainMetadata 작업이 감지되었지만 DomainMetadataTableFeature는 사용하도록 설정되지 않았습니다.
DELTA_인덱스가 0보다 작은 열 삭제
열을 삭제할 인덱스 <columnIndex>
0보다 낮음
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
단일 열이 있는 스키마에서 열을 삭제할 수 없습니다. 스키마:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
경로 <path>
에 대한 파일 작업 '<actionType>
'이 여러 번 지정되었습니다.
<conflictingPath>
와 충돌합니다.
단일 커밋에 동일한 경로가 있는 여러 파일 작업에는 유효하지 않습니다.
DELTA 중복된 열 발견
중복 열 <coltype>
: <duplicateCols>
이(가) 발견되었습니다
삽입 시 중복 열 오류
INSERT
절에서 중복된 열 이름
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
테이블을 업데이트하기 전에 중복 열을 제거하세요.
델타 중복 데이터 건너뛰기 열
중복된 데이터 건너뛰기 열이 있습니다. <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR (중복 도메인 메타데이터 내부 오류)
내부 오류: 동일한 트랜잭션 내의 두 DomainMetadata 작업에 동일한 도메인 <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
테이블 무결성 확인 중에 삭제된 레코드 개수 히스토그램을 역직렬화할 수 없습니다.
델타 동적 파티션 덮어쓰기가 비활성화됨
동적 파티션 덮어쓰기 모드는 세션 구성 또는 쓰기 옵션으로 지정되지만, spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
에 의해 비활성화되었습니다.
DELTA_EMPTY_DATA
델타 테이블을 만드는 데 사용되는 데이터에는 열이 없습니다.
델타_빈_디렉토리
디렉터리에 파일이 없습니다. <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Value "<value>
"가 char/varchar 형식 길이 제한을 초과합니다. 실패한 확인: <expr>
.
델타_캐스트_파티션_값_실패
파티션 값 <value>
을(를) <dataType>
으로 변환하지 못했습니다.
출력 열에서 속성을 찾을 수 없음
기존 대상 출력 <targetOutputColumns>
에서 <newAttributeName>
을 찾을 수 없습니다.
델타_스키마_추론_실패
지정된 파일 목록에서 스키마를 유추하지 못했습니다.
DELTA_FAILED_MERGE_SCHEMA_FILE (델타 스키마 파일 병합 실패)
파일 <file>
의 스키마 병합에 실패했습니다.
<schema>
델타_파일_푸터_읽기_실패
파일의 바닥글을 읽을 수 없습니다. <currentFile>
델타: 술어 인식을 실패했습니다
조건자 '<predicate>
'을 인식할 수 없습니다.
Historical version scan failed: 역사적 버전 스캔 실패
최신 델타 소스 버전의 전체 검사를 기대했지만, 버전 <historicalVersion>
의 과거 검사본을 발견했습니다.
델타가 필드를 병합하지 못했습니다
'<currentField>
' 및 '<updateField>
' 필드를 병합하지 못했습니다.
델타_기능_프로토콜_메타데이터_불일치
다음 테이블 기능은 메타데이터에서 사용하도록 설정되어 있지만 프로토콜에는 나열되지 않으므로 이 테이블에서 작동할 수 없습니다. <features>
.
델타 기능에는 수동 활성화가 필요합니다.
테이블 스키마에는 다음의 표 기능을 수동으로 활성화해야 합니다: <unsupportedFeatures>
.
이렇게 하려면 위에 나열된 각 기능에 대해 다음 명령을 실행합니다.
ALTER TABLE
table_name SET TBLPROPERTIES
('delta.feature.feature_name' = 'supported')
"table_name" 및 "feature_name"을 실제 값으로 대체합니다.
현재 지원되는 기능: <supportedFeatures>
.
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
<featureName>
삭제 실패는 검사점 생성 실패 때문입니다.
나중에 다시 시도하세요. 문제가 지속되면 Databricks 지원에 문의하세요.
DELTA_FEATURE_DROP_CONFLICT_재검증_실패
동시 트랜잭션이 테이블을 수정했기 때문에 기능을 삭제할 수 없습니다.
작업을 다시 시도하세요.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
이 테이블의 일부 다른 기능(<dependentFeatures>
)은 <feature>
따라 달라지므로 테이블 기능 <feature>
삭제할 수 없습니다.
이 기능을 삭제하기 전에 먼저 삭제하는 것이 좋습니다.
DELTA_기능_제거_기능이_존재하지_않음
현재 테이블의 프로토콜에 없기 때문에 이 테이블에서 <feature>
삭제할 수 없습니다.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
델타 로그에 이 기능을 사용하는 기록 버전이 포함되어 있으므로 <feature>
삭제할 수 없습니다.
기록 보존 기간(<logRetentionPeriodKey>=<logRetentionPeriod>
)까지 기다려 주세요.
기능이 마지막으로 활성화된 이후 시간이 지났습니다.
또는 TRUNCATE HISTORY
보존 기간이 만료되기를 기다립니다(<truncateHistoryLogRetentionPeriod>
).
다음을 실행합니다.
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
델타 기능 삭제 시 이력 잘림 허용되지 않음
특정 기능에는 기록 잘림이 필요하지 않습니다.
DELTA_기능_삭제_제거불가_기능
이 기능을 삭제하는 것은 지원되지 않으므로 <feature>
삭제할 수 없습니다.
Databricks 지원에 문의하세요.
델타_기능_비호환_클라이언트_기능_삭제
이 Databricks 버전에서 지원되지 않으므로 <feature>
삭제할 수 없습니다.
더 높은 버전으로 Databricks를 사용하는 것이 좋습니다.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
<feature>
삭제하는 것은 부분적으로 성공했습니다.
이 기능은 이제 테이블의 현재 버전에서 더 이상 사용되지 않습니다. 그러나 이 기능은
여전히 역사적 버전의 테이블에 있습니다. 테이블 기능을 삭제할 수 없습니다.
테이블 프로토콜에서 이 기록 버전이 만료될 때까지.
프로토콜에서 테이블 기능을 삭제하려면, 기록 버전의 처리를 기다려 주십시오.
만료된 후에 이 명령을 반복합니다. 기록 버전의 보존 기간은
현재 <logRetentionPeriodKey>=<logRetentionPeriod>
으로 구성되어 있습니다.
또는 TRUNCATE HISTORY
보존 기간이 만료되기를 기다립니다(<truncateHistoryLogRetentionPeriod>
).
그런 다음에 실행합니다.
ALTER TABLE
테이블_이름 (DROP FEATURE
table_name) DROP FEATURE
특징_이름 (TRUNCATE HISTORY
feature_name) TRUNCATE HISTORY
델타 기능에는 더 높은 리더 버전이 필요합니다
더 높은 판독기 프로토콜 버전(현재 <current>
)이 필요하므로 테이블 기능 <feature>
사용하도록 설정할 수 없습니다. 테이블의 판독기 프로토콜 버전을 <required>
또는 판독기 테이블 기능을 지원하는 버전으로 업그레이드하는 것이 좋습니다. 테이블 프로토콜 버전에 대한 자세한 내용은 <docLink>
참조하세요.
델타 기능은 더 높은 작성기 버전이 필요합니다.
더 높은 기록기 프로토콜 버전(현재 <current>
)이 필요하므로 테이블 기능 <feature>
사용할 수 없습니다. 테이블의 기록기 프로토콜 버전을 <required>
또는 기록기 테이블 기능을 지원하는 버전으로 업그레이드하는 것이 좋습니다. 테이블 프로토콜 버전에 대한 자세한 내용은 <docLink>
참조하세요.
델타 파일이 이미 존재합니다
기존 파일 경로 <path>
델타 파일 목록과 패턴 문자열의 충돌
파일 목록과 패턴 문자열을 모두 지정할 수 없습니다.
DELTA_FILE_NOT_FOUND (델타 파일을 찾을 수 없습니다)
파일 경로 <path>
델타 파일을 찾을 수 없음 - 자세히
트랜잭션 로그에서 참조되는 파일 <filePath>
찾을 수 없습니다. 이 문제는 테이블 DELETE
문을 사용하지 않고 파일 시스템에서 데이터를 수동으로 삭제한 경우에 발생합니다. 자세한 내용은 <faqPath>
참조하세요.
델타 파일이나 디렉터리를 찾을 수 없습니다.
이러한 파일 또는 디렉터리 없음: <path>
덮어쓸 델타 파일을 찾을 수 없음
다시 작성할 파일(<path>
)을 후보 파일 중에서 찾을 수 없습니다.
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
MapType이 발견되었습니다. MapType의 키 또는 값에 액세스하려면 하나를 지정합니다.
의:
<key>
또는
<value>
열 이름 뒤에 오는 경우(해당 열이 구조체 형식인 경우에만)
예: mymap.key.mykey
열이 기본 형식인 경우 mymap.key 또는 mymap.value로 충분합니다.
스키마:
<schema>
델타 생성된 열 데이터 유형 불일치
열 <columnName>
<columnType>
데이터 형식을 하며 다음 생성된 열에서 이 열을 참조하므로 <dataType>
데이터 형식으로 변경할 수 없습니다.
<generatedColumns>
델타_생성된_열_종속_열_변경
이 열은 다음과 같은 생성된 열에서 참조되므로 열 <columnName>
변경할 수 없습니다.
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH (델타 생성 열 표현식 유형 불일치)
생성된 열 <columnName>
의 식 형식은 <expressionType>
이고, 열 형식은 <columnType>
입니다.
DELTA_생성된_열_업데이트_유형_불일치
열 <currentName>
는 생성된 열이거나 생성된 열에서 사용하는 열입니다. 데이터 형식이 <currentDataType>
이며 <updateDataType>
데이터 형식으로 변환할 수 없습니다.
DELTA_ICEBERG_COMPAT_VIOLATION
IcebergCompatV<version>
유효성 검사에 실패했습니다.
자세한 내용은 DELTA_ICEBERG_COMPAT_VIOLATION를 참조하십시오.
델타_아이덴티티_컬럼_수정_지원되지_않음
ALTER TABLE ALTER COLUMN
는 IDENTITY
열에 지원되지 않습니다.
델타_아이덴티티_컬럼_다른_포맷_수정
ALTER TABLE ALTER COLUMN SYNC IDENTITY
델타에서만 지원됩니다.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
IDENTITY
열이 아닌 열에서는 ALTER TABLE ALTER COLUMN SYNC IDENTITY
호출할 수 없습니다.
델타 IDENTITY 열에서는 명시적 삽입이 지원되지 않습니다.
GENERATED ALWAYS
을(를) IDENTITY
열의 <colName>
값으로 제공하는 것은 지원되지 않습니다.
델타_아이덴티티_컬럼_잘못된_단계
IDENTITY
열 단계는 0일 수 없습니다.
DELTA_식별자_열_비델타_형식
IDENTITY
열은 Delta에서만 지원됩니다.
델타_식별_열_파티션_미지원
PARTITIONED BY IDENTITY
열 <colName>
지원되지 않습니다.
델타_식별_열_교체_컬럼_지원_안됨
IDENTITY
열이 있는 테이블에는 ALTER TABLE REPLACE COLUMNS
지원되지 않습니다.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE (델타 식별자 열에 지원되지 않는 데이터 유형)
IDENTITY
열에는 DataType <dataType>
지원되지 않습니다.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
IDENTITY
열 <colName>
의 UPDATE
은 지원되지 않습니다.
델타_ID 열_생성된_표현식
IDENTITY
열은 생성된 열 식으로 지정할 수 없습니다.
델타_잘못된_옵션
옵션 ‘<name>
’에 대한 값 ‘<input>
’는 유효하지 않습니다. <explain>
DELTA_ILLEGAL_USAGE
<operation>
델타 테이블을 할 경우 <option>
사용할 수 없습니다.
DELTA_INCONSISTENT_BUCKET_SPEC (버킷 사양 불일치 오류)
델타 버킷 테이블의 BucketSpec이 메타데이터의 BucketSpec과 일치하지 않습니다. 기대값: <expected>
. 실제: <actual>
.
델타_불일치_로그스토어_설정
(<setKeys>
)을 다른 값으로 설정할 수 없습니다. 그 중 하나만 설정하거나 동일한 값으로 설정하세요.
배열 잘못된 접근 (DELTA_INCORRECT_ARRAY_ACCESS)
ArrayType에 잘못 액세스합니다. arrayname.element.elementname의 위치를 사용하여
배열에 추가합니다.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
ArrayType이 발견되었습니다. ArrayType의 엘리먼트에 액세스하려면
<wrongName>
대신 <rightName>
.
스키마:
<schema>
델타_잘못된_설정_가져오기
'conf.getConf() 대신 getConf()
사용
로그 저장소 구현 오류 (DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION)
이 오류는 일반적으로 기본 LogStore 구현 시 발생합니다.
HDFS가 아닌 스토리지 시스템의 델타 테이블에 쓰기 위해 HDFSLogStore가 사용됩니다.
테이블 업데이트에 대한 트랜잭션 ACID 보증을 얻으려면 다음을 사용해야 합니다.
스토리지 시스템에 적합한 LogStore의 올바른 구현입니다.
자세한 내용은 <docLink>
참조하세요.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
열을 삭제할 인덱스 <position>
구조체 길이보다 크거나 같습니다. <length>
구조보다 큰 델타 인덱스
열 <columnName>
을 추가하기 위한 인덱스 <index>
이(가) 구조체 길이 <length>
보다 큽니다.
DELTA_INSERT_열_갯수_불일치
'<tableName>
'에 쓸 수 없습니다. <columnName>
; 대상 테이블에는 <numColumns>
열이 있지만 삽입된 데이터에는 <insertColumns>
열이 있습니다.
DELTA_INSERT_열_불일치
열 <columnName>
이(가) INSERT
에 지정되지 않았습니다.
DELTA_INVALID_AUTO_COMPACT_TYPE (자동 압축 유형이 유효하지 않음)
잘못된 자동 압축 유형: <value>
. 허용되는 값은 <allowed>
.
DELTA_INVALID_BUCKET_COUNT (유효하지 않은 버킷 수)
버킷 수가 유효하지 않습니다: <invalidBucketCount>
. 버킷 수는 2의 거듭제곱인 양수로, 최소 8 이상이어야 합니다. 대신 <validBucketCount>
사용할 수 있습니다.
DELTA_INVALID_BUCKET_INDEX (델타_잘못된_버킷_인덱스)
파티션 열에서 버킷 열을 찾을 수 없음
DELTA_잘못된_캘린더_간격_비어있음
간격은 null이거나 비워 둘 수 없습니다.
DELTA_INVALID_CDC_RANGE
CDC 범위가 시작 <start>
에서 끝 <end>
까지 잘못되었습니다. 종료는 시작하기 전일 수 없습니다.
컬럼 이름에 유효하지 않은 문자 포함 (DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME)
특성 이름 "<columnName>
"에는 ",;{}()\n\t=" 중 잘못된 문자가 포함되어 있습니다. 별칭을 사용하여 이름을 바꾸세요.
DELTA_열_이름에_유효하지_않은_문자_포함
스키마의 열 이름 중에서 잘못된 문자(‘, ;{}()nt=’)가 발견되었습니다.
열 이름이 잘못되었습니다: <invalidColumnNames>
.
다른 문자를 사용하고 다시 시도하세요.
또는 이러한 문자를 지속적으로 사용하려면 열 매핑을 활성화하세요.
DELTA_INVALID_CLONE_PATH
CLONE
대상 위치는 절대 경로 또는 테이블 이름이어야 합니다. 다음을 사용합니다.
<path>
대신 절대 경로를 사용하십시오.
DELTA_컬럼 맵핑 제거 시 잘못된 컬럼 이름입니다
스키마의 열 이름에서 ',;{}()nt=' 형식의 잘못된 문자들이 발견되었습니다.
열 이름이 잘못되었습니다. <invalidColumnNames>
.
열 이름에 잘못된 문자가 있는 경우 열 매핑을 제거할 수 없습니다.
열 이름을 변경하여 잘못된 문자를 제거하고 이 명령을 다시 실행하세요.
DELTA_INVALID_FORMAT
호환되지 않는 형식이 검색되었습니다.
델타에 대한 트랜잭션 로그가 <deltaRootPath>
/_delta_log'에서 발견되었습니다.
형식("<format>
")을 사용하여 <operation> <path>
을 하려고 합니다. 사용해야 합니다.
델타 테이블에 읽고 쓸 때 'format("delta")'를 사용합니다.
Delta에 대한 자세한 내용은 <docLink>
참조하세요.
DELTA_잘못된_자동생성_열_참조
생성된 열은 존재하지 않는 열이나 생성된 다른 열을 사용할 수 없습니다.
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS (델타_잘못된_멱등_쓰기_옵션)
idempotent 데이터 프레임 쓰기의 잘못된 옵션: <reason>
델타_잘못된_간격
<interval>
유효한 INTERVAL
아닙니다.
DELTA_INVALID_INVENTORY_SCHEMA
지정된 INVENTORY
스키마에 필요한 필드가 모두 포함되어 있지는 않습니다. 필수 필드는 다음과 같습니다. <expectedSchema>
델타_잘못된_격리_수준
잘못된 격리 수준 '<isolationLevel>
'
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) 및 (<schemeConfig>
)는 동시에 설정할 수 없습니다. 하나의 그룹만 설정하세요.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
관리되는 테이블 <tableName>
만들려고 합니다.
델타를 사용하지만 스키마는 지정되지 않았습니다.
Delta에 대한 자세한 내용은 <docLink>
참조하세요.
DELTA_잘못된_파티션_열
<columnName>
는 테이블 <tableName>
에서 유효한 파티션 열이 아닙니다.
DELTA_INVALID_PARTITION_COLUMN_NAME
",; 중 잘못된 문자가 있는 파티션 열을 찾았습니다.{}()nt=". 파티션 열의 이름을 변경하세요. spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false)을 설정하여 이 검사를 해제할 수 있지만 Delta의 다른 기능이 제대로 작동하지 않을 수 있으므로 권장되지 않습니다.
DELTA_INVALID_PARTITION_COLUMN_TYPE
<dataType>
형식의 열 <name>
파티션 열로 사용하는 것은 지원되지 않습니다.
DELTA_잘못된_파티션_경로
파티션 경로 조각은 part1=foo/part2=bar
같은 형식이어야 합니다. 파티션 경로: <path>
DELTA_유효하지 않은 프로토콜 하향 조정
프로토콜 버전은 <oldProtocol>
<newProtocol>
다운그레이드할 수 없습니다.
델타_유효하지_않은_프로토콜_버전
지원되지 않는 델타 프로토콜 버전: table "<tableNameOrPath>
"에는 판독기 버전 <readerRequired>
및 기록기 버전 <writerRequired>
필요하지만 이 버전의 Databricks는 판독기 버전 <supportedReaders>
및 기록기 버전 <supportedWriters>
지원합니다. 최신 릴리스로 업그레이드하세요.
DELTA_INVALID_TABLE_VALUE_FUNCTION
<function>
함수는 CDC 읽기에 사용할 수 없는 테이블 반환 함수입니다.
델타_유효하지 않은_타임스탬프_형식
제공된 타임스탬프 <timestamp>
가 기대되는 구문 <format>
와 일치하지 않습니다.
DELTA_LOG_이미 존재합니다.
델타 로그가 이미 <path>
에 존재합니다.
스트리밍 소스에 대한 DELTA 로그 파일을 찾을 수 없습니다.
삭제하지 않은 경우 쿼리가 뒤쳐질 수 있습니다. 검사점을 삭제하여 처음부터 다시 시작하세요. 이런 일이 다시 발생하지 않도록 델타 테이블의 보존 정책을 업데이트할 수 있습니다.
델타_실재화된_행_추적_열_이름_누락
<rowTrackingColumn>
열 이름이 <tableName>
에 없습니다.
최대 배열 크기 초과
Int.MaxValue - 8보다 작은 제한을 사용하세요.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED (델타 최대 커밋 재시도 횟수 초과)
이 커밋은 <numAttempts>
번 시도되었지만 성공하지 못했기 때문에 실패했습니다.
이는 여러 사용자들이 동시적으로 델타 테이블을 계속 커밋할 때 발생할 수 있습니다.
커밋합니다.
커밋이 버전 <startVersion>
에서 시작되었습니다.
버전 <failVersion>
에서 커밋 실패
커밋을 시도한 작업 수: <numActions>
이 커밋을 시도하는 데 소요된 총 시간: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
파일 목록에는 최대 <maxFileListSize>
개의 항목만 있어야 하는데, 실제로는 <numFiles>
개가 있습니다.
DELTA_MERGE_ADD_VOID_COLUMN
VOID 형식의 열 <newColumn>
을(를) 추가할 수 없습니다. void가 아닌 형식을 명시적으로 지정하세요.
델타 병합과 호환되지 않는 데이터 유형
호환되지 않는 데이터 형식 <currentDataType>
및 <updateDataType>
병합하지 못했습니다.
델타_병합_호환되지_않는_소수형_유형
호환되지 않는 <decimalRanges>
10진수 형식을 병합하지 못했습니다.
델타_병합_소스_실패_반복적으로_실패했습니다
구체화된 MERGE
문의 원본을 유지하는 것은 반복적으로 실패했습니다.
DELTA_MERGE_MISSING_WHEN (델타 병합 시 누락)
MERGE
문에는 하나 이상의 WHEN
절이 있어야 합니다.
입력에서 찾을 수 없는 DELTA MERGE 해상도 속성
연산자 <merge>
에서 <input>
의 확인된 특성 <missingAttributes>
이 누락되었습니다.
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
예기치 않은 할당 키: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
지정된 <cols>
에서 <sqlExpr>
을 <clause>
으로 해결할 수 없습니다.
델타_메타데이터_변경됨
MetadataChangedException: 델타 테이블의 메타데이터가 동시 업데이트에 의해 변경되었습니다. 작업을 다시 시도하세요.<conflictingCommit>
자세한 내용은 <docLink>
참조하세요.
델타_누락_변경_데이터
변경 데이터가 아닌 범위 [<startVersion>
, <endVersion>
]에 대한 변경 데이터를 가져오는 동안 오류가 발생했습니다.
버전 [<version>
]으로 기록됩니다. 이 테이블에서 변경 데이터 피드를 사용하도록 설정한 경우
DESCRIBE HISTORY
을 사용하여 처음으로 설정된 시기를 확인할 수 있습니다.
그렇지 않은 경우 변경 데이터 기록을 시작하려면 ALTER
TABLE` table_name SET TBLPROPERTIES
(<key>
=true)'.
델타_누락된_열
테이블 열 <columnList>
에서 <columnName>
을(를) 찾을 수 없습니다.
DELTA_MISSING_COMMIT_INFO (커밋 정보 누락)
이 표에는 모든 커밋에 CommitInfo 작업이 있어야 하는 기능 <featureName>
활성화되어 있습니다. 그러나 CommitInfo 작업이 커밋 버전 <version>
에서 누락되었습니다.
DELTA_MISSING_COMMIT_TIMESTAMP
이 테이블에는 CommitInfo 작업에 commitTimestamp가 있어야 하는 <featureName>
기능이 활성화되어 있습니다. 그러나 이 필드는 커밋 버전 <version>
설정되지 않았습니다.
델타_누락_테이블
<tableName>
델타 테이블이 아닙니다.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
테이블이 없습니다. 먼저 CREATE TABLE <tableName>
사용하여 빈 델타 테이블을 만듭니다.
DELTA_MISSING_ICEBERG_CLASS
빙산 클래스를 찾을 수 없습니다. Delta Iceberg 지원이 설치되어 있는지 확인하세요.
자세한 내용은 <docLink>
참조하세요.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
NOT NULL
제약 조건이 있는 열 <columnName>
테이블에 기록되는 데이터에서 누락되었습니다.
DELTA_MISSING_PARTITION_COLUMN
스키마 <columnList>
파티션 열 <columnName>
찾을 수 없습니다.
델타_누락된_부분_파일
검사점 버전의 일부 파일을 모두 찾을 수 없습니다. <version>
DELTA_변환에_필요한_제공자_누락
CONVERT
부터 DELTA
은 parquet 테이블만 지원합니다. 대상을 parquet으로 다시 작성하세요.
<path>
가 파케 디렉터리인지 확인합니다.
델타_누락_설정_열
SET
열 <columnName>
을(를) 찾을 수 없습니다. 지정된 열: <columnList>
.
DELTA_거래 로그 없음
호환되지 않는 형식이 검색되었습니다.
Delta를 사용하여 <operation> <path>
을 시도하고 있지만, 필요한 요소가 없습니다.
트랜잭션 로그가 있습니다. 업스트림 작업을 확인하여 작성 중인지 확인합니다.
format("delta")를 사용하고 있으며 테이블 기본 경로를 %1$s 하려 하고 있습니다.
Delta에 대한 자세한 내용은 <docLink>
참조하세요.
델타 모드가 지원되지 않습니다.
지정된 모드 '<mode>
'는 지원되지 않습니다. 지원되는 모드는 <supportedModes>
DELTA_다중_CDC_경계
CDC 읽기용으로 제공된 여러 <startingOrEnding>
인수입니다.
<startingOrEnding>
타임스탬프 또는 <startingOrEnding>
버전 중 하나를 제공하세요.
블룸 필터의 단일 열에 대한 여러 구성 설정
여러 블룸 필터 인덱스 구성이 열 <columnName>
에 대한 명령으로 전달되었습니다.
병합에서 여러 소스 행이 대상 행과 일치함
여러 원본 행이 일치하고 동일한 항목을 수정하려고 하여 병합을 수행할 수 없습니다.
델타 테이블의 대상 행이 충돌할 가능성이 있는 방식으로 처리됩니다. 병합의 SQL 의미 체계에 따르면,
동일한 대상 행에서 여러 원본 행이 일치하면 결과가 모호할 수 있습니다.
일치하는 행을 업데이트하거나 삭제하기 위해 사용해야 하는 원본 행이 불분명하기 때문에
대상 행입니다. 원본 테이블을 전처리하여 가능성을 없앨 수 있습니다.
여러 일치 항목이 있습니다. 다음을 참조하세요.
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
<command>
중에는 조정된 커밋 구성("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview")이 모두 명령에 설정되거나 둘 다 설정되지 않습니다. 누락: "<configuration>
".
TBLPROPERTIES
절에서 이 구성을 지정하거나 다른 구성을 제거한 다음 명령을 다시 시도하세요.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
<command>
중에는 두 조정된 커밋 구성("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview")이 SparkSession 구성에서 설정되거나 둘 다 설정되지 않습니다. 누락: "<configuration>
". SparkSession에서 이 구성을 설정하거나 다른 구성의 설정을 해제한 다음 명령을 다시 시도하세요.
버킷화된 테이블에서의 이름 충돌 (DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE)
다음 열 이름은 델타 버킷 테이블 내부 사용용으로만 예약됩니다. <names>
델타 중첩 필드 이름 변경 필요
입력 스키마에는 대상 테이블과 다르게 대문자로 표시된 중첩된 필드가 포함됩니다.
Delta에 쓰는 동안 이러한 필드의 데이터 손실을 방지하기 위해 이름을 바꿔야 합니다.
필드:
<fields>
.
원래 스키마:
<schema>
델타_중첩된_NOT_NULL_제약조건
필드 <parent>
의 <nestType>
유형에는 NOT NULL
제약 조건이 포함되어 있습니다. 델타는 배열 또는 맵 내에 중첩된 NOT NULL
제약 조건을 지원하지 않습니다. 이 오류를 표시하지 않으며 지정된 제약 조건을 자동으로 무시하려면 <configKey>
= true로 설정합니다.
구문 분석된 <nestType>
형식:
<nestedPrettyJson>
DELTA_중첩된_서브쿼리가_지원되지_않음
중첩된 하위 쿼리는 <operation>
조건에서 지원되지 않습니다.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<tableName>
<numRows>
행이 새 CHECK
제약 조건(<checkConstraint>
)을 위반합니다.
DELTA_NEW_NOT_NULL_VIOLATION
<tableName>
<numRows>
행이 <colName>
새 NOT NULL
제약 조건을 위반합니다.
델타 비부울 체크 제약조건
CHECK
제약 조건 ‘<name>
’(<expr>
)은 불리언 표현식이어야 합니다.
생성된 열에서 비결정론적 표현이 포함됨
<expr>
을 찾았습니다. 생성된 열은 비결정적 식을 사용할 수 없습니다.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
비결정적 함수는 <operation> <expression>
지원되지 않습니다.
마지막으로 일치하지 않는 조항 생략 조건
MERGE
문에 둘 이상의 MATCHED
절이 있는 경우 마지막 MATCHED
절만 조건을 생략할 수 있습니다.
원본 절에 의해 일치하지 않는 DELTA_NON_LAST 조건 생략
MERGE
문에 하나 이상의 NOT MATCHED BY SOURCE
절이 있는 경우, 마지막 NOT MATCHED BY SOURCE
절만 조건을 생략할 수 있습니다.
델타_비마지막_불일치_절_생략_조건
하나의 MERGE
문에 둘 이상의 NOT MATCHED
절이 있을 경우, 마지막 NOT MATCHED
절만 조건을 생략할 수 있습니다.
DELTA_NON_PARSABLE_TAG
태그 <tag>
구문 분석할 수 없습니다.
파일 태그는: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Delta에 기록된 데이터에는 분할되지 않은 열이 하나 이상 포함되어야 합니다.<details>
DELTA_비분할_열_참조 (DELTA_NON_PARTITION_COLUMN_REFERENCE)
프레디켓은 비-파티션 열 '<columnName>
'을 참조합니다. 파티션 열만 참조할 수 있습니다. [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
분할 열만 필요한 곳에 비파티션 열 <columnList>
이(가) 지정되었습니다: <fragment>
.
DELTA_단일_파트가_아닌_네임스페이스_카탈로그용
델타 카탈로그에는 단일 파트 네임스페이스가 필요하지만 <identifier>
다중 파트입니다.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
델타 테이블이 아닙니다. Databricks Delta를 사용하여 만들려면 이 테이블을 먼저 삭제하세요.
델타_델타_테이블이_아님
<tableName>
델타 테이블이 아닙니다. Delta Lake를 사용하여 다시 만들려면 이 테이블을 먼저 삭제하세요.
델타_널이_아닌_컬럼이_구조체에서_발견되지_않음
구조체에서 null 허용 열을 찾을 수 없음: <struct>
델타_널_제약조건_위반됨
<columnName>
열에 대해 NOT NULL
제약 조건을 위반했습니다.
델타_널_아님_중첩_필드
null을 허용하지 않는 중첩 필드는 null을 허용하는 부모에 추가할 수 없습니다. 그에 따라 부모 열의 null 허용 가능성을 설정하세요.
커밋을 찾을 수 없습니다.
<logPath>
커밋을 찾을 수 없음
재생 가능한 기록이 발견되지 않음
<logPath>
에 재생성할 수 있는 커밋이 없습니다.
리디렉션 규칙 위반 없음
작업이 허용되지 않음: 리디렉션 기능이 있는 테이블에서 <operation>
수행할 수 없습니다.
"비리디렉션 규칙이 <noRedirectRules>
충족되지 않습니다."
DELTA_NO_RELATION_TABLE
테이블 <tableIdent>
찾을 수 없음
CDC 읽기를 위한 시작 지점 없음 (DELTA)
CDC 읽기를 위한 startingVersion 또는 startingTimestamp가 제공되지 않았습니다.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
델타는 스트리밍 쓰기에 대한 스키마에서 NullTypes를 허용하지 않습니다.
DELTA_ONEOF_IN_TIMETRAVEL
시간 이동 시 'timestampAsOf' 또는 'versionAsOf'를 제공하세요.
DELTA_ONLY_OPERATION
<operation>
델타 테이블에 대해서만 지원됩니다.
델타 작업 누락 경로
<operation>
대한 경로 또는 테이블 식별자를 제공하세요.
델타_작업_허용되지_않음
작업 허용 안 함: 델타 테이블에 <operation>
지원되지 않습니다.
델타 작업 허용되지 않음 상세 정보
작업이 허용되지 않음: 델타 테이블에 <operation>
지원되지 않습니다. <tableName>
정렬이 지정된 열에 대한 델타 작업은 지원되지 않습니다.
<collation>
기본값이 아닌 데이터 정렬을 사용하는 열 <colName>
은 <operation>
을(를) 지원하지 않습니다.
표현에 대한 정렬과 관련된 델타 연산이 지원되지 않습니다.
식 <exprText>
은 기본이 아닌 정렬 규칙을 사용하므로 <operation>
이(가) 지원되지 않습니다.
생성된 열을 가진 임시 뷰에서의 델타 작업은 지원되지 않음
생성된 열을 포함하는 델타 테이블을 참조하는 임시 보기의 <operation>
명령은 지원되지 않습니다. Delta 테이블에서 직접 <operation>
명령을 실행하세요.
보기에서 델타 작업은 허용되지 않습니다
작업이 허용되지 않음: <operation>
는 보기에서 수행할 수 없습니다.
DELTA_OPTIMIZE_FULL_지원되지_않음
OPTIMIZE FULL
비어있지 않은 클러스터링 열이 있는 클러스터형 테이블에만 지원됩니다.
DELTA_OVERWRITE_MUST_BE_TRUE (이 값은 참이어야 합니다)
복사 옵션 overwriteSchema는 OVERWRITE
= 'true'를 설정하지 않고는 지정할 수 없습니다.
델타_동적_파티션_덮어쓰기_스키마_덮어쓰기
동적 파티션 덮어쓰기 모드에서는 'overwriteSchema'를 사용할 수 없습니다.
델타 파티션 열 형변환 실패
파티션 열 <columnName>
에 대한 값 <value>
를 <dataType>
로 캐스팅하지 못했습니다.
델타_파티션_열_찾을_수_없음
스키마에서 파티션 열 <columnName>
찾을 수 없음 [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES (델타 파티션 스키마 인 아이스버그 테이블)
Iceberg 테이블을 변환할 때 파티션 스키마를 지정할 수 없습니다. 자동으로 유추됩니다.
델타 경로가 존재하지 않습니다
<path>
존재하지 않거나 델타 테이블이 아닙니다.
델타 경로 존재함
OVERWRITE
= 'true'를 설정하지 않고는 기존 경로 <path>
쓸 수 없습니다.
커밋 후 후크의 실패 (DELTA_POST_COMMIT_HOOK_FAILED)
델타 테이블 버전 <version>
에 커밋은 성공했지만, 커밋 후 훅을 실행하는 동안 오류가 발생했습니다 <name> <message>
.
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: 델타 테이블의 프로토콜 버전이 동시 업데이트에 의해 변경되었습니다. <additionalInfo> <conflictingCommit>
자세한 내용은 <docLink>
참조하세요.
DELTA_PROTOCOL_PROPERTY_NOT_INT (델타 프로토콜 속성이 정수가 아님)
프로토콜 속성 <key>
정수여야 합니다. 찾음 <value>
델타 읽기 기능 프로토콜에는 쓰기가 필요합니다
테이블 기능을 사용하도록 판독기 프로토콜 버전만 업그레이드할 수 없습니다. 계속하려면 작성기 프로토콜 버전이 <writerVersion>
이상이어야 합니다. 테이블 프로토콜 버전에 대한 자세한 내용은 <docLink>
참조하세요.
DELTA_READ_TABLE_WITHOUT_COLUMNS (컬럼 없는 테이블 읽기)
열이 없는 델타 테이블 <tableName>
를 읽으려고 시도하고 있습니다.
테이블을 읽을 수 있도록 mergeSchema = true
옵션을 사용하여 몇 가지 새 데이터를 작성합니다.
DELTA_REGEX_OPT_SYNTAX_ERROR
'<regExpOption>
'에 대한 구문을 다시 확인하세요.
DELTA_REPLACE_WHERE_IN_OVERWRITE
필터별 덮어쓰기와 함께 replaceWhere를 사용할 수 없습니다.
DELTA_REPLACE_WHERE_불일치
기록된 데이터는 부분 테이블 덮어쓰기 조건 또는 제약 조건 '<replaceWhere>
'을 따르지 않습니다.
<message>
델타_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
DataFrameWriter 옵션에서는 'replaceWhere' 식과 'partitionOverwriteMode'='dynamic'을 둘 다 설정할 수 없습니다.
델타_필터로_교체_데이터_변경_설정_안함
'replaceWhere'는 'dataChange'가 false로 설정된 경우 데이터 필터와 함께 사용할 수 없습니다. 필터: <dataFilters>
통계 없이 델타 행 ID 할당
행 개수 통계 없이는 행 ID를 할당할 수 없습니다.
Scala Notebook에서 다음 코드를 실행하여 테이블에 대한 통계를 수집하고 다시 시도합니다.
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
검색된 스키마 변경:
스트리밍 원본 스키마: <readSchema>
데이터 파일 스키마: <dataSchema>
쿼리를 다시 시작해 보세요. 이 문제가 쿼리에서 반복되는 경우 없이 다시 시작합니다.
진행 중에 호환되지 않는 스키마 변경이 발생하여 다시 시작해야 합니다.
새 검사점 디렉터리를 사용하여 처음부터 쿼리합니다.
델타_스키마_변경됨_시작_옵션으로
감지된 스키마 변경 사항, 버전 <version>
:
스트리밍 원본 스키마: <readSchema>
데이터 파일 스키마: <dataSchema>
쿼리를 다시 시작해 보세요. 이 문제가 쿼리에서 반복되는 경우 없이 다시 시작합니다.
진전을 이루고 있는 동안 호환되지 않는 스키마 변경을 했으며 이를 다시 시작해야 합니다.
새 검사점 디렉터리를 사용하여 처음부터 쿼리합니다. 문제가 계속 발생하면
새 검사점 디렉터리로 변경하면 기존 검사점을 변경해야 할 수 있습니다.
최신 버전에서 시작하는 'startingVersion' 또는 'startingTimestamp' 옵션
새 검사점 디렉터리를 사용하여 <version>
을(를) 시작합니다.
델타_스키마_버전으로_변경됨
버전 <version>
에서 스키마 변경 감지:
스트리밍 원본 스키마: <readSchema>
데이터 파일 스키마: <dataSchema>
쿼리를 다시 시작해 보세요. 쿼리 재시작 시에도 이 문제가 반복되는 경우,
진행 중에 호환되지 않는 스키마 변경을 했으므로 다시 시작해야 합니다.
새 검사점 디렉터리를 사용하여 처음부터 쿼리합니다.
분석 이후 델타 스키마 변경
DataFrame 이후 델타 테이블의 스키마가 호환되지 않는 방식으로 변경되었습니다.
또는 DeltaTable 개체가 생성되었습니다. DataFrame 또는 DeltaTable 개체를 다시 정의하세요.
변경:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
테이블 스키마가 제공되지 않습니다.
REPLACE
테이블을 사용할 때 AS SELECT
쿼리가 제공되지 않은 경우 테이블의 스키마(열 정의)를 입력해 주세요.
DELTA_SCHEMA_NOT_SET
테이블 스키마가 설정되지 않았습니다. 데이터를 쓰거나 CREATE TABLE
을 사용하여 스키마를 설정합니다.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
새 델타 위치의 스키마는 현재 테이블 스키마와 다릅니다.
원래 스키마:
<original>
대상 스키마:
<destination>
의도한 변경 사항인 경우 다음을 실행하여 이 검사를 해제할 수 있습니다.
%%sql 설정 <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
트랜잭션 로그에서 참조되는 파일 <filePath>
찾을 수 없습니다. 이 문제는 테이블 DELETE
문을 사용하지 않고 파일 시스템에서 데이터를 수동으로 삭제한 경우에 발생할 수 있습니다. 이 테이블은 단순 클론인 것처럼 보입니다. 이 경우 이 테이블이 복제된 원래 테이블이 복제본에서 여전히 사용 중인 파일을 삭제했을 때 이 오류가 발생할 수 있습니다. 클론이 원래 테이블과 독립적이되도록 하려면 대신 DEEP 클론을 사용합니다.
델타_공유_예약된_수신자_속성_수정_불가
<prefix>
시작하는 미리 정의된 속성은 수정할 수 없습니다.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
데이터는 세션의 현재 받는 사람에게 적용되지 않는 받는 사람 속성 <property>
의해 제한됩니다.
자세한 내용은 DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED 참조하십시오.
외부 공유 뷰에서 잘못된 작업 delta 공유
<operation>
은 계정 간 공유되는 델타 공유 보기에서 사용할 수 없습니다.
DELTA_SHARING_INVALID_PROVIDER_AUTH (델타 공유 제공자 인증이 잘못되었습니다)
공급자 <provider>
에 대한 잘못된 인증 유형 <authenticationType>
.
대상 인증이 유효하지 않음_DELTA_공유
수신자 <recipient>
의 부적절한 인증 유형 <authenticationType>
.
델타 공유: 유효하지 않은 공유 데이터 객체 이름
Share 내의 <type>
참조하는 이름이 잘못되었습니다. 공유 내에서 <type>
의 이름을 [스키마].[<type>
] 형식으로 사용할 수 있으며, 또는 테이블의 원래 전체 이름을 [카탈로그].[스키마].[>형식>] 형식으로 사용할 수도 있습니다.
사용할 이름이 확실하지 않은 경우, "SHOW ALL IN SHARE
[공유]"를 실행하여 제거할 <type>
의 이름을 찾을 수 있습니다. 열 "name"은 공유 내의 <type>
의 이름이고, 열 "shared_object"은 <type>
의 원래 전체 이름입니다.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
받는 사람 <recipient>
대한 토큰이 두 개 이상 있습니다.
델타 공유 수신자 속성을 찾을 수 없습니다.
받는 사람 속성 <property>
없습니다.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
받는 사람 <recipient>
에 대한 토큰이 누락되었습니다.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
분할되지 않은 열 <badCols>
이(가) SHOW PARTITIONS
에 대해 지정되었습니다.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
분할되지 않은 테이블에서는 SHOW PARTITIONS
허용되지 않습니다. <tableName>
DELTA_SOURCE_IGNORE_DELETE
버전 <version>
스트리밍 원본에서 삭제된 데이터(예: <removedFile>
)가 검색되었습니다. 현재 지원되지 않습니다. 삭제를 무시하려면 'ignoreDeletes' 옵션을 'true'로 설정합니다. 원본 테이블은 경로 <dataPath>
에서 찾을 수 있습니다.
DELTA_SOURCE_TABLE 변경 무시
버전 <version>
원본 테이블에서 데이터 업데이트(예: <file>
)가 검색되었습니다. 현재 지원되지 않습니다. 이 작업이 정기적으로 수행되고 변경 내용을 건너뛸 수 있는 경우 'skipChangeCommits' 옵션을 'true'로 설정합니다. 데이터 업데이트를 반영하려면 새 검사점 디렉터리로 이 쿼리를 다시 시작하거나 DLT를 사용하는 경우 전체 새로 고침을 수행하세요. 이러한 변경 내용을 처리해야 하는 경우 MV로 전환하세요. 원본 테이블은 경로 <dataPath>
에서 찾을 수 있습니다.
시작 버전과 타임스탬프가 둘 다 설정됨
'<version>
' 또는 '<timestamp>
'를 제공하세요.
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
Parquet 메타데이터에서 열 <statsType>
의 통계를 찾을 수 없습니다: <columnPath>
.
델타 스트리밍이 스키마 진화 이후에도 계속 처리할 수 없습니다.
델타 스트리밍 원본에서 델타 버전 <previousSchemaChangeVersion>
및 <currentSchemaChangeVersion>
간에 하나 이상의 비가산적 스키마 변경(<opType>
)을 발견했습니다.
<currentSchemaChangeVersion>
종료된 스키마를 사용하여 스트림 처리를 진행하기 전에 싱크 테이블에 스키마 변경 사항을 수동으로 전파할지 확인하세요.
싱크 테이블의 스키마를 수정했거나 수정할 필요가 없다고 결정한 후에는 다음 SQL 구성 중 하나를 설정하여 비가산적 스키마 변경의 차단을 해제하고 스트림 처리를 계속할 수 있습니다.
이 특정 스트림에 대한 차단을 이 일련의 스키마 변경에 대해서만 해제하려면 <allowCkptVerKey> = <allowCkptVerValue>
을/를 설정하십시오.
이 특정 스트림에 대한 차단을 해제하려면 <allowCkptKey> = <allowCkptValue>
설정합니다.
모든 스트림의 차단을 해제하려면 <allowAllKey> = <allowAllValue>
설정합니다.
대안적으로, 해당하는 경우 이 특정 스키마 변경 유형에 대해서만 스트림 차단을 해제하려면 SQL conf의 <allowAllMode>
을 <opSpecificMode>
로 바꿀 수 있습니다.
When no specific translation variation is necessary, the text remains: DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
열 매핑 스키마 변경 내용을 확인할 때 시작 버전에 대한 델타 로그 스냅샷을 가져오지 못했습니다. 다른 시작 버전을 선택하거나 '<config>
'을 'true'로 설정하여 사용자 본인의 책임하에 스트리밍 읽기를 강제로 허용하세요.
델타 스트리밍에서의 호환되지 않는 스키마 변경
읽기 호환되지 않는 스키마 변경(예: 이름 바꾸기 또는 삭제 또는 데이터 형식 변경)이 있는 테이블에서는 스트리밍 읽기가 지원되지 않습니다.
이 문제를 해결하기 위한 추가 정보 및 가능한 다음 단계는 <docLink>
설명서를 검토하세요.
읽기 스키마: <readSchema>
. 호환되지 않는 데이터 스키마: <incompatibleSchema>
.
델타 스트리밍 중 비호환 스키마 변경 시 스키마 로그 사용
읽기 호환되지 않는 스키마 변경(예: 이름 바꾸기 또는 삭제 또는 데이터 형식 변경)이 있는 테이블에서는 스트리밍 읽기가 지원되지 않습니다.
델타 스트림 처리에 비가산적 스키마 진화를 사용하도록 설정하려면 'schemaTrackingLocation'을 제공하세요.
자세한 내용은 <docLink>
참조하세요.
읽기 스키마: <readSchema>
. 호환되지 않는 데이터 스키마: <incompatibleSchema>
.
델타 스트리밍 메타데이터 진화
스트리밍 중에 델타 테이블의 스키마, 테이블 구성 또는 프로토콜이 변경되었습니다.
스키마 또는 메타데이터 추적 로그가 업데이트되었습니다.
업데이트된 메타데이터를 사용하여 처리를 계속하려면 스트림을 다시 시작하세요.
업데이트된 스키마: <schema>
.
업데이트된 테이블 구성: <config>
.
업데이트된 테이블 프로토콜: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
스키마 추적을 사용하는 원본 테이블 <tableId>
의 스트리밍은 행 필터나 열 마스크를 지원하지 않습니다.
행 필터 또는 열 마스크를 삭제하거나 스키마 추적을 사용하지 않도록 설정하세요.
델타_스트리밍_스키마_위치_충돌
테이블 또는 ‘<table>
’에 있는 테이블에서 스트리밍하는 동안 ‘<loc>
’이라는 충돌하는 스키마 위치가 감지되었습니다.
다른 스트림은 허용되지 않는 동일한 스키마 위치를 다시 사용할 수 있습니다.
이 테이블의 스트림 중 하나에 대한 읽기 옵션으로 고유한 새 schemaTrackingLocation
경로나 streamingSourceTrackingId
을 제공하세요.
DELTA_스트리밍_스키마_위치가_체크포인트_하에_없음 (DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT)
스키마 위치 '<schemaTrackingLocation>
'는 검사점 위치 '<checkpointLocation>
' 아래에 배치 해야 합니다.
델타 스트리밍 스키마 로그 역직렬화 실패
델타 스트리밍 원본 스키마 로그의 불완전한 로그 파일은 '<location>
'입니다.
스키마 로그가 손상되었을 수 있습니다. 새 스키마 위치를 선택하세요.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
델타 스트림을 읽으려고 할 때 호환되지 않는 델타 테이블 ID가 검색되었습니다.
지속형 테이블 ID: <persistedId>
, 테이블 ID: <tableId>
스키마 로그가 다시 사용되었을 수 있습니다. 새 스키마 위치를 선택하세요.
델타 스트리밍 스키마 로그 비호환 파티션 스키마 (DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA)
델타 스트림을 읽으려고 할 때 호환되지 않는 파티션 스키마가 검색되었습니다.
지속형 스키마: <persistedSchema>
, 델타 파티션 스키마: <partitionSchema>
최근에 테이블의 파티션 스키마를 수동으로 변경한 경우 스키마 로그를 다시 초기화하려면 새 스키마 위치를 선택하세요.
델타 스트리밍 스키마 로그 초기화가 호환되지 않는 메타데이터로 인해 실패했습니다.
델타 스트리밍 원본 스키마 로그를 초기화할 수 없습니다.
테이블 버전 <a>
에서 <b>
로 스트리밍 일괄 처리하는 동안 호환되지 않는 스키마 또는 프로토콜 변경이 감지되었습니다.
DELTA_STREAMING_SCHEMA_LOG_스키마_구문_분석_실패
델타 스트리밍 소스 스키마 로그에서 스키마를 구문 분석하지 못했습니다.
스키마 로그가 손상되었을 수 있습니다. 새 스키마 위치를 선택하세요.
델타 테이블에 이미 CDC 열이 포함되어 있습니다.
테이블에서 변경 데이터 캡처를 사용하도록 설정할 수 없습니다. 테이블에 이미 포함되어 있습니다.
예약된 열 <columnList>
은 향후 사용될 것입니다.
는 테이블의 변경 데이터 피드에 대한 메타데이터로 내부적으로 사용됩니다. 사용할 수 있도록 하려면
테이블의 데이터 피드를 변경하여 이러한 열의 이름을 바꾸거나 삭제합니다.
델타 테이블이 이미 존재합니다
테이블 <tableName>
이미 있습니다.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
현재 DeltaTable.forPath는 <allowedPrefixes>
로 시작하는 hadoop 구성 키만 지원하지만 <unsupportedOptions>
을 받았습니다.
델타_테이블_ID_불일치
이 명령이 테이블을 사용 중일 때 <tableLocation>
의 델타 테이블이 대체되었습니다.
테이블 ID가 <oldId>
지금은 <newId>
.
현재 명령을 재시도하여 테이블의 일관된 보기를 읽고 있는지 확인하십시오.
델타 테이블 위치 불일치
기존 테이블 <tableName>
위치가 <existingTableLocation>
. 지정된 위치 <tableLocation>
과(와) 일치하지 않습니다.
델타 테이블을 찾을 수 없습니다.
델타 테이블 <tableName>
존재하지 않습니다.
OP에서 델타 테이블을 지원하지 않음
<operation>
에서 테이블은 지원되지 않습니다. 대신 경로를 사용하세요.
델타 테이블 전용 작업 (DELTA_TABLE_ONLY_OPERATION)
<tableName>
델타 테이블이 아닙니다.
<operation>
델타 테이블에 대해서만 지원됩니다.
델타_대상_테이블_최종_스키마_비어있음
대상 테이블 최종 스키마가 비어 있습니다.
델타_타임스탬프_커밋보다_클다
제공된 타임스탬프(<providedTimestamp>
)는 이 시스템에서 사용할 수 있는 최신 버전 이후입니다.
table(<tableName>
).
<maximumTimestamp>
타임스탬프를 <maximumTimestamp>
전에나 그 시간에 사용하세요.
DELTA_TIMESTAMP_INVALID (델타 타임스탬프가 잘못되었습니다)
제공된 타임스탬프(<expr>
)는 유효한 타임스탬프로 변환할 수 없습니다.
델타 시간 이동 - 잘못된 시작 값
<timeTravelKey>
유효한 시작 값이어야 합니다.
델타_잘린_거래_로그
<path>
: 수동 삭제 또는 로그 보존 정책(<logRetentionKey>=<logRetention>
) 및 검사점 보존 정책(<checkpointRetentionKey>=<checkpointRetention>
)으로 인해 트랜잭션 로그가 잘렸으므로 버전 <version>
상태를 재구성할 수 없습니다.
델타 테이블 파티션 절단이 지원되지 않음
작업 허용 안 됨: 델타 테이블의 TRUNCATE TABLE
파티션 조건자를 지원하지 않습니다. DELETE
사용하여 특정 파티션 또는 행을 삭제합니다.
델타_UDF_생성된_열에서
<udfExpr>
을 발견했습니다. 생성된 열은 사용자 정의 함수를 사용할 수 없습니다.
델타_예상치_못한_액션_표현
예기치 않은 작업 식 <expression>
.
DELTA_파일명에서_예상치_못한_파티션_열_수
<expectedColsSize>
파티션 열 예상: <expectedCols>
있지만 <parsedColsSize>
파티션 열 발견): 파일 이름 구문 분석에서 <parsedCols>
: <path>
델타_예기치 않은_부분 검색
델타 소스의 전체 스캔을 예상했지만, 부분 스캔만을 찾았습니다. path:<path>
파일 이름에서 예상치 못한 델타 파티션 열
파일 이름을 구문 분석한 결과 파티션 열 <expectedCol>
을(를) 예상했으나, <parsedCol>
파티션 열이 발견되었습니다. <path>
사용자로부터의 예기치 않은 파티션 스키마
CONVERT
TO DELTA
카탈로그에서 유추된 파티션 스키마와 다른 파티션 스키마로 호출되었으므로 카탈로그에서 파티션 스키마를 선택할 수 있도록 스키마를 제공하지 마십시오.
카탈로그 파티션 스키마:
<catalogPartitionSchema>
제공된 파티션 스키마:
<userPartitionSchema>
델타 유니폼 호환성 위치를 변경할 수 없습니다
delta.universalFormat.compatibility.location은 변경할 수 없습니다.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED (델타 유니폼 호환성 위치 등록되지 않음)
delta.universalFormat.compatibility.location이 카탈로그에 등록되지 않았습니다.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
균일한 호환성 형식의 위치가 없거나 잘못되었습니다. delta.universalFormat.compatibility.location에 대해 빈 디렉터리를 설정하세요.
실패한 이유:
자세한 내용은 DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION 참조하세요.
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Iceberg with Delta Uniform을 읽는 데 실패했습니다.
자세한 내용은 DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION 참조하세요.
델타 균일 수신 미지원
균일한 인그레스 테이블의 생성 또는 새로 고침은 지원되지 않습니다.
델타_균일_입력_지원되지_않는_형식
형식 <fileFormat>
지원되지 않습니다. 원래 파일 형식인 빙산만 지원됩니다.
델타 유니폼이 지원되지 않음
유니버설 형식은 Unity 카탈로그 테이블에서만 지원됩니다.
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH
식별자 SYNC UNIFORM
은 다음 이유로 지원되지 않습니다:
자세한 내용은 DELTA_UNIFORM_REFRESH_NOT_SUPPORTED를 참조하세요.
관리되는 Iceberg 테이블의 메타데이터 경로에 대해 델타 균일 새로 고침이 지원되지 않음
REFRESH TABLE
및 METADATA_PATH
은 관리되는 Iceberg 테이블에 지원되지 않습니다.
DELTA_UNIVERSAL 형식 변환 실패
테이블 버전 <version>
을(를) 범용 형식 <format>
로 변환하지 못했습니다. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION (델타_유니버설_포맷_위반)
유니버설 형식(<format>
)의 유효성 검사에 실패했습니다. <violation>
델타_미확인_구성
알 수 없는 구성이 지정되었습니다. <config>
DELTA_알 수 없는 권한
알 수 없는 권한: <privilege>
델타_알 수 없는_읽기_한도
알 수 없는 ReadLimit: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
인식할 수 없는 열 변경 <otherClass>
. 오래된 Delta Lake 버전을 실행하고 있을 수 있습니다.
DELTA_UNRECOGNIZED_INVARIANT (델타: 인식되지 않은 불변성)
인식할 수 없는 불변식입니다. Spark 버전을 업그레이드하세요.
DELTA_UNRECOGNIZED_LOGFILE (델타 인식되지 않은 로그파일)
인식할 수 없는 로그 파일 <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
테이블 <tableName>
존재하지 않는 속성 '<property>
'을 설정 해제하려고 했습니다.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
절대 경로가 있는 파일 추가를 지원하지 않습니다.
델타_지원되지_않는_테이블_변경_열_연산
ALTER TABLE CHANGE COLUMN
는 열 <fieldPath>
을 <oldField>
에서 <newField>
으로 변경하는 것을 지원하지 않습니다.
DELTA에서 ALTER TABLE을 사용하여 컬럼을 교체하는 작업이 지원되지 않습니다 (DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP)
지원되지 않는 ALTER TABLE REPLACE COLUMNS
작업입니다. 이유: <details>
스키마를 다음에서 변경하지 못했습니다:
<oldSchema>
받는 사람:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE (지원되지 않는 클론: 동일한 테이블 교체 불가능)
당신은 기존 테이블(<tableName>
)을 CLONE
로 REPLACE
하려고 시도했습니다. 이 작업은 다음과 같습니다.
지원되지 않는.
CLONE
다른 대상을 시도하거나 현재 대상에서 테이블을 삭제합니다.
델타_지원되지_않는_열_매핑_모드_변경
열 매핑 모드를 '<oldMode>
'에서 '<newMode>
'로 변경하는 것은 지원되지 않습니다.
DELTA_지원되지 않는 열 매핑 프로토콜
현재 테이블 프로토콜 버전은 열 매핑 모드 변경을 지원하지 않습니다.
사용하여 <config>
.
열 매핑에 필요한 델타 프로토콜 버전:
<requiredVersion>
테이블의 현재 델타 프로토콜 버전:
<currentVersion>
<advice>
델타_지원되지 않는_열_매핑_스키마_변경
스키마 변경이 감지되었습니다.
이전 스키마:
<oldTableSchema>
새 스키마:
<newTableSchema>
열 매핑 모드를 변경하는 동안에는 스키마 변경이 허용되지 않습니다.
델타_지원되지 않는_열_매핑_쓰기
열 매핑 모드를 사용하여 데이터를 작성하는 것은 지원되지 않습니다.
블룸 필터에서 지원되지 않는 열 유형 (DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER)
형식이 <dataType>
인 열에 블룸 필터 인덱스를 생성하는 것은 지원되지 않습니다: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
<fieldPath>
주석을 추가할 수 없습니다. 지도 키/값 또는 배열 요소에 주석을 추가하는 것은 지원되지 않습니다.
DELTA_UNSUPPORTED_DATA_TYPES
지원되지 않는 데이터 형식을 사용하는 열을 찾았습니다. <dataTypeList>
. '<config>
'을 'false'로 설정하여 형식 검사를 사용하지 않도록 설정할 수 있습니다. 이 형식 검사를 사용하지 않도록 설정하면 사용자가 지원되지 않는 델타 테이블을 만들 수 있으며 레거시 테이블을 읽거나 쓰려고 할 때만 사용해야 합니다.
델타_지원되지 않는_데이터_유형_생성된_열에서
<dataType>
생성된 열의 결과일 수 없습니다.
DELTA_깊은 클론 지원 불가
이 델타 버전에서는 딥 클론이 지원되지 않습니다.
지원되지 않는 상세 보기 설명
<view>
보기입니다.
DESCRIBE DETAIL
테이블에 대해서만 지원됩니다.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
클러스터링 열(<columnList>
)을 삭제할 수 없습니다.
DELTA_UNSUPPORTED_DROP_COLUMN (지원되지 않는 열 삭제)
DROP COLUMN
는 델타 테이블에서는 지원되지 않습니다. <advice>
DELTA_지원되지 않는 비구조적 유형에서 중첩 열 삭제
StructType에서 중첩된 열만 삭제할 수 있습니다. 발견됨 <struct>
DELTA_지원되지 않는_파티션_열_드롭
파티션 열(<columnList>
)을 삭제할 수 없습니다.
DELTA_UNSUPPORTED_EXPRESSION
<causedBy>
대해 지원되지 않는 식 형식(<expType>
)입니다. 지원되는 형식은 [<supportedTypes>
]입니다.
델타_지원되지 않는_식_생성된_열
<expression>
생성된 열에서 사용할 수 없습니다.
읽기를 위한 지원되지 않는 기능들 델타
지원되지 않는 델타 읽기 기능: 테이블 "<tableNameOrPath>
"은 이 버전의 Databricks에서 지원되지 않는 판독 테이블 기능 <unsupported>
이 필요합니다. Delta Lake 기능 호환성에 대한 자세한 내용은 <link>
참조하세요.
쓰기 위한 델타 미지원 기능
지원되지 않는 델타 쓰기 기능: 테이블 “<tableNameOrPath>
”은(는) 이 버전의 Databricks에서 지원되지 않는 기록 테이블 기능 <unsupported>
을(를) 필요로 합니다. Delta Lake 기능 호환성에 대한 자세한 내용은 <link>
참조하세요.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
다음 Spark 구성 또는 델타 테이블 속성에 구성된 테이블 기능은 이 버전의 Databricks에서 인식되지 않습니다. <configs>
.
델타_지원되지 않는_기능_상태
기대했던 테이블 기능 <feature>
의 상태는 "지원됨"이었지만, "<status>
"로 확인되었습니다.
델타_지원되지 않는_필드_업데이트_비 구조화
중첩된 필드 업데이트는 StructType에서만 지원되지만 <columnName>
필드를 업데이트하려고 합니다( 형식: <dataType>
).
DELTA_삭제 벡터가 포함된 FSCK를 지원하지 않음
삭제 벡터 파일이 누락된 테이블 버전에서는 'FSCK REPAIR TABLE
' 명령이 지원되지 않습니다.
지원에 문의하세요.
삭제 벡터로 생성할 수 없음 (DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS)
삭제 벡터가 있는 테이블 버전에서는 'GENERATE
symlink_format_manifest' 명령이 지원되지 않습니다.
삭제 벡터 없이 테이블 버전을 생성하려면 'REORG TABLE
테이블 APPLY (PURGE
)'을 실행합니다. 그런 다음 'GENERATE
' 명령을 다시 실행합니다.
REORG
GENERATE
사이에 삭제 벡터를 다시 추가하는 동시 트랜잭션이 없는지 확인합니다.
매니페스트를 정기적으로 생성해야 하거나 동시 트랜잭션을 방지할 수 없는 경우 'ALTER TABLE
테이블 SET TBLPROPERTIES
(delta.enableDeletionVectors = false)'를 사용하여 이 테이블에서 삭제 벡터를 사용하지 않도록 설정하는 것이 좋습니다.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
StructTypes가 아닌 중첩 필드의 불변성은 지원되지 않습니다.
DELTA_UNSUPPORTED_IN_SUBQUERY (서브쿼리에서 지원되지 않음)
<operation>
조건에서는 하위 쿼리가 지원되지 않습니다.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix를 사용할 수 없음
델타_컬럼_매핑으로_매니페스트_생성이_지원되지_않음
외부 판독기는 이러한 델타 테이블을 읽을 수 없으므로 열 매핑을 활용하는 테이블에는 매니페스트 생성이 지원되지 않습니다. 자세한 내용은 델타 설명서를 참조하세요.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
스키마 진화가 있는 MERGE INTO
작업은 현재 CDC 출력 작성을 지원하지 않습니다.
DELTA_지원되지 않는_다중 열_IN_조건문
다중 열 In 조건은 <operation>
조건에서 지원되지 않습니다.
블룸 필터 내 중첩 열을 지원하지 않음
중첩 열에 블룸 파일러 인덱스 만들기는 현재 지원되지 않습니다. <columnName>
DELTA_작업에서 지원되지 않는 중첩 필드
중첩된 필드는 <operation>
(필드 = <fieldName>
)에서 지원되지 않습니다.
DELTA_지원되지 않음_비어 있지 않은 클론
복제 대상 테이블이 비어 있지 않습니다.
CLONE
를 실행하기 전에 테이블을 TRUNCATE
또는 DELETE FROM
하십시오.
DELTA_지원되지 않는 출력 모드
데이터 원본 <dataSource>
<mode>
출력 모드를 지원하지 않습니다.
델타_블룸필터_지원되지_않는_파티션_열
분할 열에 블룸 필터 인덱스 만들기는 지원되지 않습니다. <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN (지원되지 않는 열 이름 변경)
델타 테이블에는 열 이름 바꾸기가 지원되지 않습니다. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
델타는 읽기 시간에 스키마 지정을 지원하지 않습니다.
버킷된 테이블에서 지원되지 않는 정렬 Delta
델타 버킷 테이블에는 SORTED BY
지원되지 않습니다.
DELTA_UNSUPPORTED_SOURCE
<operation>
대상은 델타 원본만 지원합니다.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS (DELTA_지원되지 않는 정적 파티션)
현재 삽입 중에는 파티션 사양에서 정적 파티션 지정이 지원되지 않습니다.
DELTA_UNSUPPORTED_STRATEGY_NAME
지원되지 않는 전략 이름: <strategy>
DELTA_UNSUPPORTED_SUBQUERY (지원되지 않는 하위 쿼리)
하위 쿼리는 <operation>
에서 지원되지 않습니다(조건 = <cond>
).
파티션 조건에서 지원되지 않는 서브쿼리입니다.
하위 쿼리는 파티션 조건자에서 지원되지 않습니다.
지원되지 않는 시간 여행 다중 포맷
시간 여행을 여러 형식으로 지정할 수 없습니다.
델타_지원되지_않는_타임_트래블_뷰
이동 보기, 하위 쿼리, 스트림 또는 변경 데이터 피드 쿼리를 시간 초과할 수 없습니다.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES (지원되지 않는 샘플 테이블 잘라내기)
샘플 테이블 자르기는 지원되지 않습니다.
DELTA_스키마의 유형 변경이 지원되지 않음
지원되지 않는 형식 변경이 적용되었으므로 이 테이블에서 작업할 수 없습니다. 필드 <fieldName>
가 <fromType>
에서 <toType>
로 변경되었습니다.
델타_비호환_진공_특정_파티션
델타 테이블을 진공 처리할 때 기본 경로(<baseDeltaPath>
)를 제공하세요. 특정 파티션의 진공 처리는 현재 지원되지 않습니다.
델타_지원되지 않는_쓰기가_스테이지드_테이블
테이블 구현은 쓰기를 지원하지 않습니다. <tableName>
코디네이터 없이 지원되지 않는 델타 쓰기
당신은 커밋 코디네이터 <coordinatorName>
에 등록된 테이블에서 쓰기 작업을 수행하려고 합니다. 그러나 이 코디네이터의 구현은 현재 환경에서 사용할 수 없으며 코디네이터가 없는 쓰기는 허용되지 않습니다.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
샘플 테이블에 쓰기가 지원되지 않음
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
<fromCatalog>
<toCatalog>
캐스팅할 수 없습니다. 중첩된 모든 열이 일치해야 합니다.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
데이터 파일에서 VACUUM
이(가) 성공했지만, COPY INTO
상태의 가비지 수집이 실패했습니다.
델타_버전들_연속되지_않음
버전(<versionList>
)은 연속되지 않습니다.
더 많은 정보를 보려면 DELTA_VERSIONS_NOT_CONTIGUOUS 참조하세요.
델타_값과_제약_위반
CHECK
제약 조건 <constraintName> <expression>
값이 있는 행에서 위반되었습니다.
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
테이블 <table>
속성의 유효성 검사가 위반되었습니다.
자세한 내용은 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED 참조하세요.
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED (델타 보기 쓰기 지원되지 않음)
<viewIdentifier>
는 보기입니다. 뷰에 데이터를 쓸 수 없습니다.
If we were to adapt this for a local understanding while keeping the technical accuracy, we could provide an additional descriptive translation along with the English technical term, if context allows. However, in this case, without additional context suggesting the need to localize the error message, it is acceptable to keep it as is. Therefore, no translation alteration is necessary, considering this term's probable usage context as a technical identifier within software or code.
Z 순서 열 <columnName>
데이터 스키마에 없습니다.
DELTA_Z주문식_열_통계_없음
<cols>
에서 Z 순서는 계속될 것입니다
현재 이러한 열에 대한 통계를 수집하지 않기 때문에 효과가 없습니다. 다음을 참조하세요.
<link>
데이터 건너뛰기 및 z 순서 지정에 대한 자세한 내용을 참조하세요. 사용하지 않도록 설정할 수 있습니다.
이 확인을 설정으로 수행합니다.
‘%%sql 설정 <zorderColStatKey>
= 거짓’
DELTA_ZORDERING_ON_PARTITION_COLUMN (델타 Z-정렬_PARTITION_열)
<colName>
파티션 열입니다. Z 순서 지정은 데이터 열에서만 수행할 수 있습니다.
델타 공유
델타_공유_인증_넘버가_존재하지_않습니다
SQLSTATE: 할당된 항목 없음
활성화 nonce를 찾을 수 없습니다. 사용한 활성화 링크가 잘못되었거나 만료되었습니다. 활성화 링크를 다시 생성하고 다시 시도합니다.
델타 공유 - 지역 간 공유 미지원
SQLSTATE: 할당된 항목 없음
<regionHint>
지역과 지역 외부 지역 간의 공유는 지원되지 않습니다.
DELTA_SHARING_GET_RECIPIENT_PROPERTIES_INVALID_DEPENDENT
SQLSTATE: 할당된 항목 없음
current_recipient
함수로 정의된 뷰는 공유 전용이며 데이터 받는 사람 쪽에서만 쿼리할 수 있습니다. id <securableId>
제공된 보안 개체는 델타 공유 뷰가 아닙니다.
델타 공유: 변경 가능한 보안 유형은 지원되지 않습니다
SQLSTATE: 할당된 항목 없음
제공된 보안 가능한 종류 <securableKind>
는 Delta Sharing에서 변경 가능성을 지원하지 않습니다.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: 할당된 항목 없음
제공된 보안 유형 <securableKind>
Marketplace 서비스에서 시작된 토큰 회전 작업을 지원하지 않습니다.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: 할당된 항목 없음
<dsError>
: 인증 유형을 제공자 엔터티 <providerEntity>
에서 사용할 수 없습니다.
DS_CDF_사용 불가
SQLSTATE: 할당된 항목 없음
<dsError>
: <tableName>
대한 변경 데이터 피드에 액세스할 수 없습니다. 원래 델타 테이블에서는 CDF를 사용할 수 없습니다. 데이터 공급자에게 문의하세요.
DS_CDF_NOT_SHARED
SQLSTATE: 할당된 항목 없음
<dsError>
: <tableName>
대한 변경 데이터 피드에 액세스할 수 없습니다. CDF는 테이블에서 공유되지 않습니다. 데이터 공급자에게 문의하세요.
DS_CDF_RPC_INVALID_PARAMETER (잘못된 매개 변수)
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_클라이언트_인증_오류_DB_DS_서버
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_클라이언트_오류_DB_DS_서버
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
클라우드 공급업체를 사용할 수 없음
SQLSTATE: 할당된 항목 없음
<dsError>
: 클라우드 공급업체가 <rpcName>
에는 일시적으로 사용 불가능합니다. 다시 시도하세요.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED (데이터 실현 명령 실패)
SQLSTATE: 할당된 항목 없음
<dsError>
: 조직 <orgId>
의 데이터 구체화 작업 실행 <runId>
이 명령 <command>
에서 실패했습니다
This section will not be filled out as it's concluded that the translation might be accurately left as is, unless further context suggests translation is necessary.
SQLSTATE: 할당된 항목 없음
<dsError>
: 조직 <orgId>
의 데이터 구체화 작업 실행 <runId>
은 명령 <command>
을 지원하지 않습니다.
유효한 네임스페이스 없음 - 데이터 구체화 실패
SQLSTATE: 할당된 항목 없음
<dsError>
: <tableName>
에 대한 구체화를 만들 유효한 네임스페이스를 찾을 수 없습니다. 이 문제를 해결하려면 데이터 공급자에게 문의하세요.
DS_DATA_구현_실행_존재하지_않음
SQLSTATE: 할당된 항목 없음
<dsError>
: 조직 <orgId>
의 데이터 구체화 작업 실행 <runId>
은 존재하지 않습니다
DS_DELTA_ILLEGAL_STATE (잘못된 상태)
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES (체크포인트 파일이 누락되었습니다)
SQLSTATE: 할당된 항목 없음
<dsError>
: <version>
버전의 검사점의 일부 파일을 모두 찾을 수 없습니다. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
마켓플레이스에 대한 토큰의 만료 권한이 없습니다
SQLSTATE: 할당된 항목 없음
<dsError>
: 제공된 보안 가능한 종류 <securableKind>
은 Marketplace 서비스에서 시작된 만료 토큰 작업을 지원하지 않습니다.
DS 서버를 여는 요청 실패
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_파일_리스트_예외
SQLSTATE: 할당된 항목 없음
<dsError>
: <storage>
: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_FLAKY_NETWORK_CONNECTION
SQLSTATE: 할당된 항목 없음
<dsError>
: <rpcName>
네트워크 연결이 불안정합니다. 다시 시도하세요.<traceId>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: 할당된 항목 없음
<dsError>
: <key>
호출자가 설정하지 않았습니다.
DS_ILLEGAL_STATE
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_잘못된_AZURE_경로
SQLSTATE: 할당된 항목 없음
<dsError>
: 잘못된 Azure 경로: <path>
.
DS_잘못된_델타_작업_연산
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_INVALID_FIELD (잘못된 필드)
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
잘못된 반복자 작업
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_유효하지_않은_파티션_명세
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS 서버에서 유효하지 않은 응답입니다
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: 할당된 항목 없음
<dsError>
: <schema>
대한 쿼리가 실패했습니다.공유 <share>
<table>
.
DS_구현_쿼리_시간초과
SQLSTATE: 할당된 항목 없음
<dsError>
: <schema>
에 대한 쿼리 시간이 초과되었습니다.
<timeoutInSec>
초 후 <share>
에서 <table>
공유.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: 할당된 항목 없음
<dsError>
: 쿼리가 <schema>
때 Idempotency 키가 필요합니다.
<table>
에서 <share>
로 비동기적으로 공유합니다.
DS_MORE_THAN_ONE_RPC_PARAMETER_SET
SQLSTATE: 할당된 항목 없음
<dsError>
: <parameters>
중에서 하나만 제공하세요.
메타스토어가 할당되지 않음
SQLSTATE: 할당된 항목 없음
<dsError>
: 현재 작업 영역에 할당된 메타스토어가 없습니다(workspaceId: <workspaceId>
).
DS_페이지네이션과_쿼리_인수_불일치
SQLSTATE: 할당된 항목 없음
<dsError>
: 페이지 매김 또는 쿼리 인수가 일치하지 않습니다.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: 할당된 항목 없음
<dsError>
: 공유 테이블에서 파티션 열 [<renamedColumns>
]의 이름이 변경되었습니다. 이 문제를 해결하려면 데이터 공급자에게 문의하세요.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: 할당된 항목 없음
<dsError>
: 버전이 <startVersion>
이후 테이블 데이터만 쿼리할 수 있습니다.
서버에서의 쿼리 시간 초과 (DS_QUERY_TIMEOUT_ON_SERVER)
SQLSTATE: 할당된 항목 없음
<dsError>
: <numIter>
반복에서 <numActions>
개의 업데이트 후 <tableName>
에서 <queryType>
을/를 처리하는 동안 시간 제한이 발생했습니다.<progressUpdate> <suggestion> <traceId>
DS 서버에서 제한 속도 설정
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_자원_고갈됨
SQLSTATE: 할당된 항목 없음
<dsError>
: <resource>
한도를 초과했습니다. [<limitSize>
]<suggestion>
.<traceId>
DS 서버에서 리소스를 찾을 수 없습니다.
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_시스템_작업공간_그룹_권한_지원되지 않음
SQLSTATE: 할당된 항목 없음
시스템에 의해 생성된 그룹 <principal>
에 <securableType>
에 대한 권한을 부여할 수 없습니다.
시간 여행이 허용되지 않습니다.
SQLSTATE: 할당된 항목 없음
<dsError>
: <tableName>
기록이 공유되지 않는 한 시간 이동 쿼리는 허용되지 않습니다. 데이터 공급자에게 문의하세요.
DS_인증되지 않음
SQLSTATE: 할당된 항목 없음
<dsError>
: 권한 없음.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: 할당된 항목 없음
<dsError>
: 권한이 없는 D2O OIDC 수신자: <message>
.
DS_알 수 없는 예외
SQLSTATE: 할당된 항목 없음
<dsError>
: <traceId>
DS_UNKNOWN_QUERY_ID (알 수 없는 쿼리 ID)
SQLSTATE: 할당된 항목 없음
<dsError>
: <schema>
에 대한 알 수 없는 쿼리 ID <queryID>
.
<table>
을 공유 <share>
에서.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: 할당된 항목 없음
<dsError>
: <schema>
에 대한 쿼리 ID <queryID>
의 쿼리 상태를 알 수 없습니다.공유 <share>
에서 <table>
.
알 수 없는 원격 프로시저 호출 (DS_UNKNOWN_RPC)
SQLSTATE: 할당된 항목 없음
<dsError>
: 알 수 없는 rpc <rpcName>
.
DS_UNSUPPORTED_DELTA_READER_VERSION (지원되지 않는 델타 리더 버전)
SQLSTATE: 할당된 항목 없음
<dsError>
: 델타 프로토콜 판독기 버전 <tableReaderVersion>
<supportedReaderVersion>
보다 높으며 델타 공유 서버에서 지원될 수 없습니다.
DS_UNSUPPORTED_DELTA_TABLE_FEATURES (델타 테이블 기능이 지원되지 않음)
SQLSTATE: 할당된 항목 없음
<dsError>
: 테이블 기능 <tableFeatures>
은 테이블<versionStr> <historySharingStatusStr> <optionStr>
에 있다.
DS_UNSUPPORTED_OPERATION (지원되지 않는 작업)
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
DS_지원되지 않는 저장 방식
SQLSTATE: 할당된 항목 없음
<dsError>
: 지원되지 않는 스토리지 체계: <scheme>
.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: 할당된 항목 없음
<dsError>
: <schema>
검색할 수 없습니다.Share <share>
의 <table>
테이블은 유형이 [<tableType>
]인 경우 현재 Delta Sharing 프로토콜에서 지원되지 않습니다.
DS_USER_CONTEXT_ERROR
SQLSTATE: 할당된 항목 없음
<dsError>
: <message>
뷰 공유 기능이 허용되지 않음
SQLSTATE: 할당된 항목 없음
<dsError>
: 다음 함수: <functions>
뷰 공유 쿼리에서 허용되지 않습니다.
DS_WORKSPACE_DOMAIN_NOT_SET (작업 공간 도메인이 설정되지 않음)
SQLSTATE: 할당된 항목 없음
<dsError>
: 작업 영역 <workspaceId>
도메인이 설정되지 않았습니다.
작업 공간을 찾을 수 없습니다.
SQLSTATE: 할당된 항목 없음
<dsError>
: 작업 영역 <workspaceId>
찾을 수 없습니다.
오토로더
CF_ADD_NEW_NOT_SUPPORTED
스키마 진화 모드 <addNewColumnsMode>
스키마가 지정된 경우 지원되지 않습니다. 이 모드를 사용하려면 대신 cloudFiles.schemaHints
통해 스키마를 제공할 수 있습니다.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
(기본) 디렉터리에 대한 알림 설정 인증 옵션을 찾았습니다.
목록 모드:
<options>
파일 알림 모드를 사용하려면 다음을 명시적으로 설정하세요.
.option("cloudFiles.<useNotificationsKey>
", "true")
또는 옵션의 유효성 검사를 건너뛰고 무시하려는 경우
인증 옵션은 다음을 설정할 수 있습니다.
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
증분 목록 모드(cloudFiles.<useIncrementalListingKey>
)
및 파일 알림(cloudFiles<useNotificationsKey>
)
기능이 동시에 활성화되었습니다.
하나만 선택했는지 확인하세요.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Azure용 adlsBlobSuffix 및 adlsDfsSuffix가 필요합니다.
CF_BUCKET_MISMATCH
파일 이벤트 <fileEvent>
의 <storeType>
이(가) 소스에서 예상한 <source>
와(과) 다릅니다.
스키마 로그가 비어 있어 진화할 수 없습니다.
스키마 로그가 비어 있으면 스키마를 발전할 수 없습니다. 스키마 로그 위치: <logPath>
CF_큐_메시지를_파싱할_수_없음
다음 큐 메시지를 구문 분석할 수 없습니다. <message>
컨테이너 이름을 확인할 수 없음
경로에서 컨테이너 이름을 확인할 수 없습니다. <path>
, 해결된 URI: <uri>
디렉토리 목록을 실행할 수 없습니다 (CF_CANNOT_RUN_DIRECTORY_LISTING).
실행 중인 비동기 백필 스레드가 있는 경우 디렉터리 목록을 실행할 수 없습니다.
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
cloudFiles.cleanSource 및 cloudFiles.allowOverwrites를 동시에 켤 수 없습니다.
CF_CLEAN_SOURCE_권한 없는 쓰기 허가
자동 로더는 원본 디렉터리에 대한 쓰기 권한이 없으므로 처리된 파일을 삭제할 수 없습니다.
<reason>
해결하려면 다음 중 하나를 수행할 수 있습니다.
- 원본 디렉터리 OR에 쓰기 권한 부여
- cleanSource를 'OFF'로 설정
SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors를 'true'로 설정하여 스트림의 차단을 해제할 수도 있습니다.
\ CF_DUPLICATE_COLUMN_IN_DATA (데이터에서 중복된 열)
테이블의 파티션 스키마를 유추하려고 할 때 오류가 발생했습니다. 데이터 및 파티션 경로에 동일한 열이 복제되어 있습니다. 파티션 값을 무시하려면 .option("cloudFiles"을 사용하여 파티션 열을 명시적으로 제공하세요.<partitionColumnsKey>
", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
입력 경로 <path>
비어 있으면 스키마를 유추할 수 없습니다. 입력 경로에 파일이 있을 때 스트림을 시작하거나 스키마를 지정하세요.
CF_EVENT_GRID_인증_오류
Event Grid 구독을 만들지 못했습니다. 귀하의 서비스가 유지되는지 확인하세요.
주체는 <permissionType>
개의 Event Grid 구독을 가지고 있습니다. 자세한 내용은 다음을 참조하세요.
<docLink>
CF_이벤트_그리드_생성_실패
Event Grid 구독을 만들지 못했습니다. Microsoft.EventGrid가 제대로 설정되었는지 확인하십시오.
구독에 리소스 공급자로 등록됩니다. 자세한 내용은 다음을 참조하세요.
<docLink>
CF_이벤트_그리드_찾을_수_없음_오류
Event Grid 구독을 만들지 못했습니다. 당신의 스토리지를 확인하세요.
account(<storageAccount>
)는 리소스 그룹(<resourceGroup>
) 아래에 있으며
스토리지 계정은 "StorageV2(범용 v2)" 계정입니다. 자세한 내용은 다음을 참조하세요.
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
자동 로더 이벤트 알림 모드는 <cloudStore>
에서 지원되지 않습니다.
스트림 확인 실패 (신규)
스트림이 새 스트림인지 확인하지 못했습니다.
CF_FAILED_TO_CREATE_PUBSUB_SUBSCRIPTION - 퍼브서브 구독을 생성하는 데 실패했습니다.
구독을 만들지 못했습니다. <subscriptionName>
. 이름이 같은 구독이 이미 있으며, 다른 항목인 <otherTopicName>
과 연결되어 있습니다. 원하는 주제는 <proposedTopicName>
입니다. 기존 구독을 삭제하거나 새 리소스 접미사를 사용하여 구독을 만듭니다.
퍼브섭 주제를 만들지 못했습니다
항목을 만들지 못했습니다. <topicName>
. 이름이 같은 토픽이 이미 있습니다.
<reason>
기존 토픽을 제거하거나 다른 리소스 접미사를 사용하여 다시 시도
GCP 알림 삭제에 실패했습니다.
토픽 <topicName>
에 대한 버킷 <bucketName>
의 id <notificationId>
알림을 삭제하지 못했습니다. GCP 콘솔을 통해 알림을 다시 시도하거나 수동으로 제거하세요.
저장된 스키마의 역직렬화 실패
문자열에서 지속형 스키마를 역직렬화하지 못했습니다. '<jsonSchema>
'
스키마를 발전시키는 데 실패했습니다
스키마 로그 없이는 스키마를 발전할 수 없습니다.
CF_FAILED_TO_FIND_PROVIDER (공급자를 찾지 못함)
<fileFormatInput>
공급자를 찾지 못했습니다.
스키마 추론 실패 (CF_FAILED_TO_INFER_SCHEMA)
입력 경로 <path>
에 있는 기존 파일에서 형식 <fileFormatInput>
의 스키마를 유추하지 못했습니다.
자세한 내용은 CF_FAILED_TO_INFER_SCHEMA 참조하세요.
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG (스키마 로그에 쓰기 실패)
스키마 로그 <path>
위치에 쓰기를 실패했습니다.
파일 형식이 필요합니다
cloudFiles.format과 같은 필수 옵션을 찾을 수 없습니다.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS (여러 개의 자동 로더 발행-구독 구독이 발견됨)
토픽 <topicName>
에 대한 '자동 로더 접두사'가 있는 여러 구독(<num>
)이 발견되었습니다.
<subscriptionList>
토픽당 하나의 구독만 있어야 합니다. 토픽에 여러 구독이 없는지 수동으로 확인하세요.
CF_GCP_AUTHENTICATION
다음 항목들을 모두 제공하세요: <clientEmail>
, <client>
,
<privateKey>
, <privateKeyId>
둘 중 하나를 사용하거나 둘 다 사용하지 않으면 기본값을 사용합니다.
GCP 리소스를 사용하여 인증하기 위한 GCP 자격 증명 공급자 체인입니다.
(A potential translation if context indicates explanation is needed) - GCP 레이블 수가 초과되었습니다
GCP 리소스에 대해 너무 많은 레이블(<num>
)을 받았습니다. 리소스당 최대 레이블 수는 <maxNum>
.
GCP 리소스 태그 개수 초과
GCP 리소스에 대해 너무 많은 리소스 태그(<num>
)를 받았습니다. 리소스 태그는 리소스에 GCP 레이블로 저장되며, Databricks 특정 태그가 이 레이블 할당량의 일부를 사용하기 때문에, 리소스당 최대 태그 수는 <maxNum>
입니다.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
경로 <path>
의 스키마 로그에 있는 불완전한 로그 파일
체크포인트의 불완전한 메타데이터 파일
자동 로더 검사점의 불완전한 메타데이터 파일
CF_INCORRECT_BATCH_USAGE
CloudFiles는 스트리밍 원본입니다. spark.read 대신 spark.readStream을 사용하세요. 이 검사를 사용하지 않도록 설정하려면 <cloudFilesFormatValidationEnabled>
false로 설정합니다.
CF_INCORRECT_SQL_PARAMS (잘못된 SQL 매개변수)
cloud_files 메서드는 로드할 경로와 파일 형식이라는 두 가지 필수 문자열 매개 변수를 허용합니다. 파일 판독기 옵션은 문자열 키-값 맵에 제공되어야 합니다. 예: cloud_files("path", "json", map("option1", "value1")). 수신: <params>
CF_INCORRECT_STREAM_USAGE (잘못된 스트림 사용)
'cloudFiles'를 스트리밍 원본으로 사용하려면 파일 형식에 'cloudFiles.format' 옵션을 제공하고 .load()를 사용하여 DataFrame을 만듭니다. 이 검사를 사용하지 않도록 설정하려면 <cloudFilesFormatValidationEnabled>
false로 설정합니다.
CF_INTERNAL_ERROR
내부 오류입니다.
자세한 내용은 CF_INTERNAL_ERROR 참조하세요.
CF_INVALID_ARN
잘못된 ARN: <arn>
CF_INVALID_AZURE_인증서_유효하지_않음
cloudFiles.certificate 옵션과 함께 제공되는 프라이빗 키를 구문 분석할 수 없습니다. PEM 형식으로 유효한 공개 키를 제공하세요.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
cloudFiles.certificatePrivateKey 옵션과 함께 제공되는 프라이빗 키를 구문 분석할 수 없습니다. PEM 형식으로 유효한 프라이빗 키를 제공하세요.
CF_INVALID_CHECKPOINT (잘못된 체크포인트)
이 검사점은 유효한 CloudFiles 원본이 아닙니다.
CF_INVALID_CLEAN_SOURCE_MODE (유효하지 않은 클린 소스 모드)
클린 소스 옵션 <value>
의 모드가 잘못 설정되었습니다.
CF_INVALID_GCP_RESOURCE_TAG_KEY
GCP 리소스에 대한 리소스 태그 키가 잘못되었습니다. <key>
. 키는 소문자로 시작하고 1~63자 이내여야 하며 소문자, 숫자, 밑줄(_) 및 하이픈(-)만 포함해야 합니다.
CF_INVALID_GCP_RESOURCE_TAG_VALUE
GCP 리소스에 대한 리소스 태그 값이 잘못되었습니다. <value>
. 값은 0~63자 이내여야 하며 소문자, 숫자, 밑줄(_) 및 하이픈(-)만 포함해야 합니다.
관리 파일 이벤트 옵션 키가 잘못되었습니다 (CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS)
자동 로더는 관리되는 파일 이벤트와 함께 사용할 때 다음 옵션을 지원하지 않습니다.
<optionList>
이러한 옵션을 제거한 다음 스트림을 다시 시작하는 것이 좋습니다.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
관리되는 파일 이벤트 서비스에서 잘못된 응답입니다. 지원을 받으려면 Databricks 지원에 문의하세요.
자세한 내용은 CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE을 참조하세요.
CF_잘못된_스키마_진화_모드
cloudFiles.
<schemaEvolutionModeKey>
은 다음 중 하나여야 합니다.
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
스키마 힌트는 특정 열을 한 번만 지정할 수 있습니다.
이 경우 열을 다시 정의합니다: <columnName>
schemaHints에서 여러 번:
<schemaHints>
CF_잘못된_스키마_힌트_열
스키마 힌트는 맵과 배열의 중첩 형식을 재정의하는 데 사용할 수 없습니다.
충돌 열: <columnName>
CF_최신_오프셋_읽기_제한_필요
latestOffset은 이 원본에서 ReadLimit를 사용하여 호출해야 합니다.
로그 파일이 잘못되었습니다.
로그 파일이 손상되었습니다: <fileName>
에서 올바른 로그 버전을 읽는 데 실패했습니다.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
includeExistingFiles를 false로 설정하여 외부 위치에 있는 기존 파일을 무시하도록 자동 로더에 요청했습니다. 그러나 관리되는 파일 이벤트 서비스는 여전히 외부 위치에서 기존 파일을 검색합니다. 관리되는 파일 이벤트가 외부 위치의 모든 파일 검색을 완료한 후 다시 시도하세요.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
관리되는 파일 이벤트와 함께 자동 로더를 사용하지만 입력 경로 '<path>
'의 외부 위치에 파일 이벤트가 활성화되지 않았거나 입력 경로가 잘못된 것으로 나타납니다. 입력 경로에 대한 외부 위치에서 파일 이벤트를 사용하도록 Databricks 관리자에게 요청하세요.
관리되는 파일 이벤트 엔드포인트 권한 거부
관리되는 파일 이벤트와 함께 자동 로더를 사용하지만 입력 경로 '<path>
'에 대한 외부 위치 또는 볼륨에 액세스할 수 없거나 입력 경로가 잘못되었습니다. Databricks 관리자에게 외부 위치 또는 볼륨에 대한 읽기 권한을 부여하거나 기존 외부 위치 또는 볼륨 내에서 유효한 입력 경로를 제공하도록 요청하세요.
서버리스 환경에서만 관리되는 파일 이벤트
관리되는 파일 이벤트가 있는 자동 로더는 Databricks 서버리스에서만 사용할 수 있습니다. 계속하려면 이 워크로드를 Databricks 서버리스로 이동하거나 cloudFiles.useManagedFileEvents 옵션을 해제하세요.
CF_MAX는 양수가 되어야 합니다.
max는 양수여야 합니다.
CF_METADATA_FILE_CONCURRENTLY_USED
여러 스트리밍 쿼리가 <metadataFile>
를 동시에 사용 중입니다.
CF_메타데이터 파일 누락 오류 (CF_MISSING_METADATA_FILE_ERROR)
스트리밍 원본 검사점 디렉터리의 메타데이터 파일이 없습니다. 이 메타데이터
파일에는 스트림에 대한 중요한 기본 옵션이 포함되어 있으므로 스트림을 다시 시작할 수 없습니다.
바로 지금. 지원을 받으려면 Databricks 지원에 문의하세요.
CF_MISSING_PARTITION_COLUMN_ERROR
제공된 스키마에 파티션 열 <columnName>
존재하지 않습니다.
<schema>
경로 없는 모드에서 스키마 누락 (CF_MISSING_SCHEMA_IN_PATHLESS_MODE)
파일 알림 모드를 사용하는 동안 경로가 CloudFiles 원본에 제공되지 않는 경우 .schema()를 사용하여 스키마를 지정하세요. 또는 자동 로더가 스키마를 유추하도록 하려면 .load()에 기본 경로를 제공하세요.
토픽에 대한 다중 게시-구독 알림
토픽 <topicName>
에 대한 기존 알림을 버킷 <bucketName>
에서 찾았습니다.
알림,아이디
<notificationList>
의도하지 않은 이벤트로 구독자가 오염되지 않도록 하려면 위의 알림을 삭제하고 다시 시도하세요.
CF_NEW_PARTITION_ERROR
귀하의 파일에서 새 파티션 열이 유추되었습니다: [<filesList>
]. 스키마의 모든 파티션 열을 제공하거나 .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")을 사용하여 값을 추출할 파티션 열 목록을 제공하세요.
CF_PARTITON_INFERENCE_ERROR (파티션 추론 오류)
현재 파일 일괄 처리의 파티션 스키마를 유추하려고 할 때 오류가 발생했습니다. .option("cloudFiles.<partitionColumnOption>
", "{쉼표로 구분된 목록}")을 사용하여 파티션 열을 명시적으로 제공하세요.
읽기 파일에 대한 경로가 존재하지 않습니다.
입력 경로 <path>
없는 경우 파일을 읽을 수 없습니다. 입력 경로가 있는지 확인하고 다시 시도하세요.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
비동기 백필을 사용하지 않도록 설정하면 주기적 백필이 지원되지 않습니다.
spark.databricks.cloudFiles.asyncDirListing
을 true로 설정하여 비동기 백업/디렉토리 나열을 사용할 수 있습니다.
CF_접두사_불일치
일치하지 않는 이벤트가 발견됨: 키 <key>
접두사를 가지고 있지 않습니다. <prefix>
CF_PROTOCOL_MISMATCH (프로토콜 불일치)
<message>
코드를 변경할 필요가 없는 경우 SQL을 설정하세요.
구성: ‘<sourceProtocolVersionKey> = <value>
’
스트림을 다시 시작하십시오. 다음을 참조하세요.
<docLink>
자세한 내용을 확인하세요.
CF_지역_찾을_수_없는_오류
기본 AWS 지역을 가져올 수 없습니다. cloudFiles.region 옵션을 사용하여 지역을 지정하세요.
CF_RESOURCE_SUFFIX_EMPTY
알림 서비스를 만들지 못했습니다. 리소스 접미사를 비울 수 없습니다.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS (CF_리소스_접미사_잘못된_문자_AWS)
알림 서비스를 만들지 못했습니다. 리소스 접미사는 영숫자 문자, 하이픈(-) 및 밑줄(_)만 가질 수 있습니다.
CF_리소스_접미사_유효하지_않은_문자_AZURE
알림 서비스를 만들지 못했습니다. 리소스 접미사는 소문자, 숫자 및 대시(-)만 가질 수 있습니다.
리소스 접미사에 잘못된 문자가 포함되어 있습니다_GCP
알림 서비스를 만들지 못했습니다. 리소스 접미사는 영숫자 문자, 하이픈(-), 밑줄(_), 마침표(.), 타일(~) 및 기호(+) 및 백분율 기호(<percentSign>
)만 가질 수 있습니다.
CF_RESOURCE_SUFFIX_LIMIT
알림 서비스를 만들지 못했습니다. 리소스 접미사에 <limit>
문자를 초과할 수 없습니다.
CF_RESOURCE_SUFFIX_LIMIT_GCP
알림 서비스를 만들지 못했습니다. 리소스 접미사는 <lowerLimit>
문자와 <upperLimit>
문자 사이에 있어야 합니다.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
제한된 GCP 리소스 태그 키(<key>
)를 찾았습니다. 자동 로더에 대해 다음 GCP 리소스 태그 키가 제한됩니다. [<restrictedKeys>
]
최대 파일 연령보다 큰 유지기간
cloudFiles.cleanSource.retentionDuration은 cloudFiles.maxFileAge보다 클 수 없습니다.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
주제 <topic>
와 접두사 <prefix>
을 사용하여 알림을 만들지 못했습니다. 동일한 이름의 토픽이 다른 접두사 <oldPrefix>
와 이미 있습니다. 설정에 다른 리소스 접미사를 사용하거나 기존 설정을 삭제합니다.
CF_소스_디렉토리_경로_필요
옵션 path
와 함께 원본 디렉터리 경로를 제공하세요.
지원되지 않는 소스 (CF_SOURCE_UNSUPPORTED)
클라우드 파일 원본은 현재 S3, Azure Blob Storage(wasb/wasbs) 및 Azure Data Lake Gen1(adl) 및 Gen2(abfs/abfss) 경로만 지원합니다. path: '<path>
', resolved uri: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS (잘못된 SQL 매개변수)
cloud_files_state 함수는 cloudFiles 스트림의 검사점 디렉터리 또는 스트리밍 테이블을 식별하는 다중 파트 tableName을 나타내는 문자열 매개 변수와 상태를 로드할 검사점 버전을 나타내는 선택적 두 번째 정수 매개 변수를 허용합니다. 두 번째 매개변수는 최신 검사점을 읽기 위해 '최신'일 수도 있습니다. 수신: <params>
CF 상태: 잘못된 체크포인트 경로
입력 검사점 경로 <path>
잘못되었습니다. 경로가 없거나 cloud_files 원본이 없습니다.
CF_STATE_INVALID_VERSION (유효하지 않은 버전)
지정된 버전 <version>
없거나 분석 중에 제거되었습니다.
CF_THREAD_IS_DEAD (스레드가 종료되었습니다)
<threadName>
스레드가 중지되었습니다.
CF_스트림_검사점_위치를_도출할_수_없음
원본 검사점 위치에서 스트림 검사점 위치를 파생할 수 없습니다. <checkPointLocation>
파일 형식을 감지할 수 없습니다.
<formats>
<fileSize>
샘플링된 파일에서 소스 파일 형식을 검색할 수 없습니다. 형식을 지정하세요.
CF: 버킷 정보 추출 불가능
버킷 정보를 추출할 수 없습니다. 경로: '<path>
', 해결된 URI: '<uri>
'.
키 정보를 추출할 수 없습니다
키 정보를 추출할 수 없습니다. 경로: '<path>
', 해결된 uri: '<uri>
'.
저장소 계정 정보를 추출할 수 없습니다
스토리지 계정 정보를 추출할 수 없습니다. path: '<path>
', resolved uri: '<uri>
'
목록 효율적으로 나열할 수 없음
경로 <path>
대한 디렉터리 이름 바꾸기 이벤트를 받았지만 이 디렉터리를 효율적으로 나열할 수 없습니다. 스트림을 계속하려면 'cloudFiles.ignoreDirRenames' 옵션을 true로 설정하고 이 데이터를 처리할 수 있도록 cloudFiles.backfillInterval을 사용하여 일반 백필을 사용하도록 설정하는 것이 좋습니다.
CF_UNEXPECTED_READ_LIMIT
예기치 않은 읽기 제한: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR (알 수 없는 옵션 키 오류)
알 수 없는 옵션 키를 찾았습니다.
<optionList>
제공된 모든 옵션 키가 올바른지 확인하세요. 건너뛰고 싶다면
옵션의 유효성을 검사하고 이러한 알 수 없는 옵션을 무시하면 다음을 설정할 수 있습니다.
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
알 수 없는 ReadLimit: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
자동 로더 스트리밍 원본을 만드는 SQL 함수 'cloud_files'은 Delta Live Tables 파이프라인에서만 지원됩니다. 자세한 내용은 다음을 참조하세요.
<docLink>
스키마 추론에 지원되지 않는 형식
스키마 유추는 형식 <format>
에 대해 지원되지 않습니다. 스키마를 지정하세요.
CF_UNSUPPORTED_LOG_VERSION (지원되지 않는 로그 버전)
지원되지 않는 로그 버전: 지원되는 최대 로그 버전은 v<maxVersion>``, but encountered v``<version>
. 로그 파일은 최신 버전의 DBR에서 생성되었으며 이 버전에서는 읽을 수 없습니다. 업그레이드하세요.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
스키마 진화 모드 <mode>
는 형식 <format>
에 대해 지원되지 않습니다. 스키마 진화 모드를 'none'으로 설정하세요.
CF_USE_DELTA_FORMAT
델타 테이블에서 읽기는 이 구문에서 지원되지 않습니다. Delta의 데이터를 읽으려면 문서: 델타 테이블 읽기(<deltaDocLink>
), 또는 델타 테이블을 스트림 소스로 읽기(<streamDeltaDocLink>
)를 참조하세요. Delta의 스트리밍 원본은 이미 데이터의 증분 소비에 최적화되어 있습니다.
지형 공간 정보
EWKB_PARSE_ERROR
EWKB 구문 분석 오류: <parseError>
에서 위치 <pos>
GEOJSON_PARSE_ERROR
GeoJSON 구문 분석 오류: <parseError>
위치 <pos>
자세한 내용은 GEOJSON_PARSE_ERROR 참조하세요.
H3_INVALID_CELL_ID
<h3Cell>
유효한 H3 셀 ID가 아닙니다.
자세한 내용은 H3_INVALID_CELL_ID를 확인하세요.
H3_잘못된_그리드_거리_값
H3 그리드 거리 <k>
음수가 아니어야 합니다.
자세한 내용은 H3_INVALID_GRID_DISTANCE_VALUE 참조하십시오.
H3_INVALID_RESOLUTION_VALUE
H3 해상도 <r>
<minR>
및 <maxR>
(포함) 사이여야 합니다.
자세한 내용은 H3_INVALID_RESOLUTION_VALUE을 참조하세요.
H3_NOT_ENABLED
<h3Expression>
사용하지 않도록 설정되거나 지원되지 않습니다. Photon을 사용하도록 설정하거나 H3 식을 지원하는 계층으로 전환하는 것이 좋습니다.
자세한 내용은 H3_NOT_ENABLED를 참조하십시오.
H3_PENTAGON_ENCOUNTERED_ERROR
<h3Cell>
의 격자 거리 <k>
에서 육각형 링을 계산하는 동안 펜타곤이 발견되었습니다.
H3_UNDEFINED_GRID_DISTANCE (해석되지 않은 그리드 거리)
<h3Cell1>
<h3Cell2>
사이의 H3 그리드 거리가 정의되지 않았습니다.
ST_DIFFERENT_SRID_VALUES
"<sqlFunction>
"에 대한 인수는 동일한 SRID 값을 가져야 합니다. SRID 값이 발견되었습니다. <srid1>
, <srid2>
ST_잘못된_인수
"<sqlFunction>
": <reason>
잘못된_인수_유형
"<sqlFunction>
"에 대한 인수는 <validTypes>
형식이어야 합니다.
유효하지 않은 CRS 변환 오류
<sqlFunction>
: SRID <srcSrid>
에서 SRID <trgSrid>
로의 잘못되었거나 지원되지 않는 CRS 변환
ST_INVALID_ENDIANNESS_VALUE (잘못된 엔디안 순서 값)
endianness '<e>
'는 'NDR'(리틀 엔디언) 또는 'XDR'(빅 엔디언) 중 하나여야 합니다.
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: 잘못된 geohash 값: '<geohash>
'. 지오해시 값은https://en.wikipedia.org/wiki/Geohash#Textual_representation에 설명된 대로 소문자 base32(기반 32) 문자열로 유효해야 합니다.
잘못된 정밀도 값
정확성 <p>
은(는) <minP>
과(와) <maxP>
사이여야 하며, 경계를 포함합니다.
잘못된 SRID 값(ST_INVALID_SRID_VALUE)
잘못되었거나 지원되지 않는 SRID <srid>
기능이 활성화되지 않음
<stExpression>
사용하지 않도록 설정되거나 지원되지 않습니다. Photon을 사용하도록 설정하거나 ST 식을 지원하는 계층으로 전환하는 것이 좋습니다.
ST_UNSUPPORTED_RETURN_TYPE(지원되지 않는 반환 유형)
GEOGRAPHY
및 GEOMETRY
데이터 형식은 쿼리에서 반환할 수 없습니다. 다음 SQL 식 중 하나를 사용하여 표준 교환 형식으로 변환합니다. <projectionExprs>
.
WKB_PARSE_ERROR
WKB 구문 분석 오류: <parseError>
위치 <pos>
자세한 내용은 WKB_PARSE_ERROR 참조하세요.
WKT_PARSE_ERROR
WKT 구문 분석 오류: <parseError>
위치 <pos>
자세한 내용은 WKT_PARSE_ERROR 참조하세요.
Unity 카탈로그
열 충돌 이름 오류
열 <columnName>
이(가) 이름은 같지만 후행 공백이 있거나 없는 다른 열과 충돌합니다(예를 들어, 기존 열 <columnName>
). 열 이름을 다른 이름으로 바꾸세요.
온라인 테이블 연결에 대한 연결 자격 증명이 지원되지 않습니다.
SQLSTATE: 할당된 항목 없음
형식 <connectionType>
연결에 대한 연결 수준 자격 증명을 가져오는 요청이 잘못되었습니다. 이러한 자격 증명은 관리되는 PostgreSQL 연결에만 사용할 수 있습니다.
연결 유형이 활성화되지 않음
SQLSTATE: 할당된 항목 없음
연결 형식 '<connectionType>
'을(를) 사용할 수 없습니다. 연결을 사용하도록 설정하세요.
DELTA_SHARING_READ_ONLY_RECIPIENT_EXISTS (읽기 전용 수신자가 존재합니다)
SQLSTATE: 할당된 항목 없음
동일한 공유 식별자 '<existingMetastoreId>
'가 있는 Recipient 개체 '<existingRecipientName>
'이 이미 있습니다.
델타_공유_읽기_전용_보안_형태
SQLSTATE: 할당된 항목 없음
Delta Sharing Securable Kind <securableKindName>
데이터는 읽기 전용이며 생성, 수정 또는 삭제할 수 없습니다.
외부 접근이 메타스토어에서 비활성화됨
SQLSTATE: 할당된 항목 없음
Databricks Compute 환경이 아닌 경우, 메타스토어 <metastoreName>
의 외부 데이터 액세스가 비활성화되어 자격 증명 발급이 거부됩니다. metastore에서 '외부 데이터 액세스' 구성을 사용하도록 설정하려면 metastore 관리자에게 문의하세요.
테이블에 대한 외부 접근이 허용되지 않음
SQLSTATE: 할당된 항목 없음
id가 <tableId>
인 테이블은 종류가 <securableKind>
이기 때문에 Databricks Compute Environment 외부에서 액세스할 수 없습니다. 'TABLE_EXTERNAL
', 'TABLE_DELTA_EXTERNAL
' 및 'TABLE_DELTA
' 테이블 종류만 외부에서 액세스할 수 있습니다.
외부 사용 스키마가 잘못된 보안 유형에 할당되었습니다
SQLSTATE: 할당된 항목 없음
권한 EXTERNAL
USE SCHEMA
은 엔터티 <assignedSecurableType>
에 적용할 수 없으며, 스키마 또는 카탈로그에만 할당할 수 있습니다.
<assignedSecurableType>
개체에서 권한을 제거하고 대신 스키마 또는 카탈로그에 할당하세요.
테이블에 대한 외부 쓰기 허용 안 됨
SQLSTATE: 할당된 항목 없음
id <tableId>
있는 테이블은 <securableKind>
종류로 인해 Databricks Compute Environment 외부에서 작성할 수 없습니다. 'TABLE_EXTERNAL
' 및 'TABLE_DELTA_EXTERNAL
' 테이블 종류만 외부에서 작성할 수 있습니다.
외부 카탈로그 저장소 루트는 쓰기를 지원해야 함
SQLSTATE: 할당된 항목 없음
<catalogType>
형식의 외세 카탈로그에 대한 스토리지 위치는 데이터를 언로드하는 데 사용되며 읽기 전용일 수 없습니다.
HMS_보호 가능한 중복 제한 초과
SQLSTATE: 할당된 항목 없음
입력 경로 <url>
의 <resourceType>
수가 겹치는 HMS <resourceType>
의 허용 한도(<overlapLimit>
)를 초과합니다.
잘못된_리소스_이름_델타_공유
SQLSTATE: 할당된 항목 없음
델타 공유 요청은 리소스 이름을 사용하여 지원되지 않습니다.
리소스 이름의 엔티티 유형이 잘못되었습니다.
SQLSTATE: 할당된 항목 없음
제공된 리소스 이름은 엔터티 형식 <provided>
을 참조하지만 <expected>
을 예상하고 있습니다.
유효하지 않은_자원_이름_메타스토어_ID
SQLSTATE: 할당된 항목 없음
제공된 리소스 이름은 현재 요청에 대한 범위에 없는 metastore를 참조합니다.
위치 중복
SQLSTATE: 할당된 항목 없음
입력 경로 URL '<path>
'은 '<caller>
' 호출 내의 <overlappingLocation>
과 겹친다.
<conflictingSummary>
.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE: 할당된 항목 없음
Redshift 외신 카탈로그의 스토리지 루트는 AWS S3이어야 합니다.
보안 종류는 Lakehouse 연합을 지원하지 않습니다.
SQLSTATE: 할당된 항목 없음
종류 <securableKind>
으로 보안할 수 있는 것은 Lakehouse Federation을 지원하지 않습니다.
SECURABLE_KIND_NOT_ENABLED (보안 가능 종류가 활성화되지 않음)
SQLSTATE: 할당된 항목 없음
보안 유형 '<securableKind>
'을(를) 사용할 수 없습니다. 미리 보기 기능과 연결된 보안 유형인 경우 작업 영역 설정에서 사용하도록 설정하세요.
안전한_유형이_레이크하우스_페더레이션을_지원하지_않음
SQLSTATE: 할당된 항목 없음
보안을 적용할 수 있는 형식 <securableType>
는 Lakehouse Federation 기능을 지원하지 않습니다.
소스 테이블 열 수가 한도를 초과했습니다.
SQLSTATE: 할당된 항목 없음
원본 테이블에는 <columnCount>
개 이상의 열이 있습니다. 열 수를 <columnLimitation>
이하로 줄이세요.
UC_AAD_TOKEN_LIFETIME_TOO_SHORT (UC AAD 토큰 수명이 너무 짧음)
SQLSTATE: 할당된 항목 없음
교환된 AAD 토큰 수명 설정이 너무 짧게 구성된 <lifetime>
입니다. Azure AD 설정을 확인하여 임시 액세스 토큰의 수명이 1시간 이상인지 확인하세요.https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_AUTHZ_ACTION_NOT_SUPPORTED (이 작업은 지원되지 않습니다)
SQLSTATE: 할당된 항목 없음
<actionName>
권한 부여는 지원되지 않습니다. 이 리소스 유형에 대해 호출된 RPC가 구현되어 있는지 확인하세요.
HMS 연결 생성 권한 거부
SQLSTATE: 할당된 항목 없음
사용자: <userId>
가 작업 영역: <workspaceId>
의 관리자가 아니기 때문에 내장 hive 메타스토어에 대한 연결을 생성할 수 없습니다.
UC_BUILTIN_HMS_연결_수정_제한_필드
SQLSTATE: 할당된 항목 없음
기본 제공 HMS 연결 '<connectionName>
'에서 제한된 필드를 수정하려고 합니다. 'warehouse_directory'만 업데이트할 수 있습니다.
파티션 필터링 열 이름을 변경할 수 없음.
SQLSTATE: 할당된 항목 없음
<sharedTableName>
파티션 필터링에 사용되므로 테이블 열 <originalLogicalColumn>
이름을 바꿀 수 없습니다. 계속하려면 공유에서 테이블을 제거하고, 열 이름을 바꾸고, 원하는 파티션 필터링 열과 다시 공유할 수 있습니다. 하지만 이로 인해 수신자의 스트리밍 쿼리가 중단될 수 있습니다.
UC 클러스터가 아닌 경우 자식 항목 생성 금지
SQLSTATE: 할당된 항목 없음
요청이 UC 클러스터에서 온 것이 아니므로 <parentSecurableType>
'<parentSecurable>
' 아래에 <securableType>
'<securable>
'을 만들 수 없습니다.
UC_클라우드_저장소_액세스_실패
SQLSTATE: 할당된 항목 없음
클라우드 스토리지에 액세스하지 못했습니다. <errMsg>
exceptionTraceId=<exceptionTraceId>
UC_충돌하는_연결_옵션
SQLSTATE: 할당된 항목 없음
사용자 이름/암호 및 oauth 인증 옵션을 모두 사용하여 연결을 만들 수 없습니다. 하나를 선택하세요.
자격 증명에 대한 연결이 이미 존재합니다.
SQLSTATE: 할당된 항목 없음
자격 증명 '<credentialName>
'에는 하나 이상의 종속 연결이 있습니다. 강제 옵션을 사용하여 자격 증명을 계속 업데이트하거나 삭제할 수 있지만 이 자격 증명을 사용하는 연결이 더 이상 작동하지 않을 수 있습니다.
UC_CONNECTION_EXPIRED_REFRESH_TOKEN
SQLSTATE: 할당된 항목 없음
연결과 연결된 새로 고침 토큰이 만료되었습니다. 연결을 업데이트하여 OAuth 흐름을 다시 시작하여 새 토큰을 검색하세요.
UC_연결_실패_상태
SQLSTATE: 할당된 항목 없음
연결이 FAILED
상태입니다. 연결을 다시 활성화하려면 유효한 자격 증명으로 연결을 업데이트하세요.
UC_CONNECTION_MISSING_REFRESH_TOKEN (리프레시 토큰 누락된 연결)
SQLSTATE: 할당된 항목 없음
연결과 연결된 새로 고침 토큰이 없습니다. ID 공급자의 OAuth 클라이언트 통합을 업데이트하여 새로 고침 토큰을 반환하고 연결을 업데이트하거나 다시 만들어 OAuth 흐름을 다시 시작하고 필요한 토큰을 검색하세요.
UC_연결_OAuth_교환_실패
SQLSTATE: 할당된 항목 없음
HTTP 상태 코드가 <httpStatus>
OAuth 토큰 교환에 실패했습니다. 반환된 서버 응답 또는 예외 메시지는 <response>
UC_COORDINATED_COMMITS_NOT_ENABLED (연동된 커밋이 활성화되지 않음)
SQLSTATE: 할당된 항목 없음
조정된 커밋에 대한 지원은 사용할 수 없습니다. Databricks 지원에 문의하세요.
비활성화된 보안 설정에서 만들기 금지
SQLSTATE: 할당된 항목 없음
<securableType>
'<securableName>
'은 활성 상태가 아닌 <parentSecurableType>
'<parentSecurableName>
' 아래에 있으므로 만들 수 없습니다. 부모 보안 개체를 삭제하고 부모를 다시 만드세요.
UC_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE: 할당된 항목 없음
제공된 액세스 커넥터 ID <accessConnectorId>
를 해석하는 데 실패했습니다. 서식을 확인하고 다시 시도하세요.
자격 증명을 받아올 수 없습니다_validation_token 획득 실패
SQLSTATE: 할당된 항목 없음
액세스 커넥터에서 클라우드 권한 유효성 검사를 수행하기 위해 AAD 토큰을 가져오지 못했습니다. 작업을 다시 시도하세요.
UC_자격 증명_잘못된_클라우드_권한
SQLSTATE: 할당된 항목 없음
자격 증명을 등록하려면 ID <accessConnectorId>
의 해당 액세스 커넥터에 대한 기여자 역할이 필요합니다. 계정 관리자에게 문의하세요.
자격 증명 사용 목적에 맞지 않는 자격 유형
SQLSTATE: 할당된 항목 없음
자격 증명 형식 '<credentialType>
'은 '<credentialPurpose>
' 용도로 지원되지 않습니다.
UC_자격 증명 권한 거부
SQLSTATE: 할당된 항목 없음
계정 관리자만 <storageCredentialType>
형식으로 자격 증명을 만들거나 업데이트할 수 있습니다.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE: 할당된 항목 없음
IAM 역할의 신뢰 정책은 Databricks 계정이 역할을 가정할 수 있도록 외부 ID를 요구해야 합니다. 외부 ID 조건을 추가하려면 계정 관리자에게 문의하세요. 이 동작은 혼동된 대리 문제(https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)를 방지합니다.
비인가된 서비스 주체 자격증명 지원되지 않음
SQLSTATE: 할당된 항목 없음
서비스 주체는 CREATE_STORAGE_CREDENTIAL
권한을 사용하여 관리 ID를 등록할 수 없습니다. 관리 ID를 등록하려면 서비스 주체에게 계정 관리자 역할을 할당하세요.
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED (사용할 수 없음)
SQLSTATE: 할당된 항목 없음
계정 수준이 아닌 관리자로 자격 증명을 만들거나 업데이트하는 것은 계정 수준 API에서 지원되지 않습니다. 대신 작업 영역 수준 API를 사용하세요.
UC_델타_유니버설_포맷_아이스버그_버전을_파싱할_수_없습니다
SQLSTATE: 할당된 항목 없음
**
메타데이터 위치 <metadataLocation>
에서 Iceberg 테이블의 버전을 파악할 수 없습니다.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
SQLSTATE: 할당된 항목 없음
동일한 빙산 메타데이터 버전에 대한 동시 업데이트가 검색되었습니다.
유효하지 않은 메타데이터 위치
SQLSTATE: 할당된 항목 없음
<metadataLocation>
커밋된 메타데이터 위치가 잘못되었습니다. 테이블의 루트 디렉터리 <tableRoot>
하위 디렉터리가 아닙니다.
UC_DELTA_범용_형식_누락된_필드_제약
SQLSTATE: 할당된 항목 없음
제공된 델타 빙산 형식 변환 정보에 필수 필드가 없습니다.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
SQLSTATE: 할당된 항목 없음
생성 시 델타 빙산 형식 정보를 설정하는 것은 지원되지 않습니다.
범용 형식이 너무 커서 제약 조건에 맞지 않습니다
SQLSTATE: 할당된 항목 없음
제공된 델타 빙산 형식 변환 정보가 너무 큽합니다.
UC_DELTA_범용_형식_업데이트_유효하지_않음
SQLSTATE: 할당된 항목 없음
균일한 메타데이터는 균일하게 설정된 델타 테이블에서만 업데이트할 수 있습니다.
UC_의존성_깊이_제한_초과
SQLSTATE: 할당된 항목 없음
<resourceType>
'<ref>
' 깊이가 제한을 초과하거나 순환 참조가 있습니다.
UC_의존성이 존재하지 않습니다
SQLSTATE: 할당된 항목 없음
<resourceType>
'<ref>
'은(는) 기본 리소스 중 하나가 없기 때문에 유효하지 않습니다. <cause>
의존성 권한 거부됨
SQLSTATE: 할당된 항목 없음
<resourceType>
'<ref>
'은 기본 리소스 중 하나의 소유자가 권한 부여 확인에 실패했기 때문에 실행할 수 있는 권한이 충분하지 않습니다. <cause>
UC_중복_연결
SQLSTATE: 할당된 항목 없음
연결: URL '<url>
'을(를) 가진 '<connectionName>
' 연결이 이미 존재합니다.
중복된 원단 카탈로그 생성
SQLSTATE: 할당된 항목 없음
기존 카탈로그와 일치하는 URL '<storageLocation>
'을 사용하여 Fabric 카탈로그를 생성하려고 했습니다. 이는 허용되지 않습니다.
UC_DUPLICATE_TAG_ASSIGNMENT_CREATION
SQLSTATE: 할당된 항목 없음
태그 키 <tagKey>
의 태그 할당이 이미 존재합니다.
UC_엔티티에 해당하는 온라인 클러스터가 없습니다.
SQLSTATE: 할당된 항목 없음
엔터티 <securableType> <entityId>
에는 해당하는 온라인 클러스터가 없습니다.
최대 파일 제한 초과
SQLSTATE: 할당된 항목 없음
파일이 <maxFileResults>
개 이상 있습니다. 반환되는 파일 수를 제한하려면 [max_results]를 지정하세요.
UC_외부 위치 작업 허용 안 됨
SQLSTATE: 할당된 항목 없음
<opName> <extLoc> <reason>
을(를) 할 수 없습니다.
<suggestion>
.
UC 기능 비활성화
SQLSTATE: 할당된 항목 없음
<featureName>
현재 UC에서 사용할 수 없습니다.
연결 유형에 대한 외부 카탈로그 지원되지 않음
SQLSTATE: 할당된 항목 없음
연결 형식 '<connectionType>
'에 대한 외세 카탈로그 만들기는 지원되지 않습니다. 이 연결 형식은 관리되는 수집 파이프라인을 만드는 데만 사용할 수 있습니다. 자세한 내용은 Databricks 설명서를 참조하세요.
UC_FOREIGN_CREDENTIAL_READ작업 전용 확인
SQLSTATE: 할당된 항목 없음
외래 테이블에 대해 READ 자격 증명만을 검색할 수 있습니다.
UC_FOREIGN_KEY_CHILD_COLUMN_LENGTH_MISMATCH (외래 키 하위 컬럼 길이 불일치)
SQLSTATE: 할당된 항목 없음
자식 열과 부모 열의 외래 키 <constraintName>
의 크기가 다릅니다.
외부 키 열 불일치
SQLSTATE: 할당된 항목 없음
외래 키 부모 열이 참조된 기본 키 자식 열과 일치하지 않습니다. 외래 키 부모 열은 (<parentColumns>
)이고 기본 키 자식 열은 (<primaryKeyChildColumns>
)입니다.
UC_FOREIGN_KEY_COLUMN_TYPE_MISMATCH
SQLSTATE: 할당된 항목 없음
외래 키의 자식 열 데이터 유형이 부모 열 데이터 유형과 일치하지 않습니다. 외래 키의 자식 열 <childColumnName>
은 형식 <childColumnType>
을(를) 가지고 있고, 부모 열 <parentColumnName>
은 형식 <parentColumnType>
을(를) 가지고 있습니다.
UC_GCP_잘못된_프라이빗_키
SQLSTATE: 할당된 항목 없음
액세스가 거부되었습니다. 원인: 서비스 계정 프라이빗 키가 잘못되었습니다.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT (유효하지 않은 개인 키 JSON 형식)
SQLSTATE: 할당된 항목 없음
Google Server 계정 OAuth 프라이빗 키는 필수 필드가 있는 유효한 JSON 개체여야 합니다. 서비스 계정 세부 정보 페이지의 'KEYS' 섹션에서 생성된 전체 JSON 파일을 제공해야 합니다.
UC_GCP_잘못된_개인키_JSON_형식_필드_누락
SQLSTATE: 할당된 항목 없음
Google Server 계정 OAuth 프라이빗 키는 필수 필드가 있는 유효한 JSON 개체여야 합니다. 서비스 계정 세부 정보 페이지의 'KEYS' 섹션에서 생성된 전체 JSON 파일을 제공해야 합니다. 누락된 필드는 <missingFields>
입니다
UC_IAM_ROLE_NON_SELF_ASSUMING (자체적으로 승인되지 않는 역할)
SQLSTATE: 할당된 항목 없음
스토리지 자격 증명에 대한 IAM 역할은 자체적으로 설정되지 않은 것으로 확인되었습니다. 역할의 신뢰 및 IAM 정책을 확인하여 IAM 역할이 Unity 카탈로그 스토리지 자격 증명 설명서에 따라 스스로를 수임할 수 있는지 확인하세요.
아이스버그 커밋 충돌
SQLSTATE: 할당된 항목 없음
<tableName>
을(를) 커밋할 수 없습니다: 메타데이터 위치가 <catalogMetadataLocation>
에서 <baseMetadataLocation>
로 변경되었습니다.
UC_ICEBERG_COMMIT_INVALID_TABLE (UC_ICEBERG_COMMIT_유효하지 않은 테이블)
SQLSTATE: 할당된 항목 없음
관리되는 Iceberg 테이블이 아닌 테이블에 대한 Managed Iceberg 커밋을 수행할 수 없습니다: <tableName>
.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT (필드 제약 조건 누락)
SQLSTATE: 할당된 항목 없음
제공된 Managed Iceberg 커밋 정보에 필요한 필드가 없습니다.
UC_ID 불일치
SQLSTATE: 할당된 항목 없음
<type> <name>
에는 ID <wrongId>
이 없습니다. 작업을 다시 시도하세요.
UC_INVALID_ACCESS_DBFS_ENTITY (잘못된 DBFS 엔티티 접근 오류)
SQLSTATE: 할당된 항목 없음
페더레이션 카탈로그 <catalogName>
<securableType> <securableName>
대한 액세스 권한이 잘못되었습니다. <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID (유효하지 않은 Cloudflare 계정 ID를 의미합니다)
SQLSTATE: 할당된 항목 없음
Cloudflare 계정 ID가 잘못되었습니다.
UC_INVALID_CREDENTIAL_CLOUD (유효하지 않은 자격 증명 - 클라우드)
SQLSTATE: 할당된 항목 없음
잘못된 자격 증명 클라우드 공급자 '<cloud>
'. 허용된 클라우드 공급자 '<allowedCloud>
'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE (유효하지 않은 자격 증명 목적 값)
SQLSTATE: 할당된 항목 없음
자격 증명의 '용도'에 대해 '<value>
' 값이 잘못되었습니다. 허용되는 값 '<allowedValues>
'.
유효하지 않은 자격 증명 전환
SQLSTATE: 할당된 항목 없음
<startingCredentialType>
에서 <endingCredentialType>
로의 연결을 업데이트할 수 없습니다. 유일한 유효한 전환은 사용자 이름/암호 기반 연결에서 OAuth 토큰 기반 연결로의 전환입니다.
UC_INVALID_CRON_STRING_FABRIC (잘못된 크론 문자열 패브릭)
SQLSTATE: 할당된 항목 없음
cron 문자열이 잘못되었습니다. '<cronString>
'이 구문 분석 예외 '<message>
'과 함께 발견되었습니다.
UC_유효하지_않은_직접_접근_관리_테이블
SQLSTATE: 할당된 항목 없음
관리되는 테이블 <tableName>
직접 액세스가 잘못되었습니다. 원본 테이블 &에서 파이프라인 정의들이 정의되지 않았는지 확인합니다.
유효하지 않은 빈 저장소 위치
SQLSTATE: 할당된 항목 없음
카탈로그 '<catalogName>
'에서 <securableType>
'<securableName>
'에 대한 예기치 않은 빈 스토리지 위치입니다. 이 오류를 해결하려면 DESCRIBE SCHEMA <catalogName>
실행하세요.
<securableName>
을(를) 사용하여 이 페이지를 새로 고치세요.
UC_INVALID_OPTIONS_UPDATE (잘못된 옵션 업데이트)
SQLSTATE: 할당된 항목 없음
업데이트에 대해 잘못된 옵션이 제공되었습니다. 잘못된 옵션: <invalidOptions>
. 허용되는 옵션: <allowedOptions>
.
UC_잘못된_옵션_값
SQLSTATE: 할당된 항목 없음
'<option>
'에 대해 '<value>
' 값이 잘못되었습니다. 허용되는 값 '<allowedValues>
'.
유효하지 않은 옵션 값이 비어 있음
SQLSTATE: 할당된 항목 없음
'<option>
'은(는) 비워 둘 수 없습니다. 비어있지 않은 값을 입력하세요.
UC_INVALID_R2_ACCESS_KEY_ID (잘못된 R2 접근 키 ID)
SQLSTATE: 할당된 항목 없음
잘못된 R2 액세스 키 ID입니다.
UC_INVALID_R2_SECRET_ACCESS_KEY
SQLSTATE: 할당된 항목 없음
잘못된 R2 비밀 액세스 키입니다.
UC_INVALID_RULE_CONDITION
SQLSTATE: 할당된 항목 없음
규칙 '<ruleName>
'의 잘못된 조건입니다. '메시지 '<message>
'와 함께 컴파일 오류가 발생했습니다.'
시스템 작업 공간 관리자 그룹 소유 보안 요소에서 잘못된 업데이트 UC
SQLSTATE: 할당된 항목 없음
내부 그룹이 소유하고 있으므로 <securableType>
'<securableName>
'을 업데이트할 수 없습니다. 자세한 내용은 Databricks 지원에 문의하세요.
UC_INVALID_WASBS_외부_위치_저장소_자격증명
SQLSTATE: 할당된 항목 없음
스토리지 자격 증명 <storageCredentialName>
가 DBFS 루트와 연결되지 않은 경우, wasbs 외부 위치의 생성이 금지됩니다.
위치_잘못된_스키마
SQLSTATE: 할당된 항목 없음
스토리지 위치에 잘못된 URI 체계가 있습니다. <scheme>
.
UC_MALFORMED_OAUTH_SERVER_RESPONSE
SQLSTATE: 할당된 항목 없음
토큰 서버의 응답에 필드 <missingField>
이(가) 누락되었습니다. 반환된 서버 응답은 <response>
UC_METASTORE_ASSIGNMENT_STATUS_INVALID (메타스토어 할당 상태가 유효하지 않음)
SQLSTATE: 할당된 항목 없음
'<metastoreAssignmentStatus>
'를 할당할 수 없습니다.
MANUALLY_ASSIGNABLE
및 AUTO_ASSIGNMENT_ENABLED
만 지원됩니다.
UC_METASTORE_CERTIFICATION_NOT_ENABLED
SQLSTATE: 할당된 항목 없음
Metastore 인증을 사용할 수 없습니다.
UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND
SQLSTATE: 할당된 항목 없음
내부 오류로 인해 메타스토어 ID <metastoreId>
에 대한 데이터베이스 분할 매핑을 검색하지 못했습니다. Databricks 지원에 문의하세요.
UC_메타스토어에 활성 관리 온라인 카탈로그가 있습니다
SQLSTATE: 할당된 항목 없음
메타스토어 <metastoreId>
에는 관리되는 온라인 카탈로그가 <numberManagedOnlineCatalogs>
개 있습니다. 명시적으로 삭제한 다음 메타스토어 삭제를 다시 시도하세요.
UC_METASTORE_STORAGE_ROOT_CREDENTIAL_UPDATE_INVALID (메타스토어 저장소 루트 자격 증명 업데이트가 잘못되었습니다)
SQLSTATE: 할당된 항목 없음
메타스토어 루트 위치를 업데이트할 때 메타스토어 루트 자격 증명을 정의할 수 없습니다. 인증 정보는 메타스토어 부모 외부 위치에서 획득됩니다.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
SQLSTATE: 할당된 항목 없음
메타스토어 스토리지 루트 위치를 삭제하지 못했습니다. <reason>
UC_메타스토어_스토리지_루트_읽기_전용_유효하지_않음
SQLSTATE: 할당된 항목 없음
메타스토어의 루트 <securableType>
읽기 전용일 수 없습니다.
UC_METASTORE_STORAGE_ROOT_UPDATE_INVALID
SQLSTATE: 할당된 항목 없음
Metastore 스토리지 루트가 설정되면 업데이트할 수 없습니다.
UC_MODEL_INVALID_STATE (모델 상태가 유효하지 않음)
SQLSTATE: 할당된 항목 없음
상태가 <modelVersionStatus>
인 모델 버전 <modelVersion>
에 대해 임시 '<opName>
' 자격 증명을 생성할 수 없습니다. '<opName>
' 자격 증명은 상태 <validStatus>
있는 모델 버전에 대해서만 생성할 수 있습니다.
콘텍스트에 조직 ID 없음
SQLSTATE: 할당된 항목 없음
조직 ID(또는 작업 공간 ID)에 접근하려고 했지만, 관련된 컨텍스트가 없습니다.
UC_온라인_카탈로그_변경_불가
SQLSTATE: 할당된 항목 없음
<rpcName>
요청은 <fieldName>
업데이트합니다. 온라인 스토어 컴퓨팅 탭을 사용하여 온라인 카탈로그의 주석, 소유자 및 isolationMode 이외의 항목을 수정합니다.
온라인 카탈로그 할당량 초과
SQLSTATE: 할당된 항목 없음
metastore에 <quota>
이상의 온라인 스토어를 만들 수 없으며 이미 <currentCount>
온라인 스토어가 있습니다. 기존 온라인 스토어에 대한 액세스 권한이 없을 수 있습니다. 액세스 권한을 부여하거나 추가 지침을 보려면 metastore 관리자에게 문의하세요.
온라인 색인 카탈로그에서 유효하지 않은 CRUD 작업 (UC_ONLINE_INDEX_CATALOG_INVALID_CRUD)
SQLSTATE: 할당된 항목 없음
온라인 인덱스 카탈로그는 /vector-search API를 통해 <action>
처리되어야 합니다.
온라인 인덱스 카탈로그는 변경할 수 없습니다
SQLSTATE: 할당된 항목 없음
<rpcName>
요청은 <fieldName>
을 업데이트합니다. /vector-search API를 사용하여 온라인 인덱스 카탈로그의 주석, 소유자 및 isolationMode 이외의 항목을 수정합니다.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED (온라인 인덱스 카탈로그 할당량 초과)
SQLSTATE: 할당된 항목 없음
metastore에서는 <quota>
개 이상의 온라인 인덱스 카탈로그를 만들 수 없으며, 이미 <currentCount>
개가 존재합니다. 기존 온라인 인덱스 카탈로그에 액세스할 수 없습니다. 액세스 권한을 부여하거나 추가 지침을 보려면 metastore 관리자에게 문의하세요.
UC_온라인_인덱스_유효하지않은_CRUD
SQLSTATE: 할당된 항목 없음
온라인 인덱스는 /vector-search API를 통해 <action>
으로 처리해야 합니다.
UC_온라인_상점_잘못된_CRUD
SQLSTATE: 할당된 항목 없음
온라인 스토어는 온라인 스토어 컴퓨팅 탭을 통해 <action>
처리를 해야 합니다.
UC_ONLINE_TABLE_COLUMN_NAME_TOO_LONG
SQLSTATE: 할당된 항목 없음
원본 테이블의 열 이름 <columnName>
이 너무 깁니다. 최대 길이는 <maxLength>
문자입니다.
The context of use would dictate the translation decision. If it's a technical identifier, no actual translation may be necessary.
SQLSTATE: 할당된 항목 없음
열 <columnName>
원본 테이블의 기존 PRIMARY KEY
제약 조건에 속하지 않으므로 온라인 테이블의 기본 키 열로 사용할 수 없습니다. 자세한 내용은 <docLink>
참조하세요.
UC_ONLINE_TABLE_TIMESERIES_KEY_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT (소스 테이블 기본 키 제약 조건에 없는 UC 온라인 테이블 타임시리즈 키)
SQLSTATE: 할당된 항목 없음
<columnName>
열은 원본 테이블의 기존 PRIMARY KEY
제약 조건의 시계열(timeseries) 열이 아니기 때문에 온라인 테이블의 시계열 키로 사용할 수 없습니다. 자세한 내용은 <docLink>
참조하세요.
원본 테이블당 온라인 보기 할당량 초과
SQLSTATE: 할당된 항목 없음
원본 테이블당 <quota>
개 이상의 온라인 테이블을 만들 수 없습니다.
온라인 보기 접근이 거부되었습니다.
SQLSTATE: 할당된 항목 없음
리소스 <resourceName>
액세스하려면 서버리스 SQL 웨어하우스를 사용해야 합니다. 쿼리를 실행하거나 UI에서 데이터베이스 카탈로그를 보는 데 사용되는 웨어하우스가 서버리스인지 확인하세요. 자세한 내용은 <docLink>
참조하세요.
연속 할당량 초과 온라인 보기
SQLSTATE: 할당된 항목 없음
온라인 스토어에서 <quota>
이상의 연속 온라인 보기를 만들 수 없으며 이미 <currentCount>
있습니다. 기존 온라인 보기에 액세스할 수 없습니다. 온라인 스토어 관리자에게 문의하여 액세스 권한을 받거나 추가 지침을 받으십시오.
온라인 보기에서는 DMK를 지원하지 않습니다.
SQLSTATE: 할당된 항목 없음
<tableKind>
는 Databricks 관리 키로 관리되는 스토리지 위치에서 생성될 수 없습니다. Databricks 관리형 키 암호화 없이 스토리지 위치에서 다른 스키마/카탈로그를 선택하세요.
UC_온라인_보기_유효하지_않은_카탈로그
SQLSTATE: 할당된 항목 없음
유형 <catalogKind>
의 카탈로그 <catalogName>
내에서 <tableKind>
를 만들 수 없습니다.
<tableKind>
는 <validCatalogKinds>
종류의 카탈로그에서만 생성될 수 있습니다.
UC_온라인_뷰_유효하지_않은_스키마
SQLSTATE: 할당된 항목 없음
<schemaName>
번 스키마가 잘못되어 <schemaKind>
종류의 <tableKind>
를 만들 수 없습니다.
<tableKind>
는 <validSchemaKinds>
종류의 스키마 하에서만 생성할 수 있습니다.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE: 할당된 항목 없음
열 <columnName>
은/는 <columnType>
형식이므로 TTL 시간 열로 사용할 수 없습니다. 허용되는 형식은 <supportedTypes>
.
UC_OUT_OF_AUTHORIZED_PATHS_SCOPE
SQLSTATE: 할당된 항목 없음
권한 있는 경로 오류입니다.
<securableType>
위치 <location>
은 카탈로그: <catalogName>
에 대한 권한 있는 경로 내에 정의되지 않았습니다.
중첩된 승인된 경로
SQLSTATE: 할당된 항목 없음
'authorized_paths' 옵션에는 겹치는 경로: <overlappingPaths>
가 포함됩니다. 각 경로가 고유하고 목록의 다른 경로와 교차하지 않는지 확인합니다.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: 할당된 항목 없음
'<arg>
' 쿼리 인수는 첫 번째 페이지 매김 호출에 사용된 값과 다른 '<received>
'('<expected>
')로 설정됩니다.
UC 메타스토어 데이터베이스 동시성 제한 초과
SQLSTATE: 할당된 항목 없음
메타스토어 <metastoreId>
데이터베이스에 대한 요청이 너무 많습니다. 나중에 다시 시도하세요.
널 허용 열의 UC 기본 키
SQLSTATE: 할당된 항목 없음
자식 열 <childColumnNames>
null을 허용하므로 기본 키 <constraintName>
만들 수 없습니다. 열의 null 허용 속성을 변경하고 다시 시도하세요.
요청 시간 초과 (UC_REQUEST_TIMEOUT)
SQLSTATE: 할당된 항목 없음
이 작업은 너무 오래 걸렸습니다.
UC_루트_저장소_S3_버킷_이름_점_포함
SQLSTATE: 할당된 항목 없음
점을 포함하는 루트 스토리지 S3 버킷 이름은 Unity 카탈로그에서 지원되지 않습니다. <uri>
UC_스키마_빈_저장소_위치
SQLSTATE: 할당된 항목 없음
카탈로그 '<catalogName>
'의 스키마 '<schemaName>
'에 대한 예기치 않은 빈 스토리지 위치입니다. 스키마에서 <validPathSchemesListStr>
경로 체계를 사용하는지 확인하세요.
UC 서비스 일시적으로 이용할 수 없습니다.
SQLSTATE: 할당된 항목 없음
요청을 처리하는 동안 일시적인 문제가 발생했습니다. 잠시 후에 다시 시도하세요. 문제가 지속되면 지원 서비스에 문의하세요.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED (저장소 자격 증명 액세스 커넥터 구문 분석 실패)
SQLSTATE: 할당된 항목 없음
제공된 액세스 커넥터 ID인 <accessConnectorId>
구문 분석하지 못했습니다. 서식을 확인하고 다시 시도하세요.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_생성_권한_거부됨
SQLSTATE: 할당된 항목 없음
사용자: <userId>
작업 영역의 관리자가 아니므로 DBFS 루트에 대한 스토리지 자격 증명을 만들 수 없습니다. <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION
SQLSTATE: 할당된 항목 없음
위치 <location>
DBFS 루트 <dbfsRootLocation>
내에 있지 않습니다.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE: 할당된 항목 없음
DBFS 루트 스토리지 자격 증명은 방화벽 사용 DBFS를 사용하는 작업 영역에 대해 아직 지원되지 않습니다.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE: 할당된 항목 없음
현재 작업 영역에 대한 DBFS 루트 스토리지 자격 증명은 아직 지원되지 않습니다.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE: 할당된 항목 없음
작업 영역 <workspaceId>
DBFS 루트를 사용할 수 없습니다.
UC_STORAGE_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE: 할당된 항목 없음
액세스 커넥터에서 클라우드 권한 유효성 검사를 수행하기 위해 AAD 토큰을 가져오지 못했습니다. 작업을 다시 시도하세요.
UC_STORAGE_CREDENTIAL_클라우드_권한_유효하지_않음
SQLSTATE: 할당된 항목 없음
스토리지 자격 증명을 등록하려면 ID가 <accessConnectorId>
인 해당 액세스 커넥터에 대한 기여자 역할이 필요합니다. 계정 관리자에게 문의하세요.
스토리지 자격 증명 권한 거부됨
SQLSTATE: 할당된 항목 없음
계정 관리자만 <storageCredentialType>
형식으로 스토리지 자격 증명을 만들거나 업데이트할 수 있습니다.
UC_STORAGE_CREDENTIAL_서비스_주체_누락된_유효성_토큰
SQLSTATE: 할당된 항목 없음
서비스 주체에 대한 유효성 검사 토큰이 없습니다. 'X-Databricks-Azure-SP-Management-Token' 요청 헤더에 ARM 범위의 유효한 Entra ID 토큰을 제공한 후 다시 시도하세요. 자세한 내용은https://docs.databricks.com/api/workspace/storagecredentials 확인하세요.
UC_저장소_자격증명_신뢰_정책이_열려_있음
SQLSTATE: 할당된 항목 없음
IAM 역할의 신뢰 정책은 Databricks 계정이 역할을 맡을 수 있도록 외부 ID가 필요합니다. 외부 ID 조건을 추가하려면 계정 관리자에게 문의하세요. 이 동작은 혼동된 대리인 문제 https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html)를 방지하기 위한 것입니다.
UC_STORAGE_CREDENTIAL_UNPRIVILEGED_SERVICE_PRINCIPAL_NOT_SUPPORTED
SQLSTATE: 할당된 항목 없음
서비스 주체는 CREATE_STORAGE_CREDENTIAL
권한을 사용하여 관리 ID를 등록할 수 없습니다. 관리 ID를 등록하려면 서비스 주체에게 계정 관리자 역할을 할당하세요.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: 할당된 항목 없음
위치 <location>
DBFS 루트 내에 없기 때문에 스토리지 자격 증명 <storageCredentialName>
만들 수 없습니다.
스토리지 자격 증명 작업 공간 API 금지
SQLSTATE: 할당된 항목 없음
계정 수준이 아닌 관리자로 스토리지 자격 증명을 만들거나 업데이트하는 것은 계정 수준 API에서 지원되지 않습니다. 대신 작업 영역 수준 API를 사용하세요.
UC_시스템_작업공간_그룹_권한_지원_안됨
SQLSTATE: 할당된 항목 없음
시스템에 의해 생성된 그룹 <principal>
에 <securableType>
에 대한 권한을 부여할 수 없습니다.
키가 있는 태그 할당이 존재하지 않습니다.
SQLSTATE: 할당된 항목 없음
태그 키 <tagKey>
에 대한 태그 할당이 존재하지 않습니다.
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH (지원되지 않는 HTTP 연결 기본 경로)
SQLSTATE: 할당된 항목 없음
제공된 기본 경로가 잘못되었습니다. 기본 경로는 /api/resources/v1과 같아야 합니다. 지원되지 않는 경로: <path>
UC_UNSUPPORTED_HTTP_CONNECTION_HOST (지원되지 않는 HTTP 연결 호스트)
SQLSTATE: 할당된 항목 없음
호스트 이름이 잘못되었습니다. 호스트 이름은 경로 접미사가 없는https://www.databricks.com 같은 이름이어야 합니다. 지원되지 않는 호스트: <host>
UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: 할당된 항목 없음
기본 라틴 문자/라틴어-1 ASCII
문자만 외부 위치/볼륨/테이블 경로에서 지원됩니다. 지원되지 않는 경로: <path>
프로비저닝 가능한 항목에 대한 UC 업데이트 금지
SQLSTATE: 할당된 항목 없음
프로비저닝 중이므로 <securableType>
'<securableName>
'을 업데이트할 수 없습니다.
UC_WRITE_CONFLICT
SQLSTATE: 할당된 항목 없음
<type> <name>
다른 요청에 의해 수정되었습니다. 작업을 다시 시도하세요.
유니티_카탈로그_외부_협조_커밋_요청_거부됨
SQLSTATE: 할당된 항목 없음
Databricks Unity 카탈로그 사용 컴퓨팅 환경 외부에서 테이블 '<tableId>
'에 대한 commit/getCommits 수행 요청은 보안을 위해 거부됩니다. Unity 카탈로그와의 통합을 위해 Databricks 지원에 문의하세요.
유니티_카탈로그_외부_임시_테이블_생성_요청_거부됨
SQLSTATE: 할당된 항목 없음
Databricks Unity 카탈로그 사용 컴퓨팅 환경 외부에서 준비 테이블 '<tableFullName>
'을 만드는 요청은 보안을 위해 거부됩니다. Unity 카탈로그와의 통합을 위해 Databricks 지원에 문의하세요.
NON_EXTERNAL_TABLE에 대한 UNITY_CATALOG_EXTERNAL_CREATE_TABLE 요청이 거부되었습니다.
SQLSTATE: 할당된 항목 없음
Databricks Unity 카탈로그 사용 중인 컴퓨팅 환경 외부에서 비외부 테이블 '<tableFullName>
'을 생성하려는 요청은 보안상의 이유로 거부됩니다. Unity 카탈로그와의 통합을 위해 Databricks 지원에 문의하세요.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED
SQLSTATE: 할당된 항목 없음
Databricks Unity 카탈로그 사용 컴퓨팅 환경 외부에서 경로 '<path>
'에 대한 액세스 자격 증명을 생성하는 요청은 보안을 위해 거부됩니다. Unity 카탈로그와의 통합을 위해 Databricks 지원에 문의하세요.
유니티_카탈로그_외부_테이블_자격증명_생성_거부됨
SQLSTATE: 할당된 항목 없음
Databricks Unity 카탈로그 사용 컴퓨팅 환경 외부에서 테이블 '<tableId>
'에 대한 액세스 자격 증명을 생성하는 요청은 보안을 위해 거부됩니다. Unity 카탈로그와의 통합을 위해 Databricks 지원에 문의하세요.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED (외부 자격 증명 접근 금지)
SQLSTATE: 할당된 항목 없음
Databricks Unity 카탈로그 사용 컴퓨팅 환경 외부에서 보안 개체에 대한 외부 자격 증명을 가져오는 요청은 보안을 위해 거부됩니다.
UNITY_CATALOG_EXTERNAL_UPDATA_METADATA_SNAPSHOT_DENIED
SQLSTATE: 할당된 항목 없음
Databricks Unity 카탈로그 사용 컴퓨팅 환경 외부에서 메타데이터 스냅샷을 업데이트하라는 요청은 보안을 위해 거부됩니다.
레거시 관리 온라인 테이블에 자격 증명 쓰기를 지원하지 않습니다
SQLSTATE: 할당된 항목 없음
온라인 카탈로그에서 관리되는 온라인 테이블에 대한 쓰기 자격 증명을 가져오는 요청이 잘못되었습니다.
파일 API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: 할당된 항목 없음
<api_name> API를 사용할 수 없습니다.
클라우드 경로에 대해 파일 API가 활성화되지 않았습니다
SQLSTATE: 할당된 항목 없음
요청된 파일 API 메서드는 클라우드 경로에 대해 지원되지 않습니다.
파일 API AWS 접근이 거부됨
SQLSTATE: 할당된 항목 없음
스토리지 버킷에 대한 액세스는 AWS에서 거부됩니다.
파일_API_AWS_모든_액세스_비활성화됨
SQLSTATE: 할당된 항목 없음
스토리지 버킷에 대한 모든 액세스가 AWS에서 비활성화되었습니다.
파일 API AWS 버킷이 존재하지 않습니다.
SQLSTATE: 할당된 항목 없음
스토리지 버킷이 AWS에 없습니다.
파일_API_AWS_금지됨
SQLSTATE: 할당된 항목 없음
스토리지 버킷에 대한 액세스가 AWS에 의해 금지되었습니다.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: 할당된 항목 없음
작업 영역이 잘못 구성되었습니다. AWS 작업 영역 루트 스토리지 버킷과 동일한 지역에 있어야 합니다.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: 할당된 항목 없음
스토리지 버킷 이름이 잘못되었습니다.
FILES_API_AWS_KMS_키_비활성화됨
SQLSTATE: 할당된 항목 없음
스토리지 버킷에 액세스하도록 구성된 KMS 키는 AWS에서 사용할 수 없습니다.
FILES_API_AWS_UNAUTHORIZED
SQLSTATE: 할당된 항목 없음
AWS 리소스에 대한 액세스 권한이 없습니다.
Azure 계정이 비활성화되었습니다.
SQLSTATE: 할당된 항목 없음
Azure에서 스토리지 계정을 사용할 수 없습니다.
파일 API Azure 컨테이너가 존재하지 않습니다
SQLSTATE: 할당된 항목 없음
Azure 컨테이너가 없습니다.
FILES_API_AZURE_FORBIDDEN (액세스 금지)
SQLSTATE: 할당된 항목 없음
스토리지 컨테이너에 대한 액세스는 Azure에서 사용할 수 없습니다.
FILES_API_AZURE_HAS_A_LEASE
SQLSTATE: 할당된 항목 없음
Azure는 현재 리소스에 임대가 있다고 응답했습니다. 나중에 다시 시도하세요.
FILES_API_AZURE_계정 권한 부족
SQLSTATE: 할당된 항목 없음
액세스하는 계정에는 이 작업을 실행할 수 있는 충분한 권한이 없습니다.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME (파일 API Azure 잘못된 저장소 계정 이름)
SQLSTATE: 할당된 항목 없음
Azure에서 스토리지 계정에 액세스할 수 없습니다. 잘못된 스토리지 계정 이름입니다.
파일 API: Azure 키 기반 인증은 허용되지 않음
SQLSTATE: 할당된 항목 없음
Azure에서 Key Vault 볼트를 찾을 수 없습니다. 고객 관리형 키 설정을 확인합니다.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND (Azure 키 자격 증명 저장소에서 키를 찾을 수 없음)
SQLSTATE: 할당된 항목 없음
Azure 키 자격 증명 모음 키는 Azure에서 찾을 수 없습니다. 고객 관리형 키 설정을 확인합니다.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: 할당된 항목 없음
Azure에서 Key Vault 자격 증명 모음을 찾을 수 없습니다. 고객 관리형 키 설정을 확인합니다.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND (파일 API Azure MI 접근 커넥터를 찾을 수 없음)
SQLSTATE: 할당된 항목 없음
Access Connector를 사용한 Azure 관리 ID 자격 증명을 찾을 수 없습니다. IP 액세스 제어가 요청을 거부했기 때문일 수 있습니다.
파일_API_AZURE_경로_유효하지_않음
SQLSTATE: 할당된 항목 없음
요청된 경로가 Azure에 유효하지 않습니다.
파일 API Azure 경로는 변경할 수 없습니다 (FILES_API_AZURE_PATH_IS_IMMUTABLE)
SQLSTATE: 할당된 항목 없음
요청된 경로는 변경할 수 없습니다.
파일 API 카탈로그를 찾을 수 없음
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
파일 API 클라우드 리소스 고갈
SQLSTATE: 할당된 항목 없음
<message>
FILES_API_COLON_IS_NOT_SUPPORTED_IN_PATH
SQLSTATE: 할당된 항목 없음
경로에서 ':' 문자가 지원되지 않습니다.
파일_API_제어_평면_네트워크_영역_허용_안됨
SQLSTATE: 할당된 항목 없음
Databricks(데이터브릭스) 컨트롤 플레인 네트워크 영역은 허용되지 않습니다.
파일_API_디렉토리에는_본체가_있을_수_없습니다
SQLSTATE: 할당된 항목 없음
본문이 제공되었지만 디렉터리에 파일 본문이 있을 수 없습니다.
파일 API: 디렉토리가 비어 있지 않습니다.
SQLSTATE: 할당된 항목 없음
디렉터리가 비어 있지 않습니다. 비어 있지 않은 디렉터리에서는 이 작업이 지원되지 않습니다.
폴더_API_디렉터리가_찾을_수_없습니다
SQLSTATE: 할당된 항목 없음
액세스 중인 디렉터리를 찾을 수 없습니다.
파일_API_중복_헤더
SQLSTATE: 할당된 항목 없음
요청에는 한 번만 허용되는 헤더의 여러 복사본이 포함되어 있습니다.
파일_API_중복_쿼리_매개변수
SQLSTATE: 할당된 항목 없음
쿼리 매개 변수 '<parameter_name>'은 정확히 한 번만 존재해야 하지만 여러 번 제공되었습니다.
파일 API: 빈 버킷 이름
SQLSTATE: 할당된 항목 없음
DBFS 버킷 이름이 비어 있습니다.
파일 API의 만료 시간이 반드시 포함되어야 합니다.
SQLSTATE: 할당된 항목 없음
만료 시간이 있어야 합니다.
파일 API 만료 시간은 미래여야 합니다
SQLSTATE: 할당된 항목 없음
ExpireTime은 향후에 있어야 합니다.
파일 API 만료 시간이 너무 먼 미래에 설정되었습니다.
SQLSTATE: 할당된 항목 없음
요청된 TTL이 지원되는 것보다 깁니다(1시간).
파일_API_외부_위치_경로_다른_저장_엔티티_중복
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
파일이 이미 존재합니다.
SQLSTATE: 할당된 항목 없음
생성 중인 파일이 이미 있습니다.
파일을 찾을 수 없습니다.
SQLSTATE: 할당된 항목 없음
액세스 중인 파일을 찾을 수 없습니다.
파일_API_파일_또는_디렉토리_점으로_끝남
SQLSTATE: 할당된 항목 없음
'.'로 끝나는 파일 또는 디렉터리 지원되지 않는 문자가 있습니다.
파일 크기 제한 초과
SQLSTATE: 할당된 항목 없음
파일 크기는 <max_download_size_in_bytes> 바이트를 초과하면 안 되지만, <size_in_bytes> 바이트로 확인되었습니다.
파일 API용 GCP 계정이 비활성화되었습니다
SQLSTATE: 할당된 항목 없음
스토리지 버킷에 대한 액세스가 GCP에서 비활성화되었습니다.
파일 API GCP 버킷이 존재하지 않습니다.
SQLSTATE: 할당된 항목 없음
스토리지 버킷이 GCP에 없습니다.
파일 API GCP 접근 금지
SQLSTATE: 할당된 항목 없음
버킷에 대한 액세스가 GCP에 의해 금지되었습니다.
FILES_API_GCP_KEY_DISABLED_OR_DESTROYED
SQLSTATE: 할당된 항목 없음
해당 위치에 대해 구성된 고객 관리형 암호화 키가 비활성화되거나 제거됩니다.
파일 API GCP 요청이 정책에 의해 금지되었습니다.
SQLSTATE: 할당된 항목 없음
버킷에 대한 GCP 요청은 정책에 의해 금지됩니다. VPC 서비스 컨트롤을 확인합니다.
파일 API 호스트를 일시적으로 사용할 수 없습니다
SQLSTATE: 할당된 항목 없음
클라우드 공급자 호스트를 일시적으로 사용할 수 없습니다. 나중에 다시 시도하세요.
FILES_API_INVALID_CONTINUATION_TOKEN (파일 API에서 잘못된 연속 토큰)
SQLSTATE: 할당된 항목 없음
제공된 페이지 토큰이 잘못되었습니다.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: 할당된 항목 없음
페이지 토큰이 잘못되었습니다.
파일_API_잘못된_경로
SQLSTATE: 할당된 항목 없음
잘못된 경로: <validation_error>
파일_API_잘못된_범위
SQLSTATE: 할당된 항목 없음
범위 머리글이 잘못되었습니다.
파일_API_잘못된_리소스_전체_이름
SQLSTATE: 할당된 항목 없음
<유니티_카탈로그_오류_메시지>
FILES_API_INVALID_SESSION_TOKEN (파일 API 유효하지 않은 세션 토큰)
SQLSTATE: 할당된 항목 없음
세션 토큰이 잘못되었습니다.
세션 토큰 유형이 잘못되었습니다
SQLSTATE: 할당된 항목 없음
세션 토큰 유형이 잘못되었습니다. 예상했던 것은 '<expected>
' 이었지만, 실제로는 '<actual>
' 이었다.
파일_API_잘못된_타임스탬프
SQLSTATE: 할당된 항목 없음
타임스탬프가 잘못되었습니다.
파일_API_잘못된_업로드_유형
SQLSTATE: 할당된 항목 없음
업로드 유형이 잘못되었습니다. '<expected>
'이(가) 예상되었으나 '<actual>
'이(가) 나왔습니다.
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: 할당된 항목 없음
매개 변수로 전달된 URL이 잘못되었습니다.
오버라이드 쿼리 매개변수에 잘못된 값이 입력되었습니다.
SQLSTATE: 할당된 항목 없음
쿼리 매개 변수 'overwrite'는 true 또는 false 중 하나여야 하지만, 제공된 값은 <got_values>이었습니다.
FILES_API_INVALID_VALUE_FOR_QUERY_PARAMETER (쿼리 매개변수에 유효하지 않은 값)
SQLSTATE: 할당된 항목 없음
쿼리 매개 변수 '<parameter_name>' 은 다음 중 하나여야 합니다: <expected>
하지만 <actual>
였습니다.
파일 API 잘못된 요청 본문
SQLSTATE: 할당된 항목 없음
잘못된 형식의 요청 본문
FILES_API_MANAGED_CATALOG_FEATURE_DISABLED (파일 관리 카탈로그 기능 비활성화)
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
파일 API 메타스토어를 찾을 수 없음
SQLSTATE: 할당된 항목 없음
<유니티 카탈로그 오류 메시지>
FILES_API_METHOD_IS_NOT_ENABLED_FOR_JOBS_BACKGROUND_COMPUTE_ARTIFACT_STORAGE
SQLSTATE: 할당된 항목 없음
요청된 파일 API 메서드는 작업 백그라운드 컴퓨팅 아티팩트 스토리지에 대해 지원되지 않습니다.
파일 API에 콘텐츠 길이 없음.
SQLSTATE: 할당된 항목 없음
요청에 콘텐츠 길이 헤더가 필요합니다.
쿼리 매개변수 누락 (FILES_API_MISSING_QUERY_PARAMETER)
SQLSTATE: 할당된 항목 없음
쿼리 매개 변수 '<parameter_name>'이(가) 필요하지만 요청에서 누락되었습니다.
FILES_API_요청에_필수_매개변수가_누락됨
SQLSTATE: 할당된 항목 없음
요청에 필요한 매개 변수가 없습니다.
FILES_API_MODEL_VERSION_IS_NOT_READY
SQLSTATE: 할당된 항목 없음
모델 버전이 아직 준비되지 않았습니다.
파일 API가 장소에 대해 활성화되지 않았습니다.
SQLSTATE: 할당된 항목 없음
이 작업 영역/계정에 대해 <place>
파일 API를 사용할 수 없습니다.
내부 워크스페이스 저장소에 대한 파일 API가 지원되지 않습니다.
SQLSTATE: 할당된 항목 없음
요청된 파일 API 메서드는 내부 작업 영역 스토리지에 대해 지원되지 않습니다.
파일 API 작업이 있어야 합니다.
SQLSTATE: 할당된 항목 없음
작업이 있어야 합니다.
파일 API 페이지 크기는 0 이상이어야 합니다
SQLSTATE: 할당된 항목 없음
page_size 0보다 크거나 같아야 합니다.
파일 API 경로는 슬래시로 끝나야 합니다.
SQLSTATE: 할당된 항목 없음
'/' 문자로 끝나는 경로는 디렉터리를 나타냅니다. 이 API는 디렉터리에 대한 작업을 지원하지 않습니다.
파일_API_경로가_디렉토리입니다
SQLSTATE: 할당된 항목 없음
지정된 경로는 기존 디렉터리를 가리킵니다. 이 API는 디렉터리에 대한 작업을 지원하지 않습니다.
FILES_API_PATH_IS_A_FILE
SQLSTATE: 할당된 항목 없음
지정된 경로는 기존 파일을 가리킵니다. 이 API는 파일에 대한 작업을 지원하지 않습니다.
FILES_API_PATH가 올바르게 UTF-8로 인코딩된 URL이 아닙니다.
SQLSTATE: 할당된 항목 없음
지정된 경로가 유효한 UTF-8로 인코딩된 URL이 아닙니다.
데이터플레인 프록시에서 FILES_API_PATH가 활성화되지 않았습니다
SQLSTATE: 할당된 항목 없음
지정된 경로가 데이터 평면 프록시에 대해 사용하도록 설정되지 않음
FILES_API_PATH_MUST_BE_PRESENT
SQLSTATE: 할당된 항목 없음
경로가 있어야 합니다.
파일 API 경로가 지원되지 않습니다.
SQLSTATE: 할당된 항목 없음
<rejection_message>
파일 API 경로가 너무 깁니다
SQLSTATE: 할당된 항목 없음
제공된 파일 경로가 너무 깁니다.
FILES_API_PRECONDITION_FAILED (사전 조건 실패)
SQLSTATE: 할당된 항목 없음
사전 조건으로 인해 요청이 실패했습니다.
파일_API_모델에_대한_프리사인드_URL_지원_안됨
SQLSTATE: 할당된 항목 없음
현재 모델의 미리 서명된 URL에 대한 파일 API는 지원되지 않습니다.
파일_API_R2_자격_비활성화
SQLSTATE: 할당된 항목 없음
R2는 현재 지원되지 않습니다.
파일_API_범위_만족되지_않음
SQLSTATE: 할당된 항목 없음
요청된 범위를 만족할 수 없습니다.
파일_API_재귀_목록은_지원되지_않음
SQLSTATE: 할당된 항목 없음
재귀적으로 파일을 나열하는 것은 지원되지 않습니다.
파일 API 요청이 잘못 라우팅되었습니다.
SQLSTATE: 할당된 항목 없음
요청이 잘못 라우팅되었습니다.
파일 API 요청에는 계정 정보가 포함되어야 합니다.
SQLSTATE: 할당된 항목 없음
요청에 계정 정보가 포함되어야 합니다.
파일 API 요청에는 사용자 정보가 포함되어야 합니다.
SQLSTATE: 할당된 항목 없음
요청에 사용자 정보가 포함되어야 합니다.
파일 API 요청에는 작업 공간 정보를 포함해야 합니다.
SQLSTATE: 할당된 항목 없음
요청에 작업 영역 정보가 포함되어야 합니다.
파일 API 리소스는 읽기 전용입니다.
SQLSTATE: 할당된 항목 없음
리소스는 읽기 전용입니다.
파일 API 리소스를 찾을 수 없습니다
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
파일 API 보안 URL에 접근할 수 없습니다.
SQLSTATE: 할당된 항목 없음
URL에 액세스할 수 없습니다.
파일 API 서명 검증 실패
SQLSTATE: 할당된 항목 없음
서명 확인에 실패했습니다.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET
SQLSTATE: 할당된 항목 없음
이 작업 영역에 대한 스토리지 구성에 액세스할 수 없습니다.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
FILES_API_TABLE_TYPE_NOT_SUPPORTED (파일 API 테이블 유형이 지원되지 않음)
SQLSTATE: 할당된 항목 없음
파일 API는 <table_type> 지원되지 않습니다.
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING (자가 인식하지 않는 역할)
SQLSTATE: 할당된 항목 없음
<Unity 카탈로그 오류 메시지>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: 할당된 항목 없음
<Unity 카탈로그 오류 메시지>
파일 액세스가 거부되었습니다
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
파일 API의 자원 고갈
SQLSTATE: 할당된 항목 없음
<message>
경로에 지원되지 않는 라틴 문자 있음
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: 할당된 항목 없음
<unity_catalog_error_message>
FILES_API_UNEXPECTED_ERROR_WHILE_PARSING_URI (URI 구문 분석 중 예기치 않은 오류)
SQLSTATE: 할당된 항목 없음
URI를 구문 분석할 때 예기치 않은 오류
파일 API에서 예기치 않은 쿼리 매개변수
SQLSTATE: 할당된 항목 없음
예기치 않은 쿼리 매개 변수: <unexpected_query_parameters>
파일_API_알 수 없는_메소드
SQLSTATE: 할당된 항목 없음
알 수 없는 메서드 <method>
파일 API 알 수 없는 서버 오류
SQLSTATE: 할당된 항목 없음
알 수 없는 서버 오류입니다.
FILES_API_UNKNOWN_URL_HOST
SQLSTATE: 할당된 항목 없음
URL 호스트를 알 수 없습니다.
파일 API를 지원하지 않는 경로
SQLSTATE: 할당된 항목 없음
제공된 경로는 파일 API에서 지원되지 않습니다. 제공된 경로에 '../' 또는 './' 시퀀스가 포함되어 있지 않은지 반드시 확인하십시오. 제공된 경로가 여러 개의 연속 슬래시(예: '///')를 사용하지 않는지 확인합니다.
파일 API URL 생성 사용 안 함
SQLSTATE: 할당된 항목 없음
미리 서명된 URL 생성 기능이 <cloud>
에서 활성화되어 있지 않습니다.
FILES_API_VOLUME_TYPE_NOT_SUPPORTED
SQLSTATE: 할당된 항목 없음
<볼륨 유형>에 대해 파일 API는 지원되지 않습니다.
파일_API_작업공간_취소됨
SQLSTATE: 할당된 항목 없음
작업 영역이 취소되었습니다.
파일 API 워크스페이스를 찾을 수 없습니다
SQLSTATE: 할당된 항목 없음
이 작업 영역에 대한 스토리지 구성에 액세스할 수 없습니다.
기타
할당된 클러스터에서는 ABAC 행 열 정책이 지원되지 않습니다.
SQLSTATE: 할당된 항목 없음
정책 규칙을 통해 행 필터 또는 열 마스크가 할당된 테이블 <tableFullName>
쿼리는 할당된 클러스터에서 지원되지 않습니다.
AZURE_ENTRA_자격증명_누락
SQLSTATE: 할당된 항목 없음
Azure Entra(즉, Azure Active Directory) 자격 증명이 없습니다.
Entra 계정으로 로그인했는지 확인합니다.
또는 사용자 설정의 > Git 통합에서 이미 Azure DevOps 개인용 액세스 토큰(PAT)을 설정했는지 확인하세요.
PAT를 사용하지 않고 Repos API와 함께 Azure DevOps를 사용하는 경우
Azure Entra 액세스 토큰을 사용해야 합니다.
Azure Entra 액세스 토큰을 획득하는 단계는https://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token 참조하세요.
AZURE_ENTRA_자격증명_구문_실패
SQLSTATE: 할당된 항목 없음
Azure Entra(Azure Active Directory) 자격 증명에 오류가 발생했습니다. 로그아웃해 보세요.
Entra https://portal.azure.com) 후에 다시 로그인하십시오.
또는 사용자 설정 메뉴에서 > Git 통합을 방문하여 설정할 수도 있습니다.
Azure DevOps 개인용 액세스 토큰을 구성합니다.
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: 할당된 항목 없음
Azure Active Directory 자격 증명에 오류가 발생했습니다. 로그아웃해 보세요.
Azure Active Directory https://portal.azure.com에 다시 로그인합니다.
정리실 델타 공유 엔티티 승인되지 않음
SQLSTATE: 할당된 항목 없음
클린룸 델타 공유 보안 개체에 대한 자격 증명 생성을 요청할 수 없습니다.
숨겨진 보호 공간의 보안 승인이 거부되었습니다.
SQLSTATE: 할당된 항목 없음
유형 <securableType>
및 종류 <securableKind>
의 보안 가능 <securableName>
는 클린룸 시스템으로 관리되어 있으며, 사용자는 액세스할 수 없습니다.
제약 조건이 이미 존재합니다
SQLSTATE: 할당된 항목 없음
이름이 <constraintName>
인 제약 조건이 이미 존재하므로, 다른 이름을 선택하세요.
제약 조건이 존재하지 않습니다
SQLSTATE: 할당된 항목 없음
제약 조건 <constraintName>
존재하지 않습니다.
원격 저장소를 읽을 수 없음
SQLSTATE: 할당된 항목 없음
원격 리포지토리(<repoUrl>
)를 읽을 수 없습니다.
현재 Git 자격 증명 공급자가 <gitCredentialProvider>
, 그리고 사용자 이름이 <gitCredentialUsername>
입니다.
- 원격 Git 리포지토리 URL이 유효합니다.
- 개인 액세스 토큰 또는 앱 암호에 올바른 리포지토리 액세스 권한이 있습니다.
Git의 오류: <gitErrorMessage>
COULD_NOT_RESOLVE_REPOSITORY_HOST
SQLSTATE: 할당된 항목 없음
<repoUrl>
대한 호스트를 확인할 수 없습니다.
CSMS_시간_시작_지원_안됨
SQLSTATE: 할당된 항목 없음
매개 변수 beginning_of_time
true일 수 없습니다.
CSMS_연속_토큰_만료됨
SQLSTATE: 할당된 항목 없음
연속 토큰에 대해 요청된 개체를 찾을 수 없습니다.
CSMS_유효하지 않은 연속성
SQLSTATE: 할당된 항목 없음
'beginning_of_time=true'와 'continuation_token'이 모두 제공됩니다. 'beginning_of_time'을 'true'로 설정하면 'continuation_token'을 제공하지 않아야 합니다.
CSMS_INVALID_CONTINUATION_TOKEN (유효하지 않은 계속 토큰)
SQLSTATE: 할당된 항목 없음
연속성 토큰이 잘못되었습니다. 원인: <msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: 할당된 항목 없음
매개변수 max_objects의 값 <value>
는 잘못된 값입니다. 예상 범위는 [<minValue>
, <maxValue>
]입니다.
CSMS_INVALID_URI_FORMAT
SQLSTATE: 할당된 항목 없음
잘못된 URI 형식입니다. 볼륨(예: "/Volumes/catalog/schema/volume") 또는 클라우드 스토리지 경로(예: "s3://some-uri")가 필요합니다.
CSMS_위치_오류
SQLSTATE: 할당된 항목 없음
개체를 나열하지 못했습니다. 해결해야 하는 위치에 문제가 있습니다. 세부 정보: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: 할당된 항목 없음
URI <path>
대한 위치를 찾을 수 없습니다.
CSMS_메타스토어_해결_실패
SQLSTATE: 할당된 항목 없음
요청에 대한 메타스토어를 확인할 수 없습니다.
CSMS 서비스 비활성화
SQLSTATE: 할당된 항목 없음
서비스를 사용할 수 없습니다.
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND (엔티티를 찾을 수 없음)
SQLSTATE: 할당된 항목 없음
Unity 카탈로그 엔터티를 찾을 수 없습니다. 카탈로그, 스키마, 볼륨 및/또는 외부 위치가 있는지 확인합니다.
CSMS_유니티_카탈로그_외부_위치_존재하지_않음
SQLSTATE: 할당된 항목 없음
Unity 카탈로그 외부 위치가 없습니다.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: 할당된 항목 없음
URI가 다른 볼륨과 겹칩니다.
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST (카탈로그 메타스토어가 존재하지 않습니다)
SQLSTATE: 할당된 항목 없음
요청에 대한 메타스토어를 확인할 수 없습니다. Metastore가 없습니다.
CSMS_UNITY_CATALOG_PERMISSION_DENIED (권한이 거부되었습니다)
SQLSTATE: 할당된 항목 없음
사용 권한이 거부됨
CSMS_유니티_카탈로그_테이블_존재하지_않음
SQLSTATE: 할당된 항목 없음
Unity 카탈로그 테이블이 없습니다.
CSMS_UNITY_CATALOG_VOLUME이 존재하지 않습니다
SQLSTATE: 할당된 항목 없음
Unity 카탈로그 볼륨이 없습니다.
CSMS_URI_누락
SQLSTATE: 할당된 항목 없음
URI를 제공해야 합니다.
CSMS_URI_길이가_너무_깁니다
SQLSTATE: 할당된 항목 없음
제공된 URI가 너무 깁니다. 허용되는 최대 길이는 <maxLength>
.
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: 할당된 항목 없음
클래식 컴퓨팅을 사용하여 Databricks 기본 스토리지에 액세스할 수 없습니다. 서버리스 컴퓨팅을 사용하여 기본 스토리지의 데이터에 액세스하세요.
GITHUB 앱 자격 증명을 새로 고칠 수 없습니다.
SQLSTATE: 할당된 항목 없음
연결된 GitHub 앱 자격 증명을 새로 고칠 수 없어 작업이 실패했습니다.
다시 시도하거나 Git 통합 > 사용자 설정으로 이동하여 Git 공급자 계정을 다시 연결해 보세요.
문제가 지속되면 지원 티켓을 제출하세요.
깃허브 앱 자격증명 접근 불가
SQLSTATE: 할당된 항목 없음
GitHub 계정에 대한 링크에 액세스할 수 없습니다. 이 오류를 해결하려면 다음을 수행합니다.
- 리포지토리의 관리자는https://github.com/apps/databricks/installations/new 이동하여 리포지토리에 Databricks GitHub 앱을 설치해야 합니다.
또는 GitHub 계정 소유자가 계정에 앱을 설치하여 계정의 리포지토리에 대한 액세스 권한을 부여할 수 있습니다.
- 앱이 이미 설치된 경우 관리자가 '리포지토리만 선택' 옵션으로 범위가 지정된 액세스를 사용하는 경우 해당 리포지토리를 선택하여 이 리포지토리에 대한 액세스를 포함했는지 확인합니다.
자세한 내용은https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app 참조하세요.
문제가 지속되면 지원 티켓을 제출하세요.
GitHub 애플리케이션 만료된 자격 증명
SQLSTATE: 할당된 항목 없음
연결된 GitHub 앱 자격 증명이 6개월 동안 비활성 상태로 만료되었습니다.
사용자 설정 > Git 통합으로 이동하여 자격 증명을 다시 연결해 보세요.
문제가 지속되면 지원 티켓을 제출하세요.
다른 사용자 계정에 GITHUB 앱 설치
SQLSTATE: 할당된 항목 없음
GitHub 계정에 대한 링크는 접근할 수 없습니다. 이 오류를 해결하려면 다음을 수행합니다.
- GitHub 사용자
<gitCredentialUsername>
은https://github.com/apps/databricks/installations/new으로 이동하여 계정<gitCredentialUsername>
에 앱을 설치해서 액세스를 허용해야 합니다. - 사용자
<gitCredentialUsername>
이미 앱을 설치했으며 '리포지토리만 선택' 옵션으로 범위가 지정된 액세스를 사용하는 경우 해당 리포지토리를 선택하여 이 리포지토리에 대한 액세스를 포함했는지 확인해야 합니다.
자세한 내용은https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app 참조하세요.
문제가 지속되면 지원 티켓을 제출하세요.
GITHUB 앱을 조직에 설치
SQLSTATE: 할당된 항목 없음
GitHub 계정으로의 링크가 접근 권한이 없습니다. 이 오류를 해결하려면 다음을 수행합니다.
- GitHub 조직
<organizationName>
의 소유자는https://github.com/apps/databricks/installations/new으로 이동하여 조직<organizationName>
에 앱을 설치함으로써 액세스를 허용해야 합니다. - GitHub 조직
<organizationName>
에 앱이 이미 설치되어 있는 경우, 이 조직의 소유자가 '리포지토리만 선택' 옵션과 함께 범위가 지정된 액세스를 사용할 때 해당 리포지토리를 선택하여 이 리포지토리에 대한 액세스가 포함되었는지 확인해야 합니다.
자세한 내용은https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app 참조하세요.
문제가 지속되면 지원 티켓을 제출하세요.
당신의 계정에 GitHub 앱 설치
SQLSTATE: 할당된 항목 없음
GitHub 계정에 대한 링크에 액세스할 수 없습니다. 이 오류를 해결하려면 다음을 수행합니다.
-
https://github.com/apps/databricks/installations/new으로 이동하여 계정
<gitCredentialUsername>
에 앱을 설치하여 액세스를 허용하세요. - 앱이 이미 설치되어 있고 '리포지토리만 선택' 옵션과 함께 범위가 지정된 액세스를 사용하는 경우 해당 리포지토리를 선택하여 이 리포지토리에 대한 액세스를 포함했는지 확인합니다.
자세한 내용은https://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app 참조하세요.
문제가 지속되면 지원 티켓을 제출하세요.
GIT_인증_일반_무효
SQLSTATE: 할당된 항목 없음
리포지토리 URL <repoUrl>
대한 Git 공급자 자격 증명이 잘못되었습니다.
현재 Git 자격 증명 공급자는 <gitCredentialProvider>
이며 사용자 이름은 <gitCredentialUsername>
입니다.
사용자 설정 > Git 통합으로 이동하여 자격 증명을 봅니다.
다음을 확인하려면 원격 Git 공급자로 이동하세요.
- Git 공급자 자격 증명을 사용하여 올바른 Git 사용자 이메일 또는 사용자 이름을 입력했습니다.
- 토큰 또는 앱 암호에 올바른 리포지토리 액세스 권한이 있습니다.
- 토큰이 만료되지 않았습니다.
- Git 공급자에서 SSO를 사용하도록 설정한 경우 토큰에 권한을 부여해야 합니다.
GIT_CREDENTIAL_INVALID_PAT (개인 액세스 토큰 무효)
SQLSTATE: 할당된 항목 없음
리포지토리 URL <repoUrl>
대한 Git 공급자 개인용 액세스 토큰 자격 증명이 잘못되었습니다.
현재 Git 자격 증명 공급자는 <gitCredentialProvider>
이고 사용자 이름은 <gitCredentialUsername>
입니다.
사용자 설정 > Git 통합으로 이동하여 자격 증명을 봅니다.
확인을 위해 원격 Git 제공자로 이동하십시오.
- Git 공급자 자격 증명을 사용하여 올바른 Git 사용자 이메일 또는 사용자 이름을 입력했습니다.
- 귀하의 토큰 또는 앱 비밀번호에 리포지토리에 대한 적절한 액세스 권한이 있습니다.
- 토큰이 만료되지 않았습니다.
- Git 공급자에서 SSO를 사용하도록 설정한 경우 토큰에 권한을 부여해야 합니다.
GIT 자격 증명 누락
SQLSTATE: 할당된 항목 없음
Git 자격 증명이 구성되지 않았지만 이 리포지토리(<repoUrl>
)에 자격 증명이 필요합니다.
Git 통합 > 사용자 설정으로 이동하여 Git 자격 증명을 설정합니다.
쓰기 권한이 없는 GIT 자격 증명
SQLSTATE: 할당된 항목 없음
<gitCredentialProvider>
리포지토리(<repoUrl>
)에 대한 쓰기 권한이 부여되지 않았습니다.
(<gitCredentialUsername>
) 이 원격 리포지토리에 대한 쓰기 권한이 있는지 확인합니다.
자격 증명 제공자 불일치
SQLSTATE: 할당된 항목 없음
리포지토리에 대한 잘못된 Git 자격 증명 공급자입니다.
현재 Git 자격 증명 공급자(<gitCredentialProvider>
)가 리포지토리의 Git 공급자 <repoUrl>
것과 일치하지 않습니다.
다른 리포지토리를 시도하거나, 사용자 설정 >의 Git 통합으로 이동하여 Git 자격 증명을 업데이트하세요.
HIERARCHICAL_NAMESPACE_NOT_ENABLED
SQLSTATE: 할당된 항목 없음
Azure Storage 계정에는 계층 구조 네임스페이스를 사용할 수 없습니다.
유효하지 않은 필드 길이
SQLSTATE: 할당된 항목 없음
<rpcName> <fieldName>
너무 깁니다. 최대 길이는 <maxLength>
문자입니다.
INVALID_PARAMETER_VALUE
SQLSTATE: 할당된 항목 없음
<msg>
자세한 내용은 INVALID_PARAMETER_VALUE 참조하세요.
작업_작업_프레임워크_작업_실행_출력_찾을_수_없음
SQLSTATE: 할당된 항목 없음
작업 프레임워크: runId <runId>
및 orgId <orgId>
있는 작업에 대한 작업 실행 출력을 찾을 수 없습니다.
작업_태스크_프레임워크_태스크_실행_상태_찾을_수_없음
SQLSTATE: 할당된 항목 없음
작업 프레임워크: runId <runId>
및 orgId <orgId>
의 작업 실행 상태를 찾을 수 없었습니다.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: 할당된 항목 없음
작업 ID <taskId>
에 대한 RPC ClientConfig가 존재하지 않습니다.
작업 등록된 작업이 존재하지 않습니다
SQLSTATE: 할당된 항목 없음
ID <taskId>
을 가진 작업이 존재하지 않습니다.
작업_작업_레지스트리_지원되지_않는_작업_작업
SQLSTATE: 할당된 항목 없음
작업 레지스트리: 지원되지 않거나 알 수 없는 클래스 <taskClassName>
의 JobTask입니다.
경로 기반 접근은 외부 샬로우 클론에서 지원되지 않음 (PATH_BASED_ACCESS_NOT_SUPPORTED_FOR_EXTERNAL_SHALLOW_CLONE)
SQLSTATE: 할당된 항목 없음
외부 단순 복제 테이블 <tableFullName>
대한 경로 기반 액세스는 지원되지 않습니다. 대신 테이블 이름을 사용하여 단순 클론에 액세스하세요.
패브릭에 대한 경로 기반 액세스는 지원되지 않습니다.
SQLSTATE: 할당된 항목 없음
url '<url>
'에 있는 패브릭 테이블을 찾을 수 없습니다.
REFRESH FOREIGN CATALOG
명령을 사용하여 Fabric 테이블을 채워주세요.
행 및 열 액세스 정책이 있는 테이블에 대한 경로 기반 액세스는 지원되지 않습니다.
SQLSTATE: 할당된 항목 없음
테이블 <tableFullName>
에 대한 경로 기반 액세스는 행 필터 또는 열 마스크가 있는 경우 지원되지 않습니다.
권한 거부
SQLSTATE: 할당된 항목 없음
사용자에게 <resourceType>
'<resourceName>
'에 대한 <msg>
없습니다.
레대시_자산_삭제_처리기_잘못된_입력
SQLSTATE: 할당된 항목 없음
개체 삭제 요청을 구문 분석할 수 없습니다. <invalidInputMsg>
휴지통에 없는 객체를 삭제할 수 없습니다
SQLSTATE: 할당된 항목 없음
휴지통에 없는 개체 <resourceName>
삭제할 수 없음
REDASH_PERMISSION_DENIED (권한이 거부되었습니다)
SQLSTATE: 할당된 항목 없음
리소스 <resourceId>
액세스할 수 있는 권한을 찾거나 가질 수 없습니다.
REDASH_QUERY_NOT_FOUND (레댁스 쿼리를 찾을 수 없습니다)
SQLSTATE: 할당된 항목 없음
쿼리 ID <queryId>
에서 리소스를 찾을 수 없습니다.
REDASH_QUERY_SNIPPET_생성_실패
SQLSTATE: 할당된 항목 없음
새 쿼리 스니펫을 만들 수 없습니다
REDASH_QUERY_SNIPPET_QUOTA_EXCEEDED (쿼리 스니펫 할당량 초과)
SQLSTATE: 할당된 항목 없음
쿼리 조각 수에 대한 할당량에 도달했습니다. 현재 할당량이 <quota>
.
레다쉬 쿼리 스니펫 트리거가 이미 사용 중입니다.
SQLSTATE: 할당된 항목 없음
지정된 트리거 <trigger>
이 작업 영역의 다른 쿼리 조각에서 이미 사용 중입니다.
REDASH_RESOURCE_NOT_FOUND (리소스를 찾을 수 없습니다)
SQLSTATE: 할당된 항목 없음
요청된 리소스 <resourceName>
존재하지 않습니다.
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: 할당된 항목 없음
개체 삭제 요청을 구문 분석할 수 없습니다. <invalidInputMsg>
REDASH_복원_객체가_휴지통에_없음
SQLSTATE: 할당된 항목 없음
휴지통에 없는 개체 <resourceName>
복원할 수 없음
이미 휴지통에 있는 Redash 객체
SQLSTATE: 할당된 항목 없음
이미 휴지통에 버려진 개체를 다시 버릴 수 없습니다 <resourceName>
레대시에서 리소스 이름을 생성할 수 없습니다
SQLSTATE: 할당된 항목 없음
id <id>
에서 리소스 이름을 생성할 수 없습니다.
REDASH_시각화_생성_실패
SQLSTATE: 할당된 항목 없음
새 시각화를 만들 수 없음
REDASH 시각화가 발견되지 않았습니다
SQLSTATE: 할당된 항목 없음
시각화 <visualizationId>
을(를) 찾을 수 없습니다.
레대시_시각화_쿼터_초과
SQLSTATE: 할당된 항목 없음
쿼리 <query_id> 시각화 수에 대한 할당량에 도달했습니다. 현재 할당량이 <quota>
.
저장소 URL을 찾을 수 없음
SQLSTATE: 할당된 항목 없음
원격 리포지토리(<repoUrl>
)를 찾을 수 없습니다.
현재 Git 자격 증명 공급자는 <gitCredentialProvider>
이고, 사용자 이름은 <gitCredentialUsername>
입니다.
다음을 확인하세요.
- 원격 Git 리포지토리 URL이 유효합니다.
- 개인 액세스 토큰 또는 앱 암호에 올바른 리포지토리 액세스 권한이 있습니다.
자원이 이미 존재합니다
SQLSTATE: 할당된 항목 없음
<resourceType>
'<resourceIdentifier>
'이(가) 이미 있습니다.
리소스가 존재하지 않습니다.
SQLSTATE: 할당된 항목 없음
<resourceType>
'<resourceIdentifier>
'이(가) 없습니다.
할당된 클러스터에서 행 또는 열 접근 정책이 지원되지 않습니다.
SQLSTATE: 할당된 항목 없음
지정된 클러스터에서 행 필터 또는 열 마스크를 지원하지 않는 테이블 <tableFullName>
에 대한 쿼리
델타 공유의 테이블에서는 행/열 보안이 지원되지 않습니다.
SQLSTATE: 할당된 항목 없음
테이블 <tableFullName>
델타 공유와 공유되고 있으며 행/열 보안을 사용할 수 없습니다.
서비스를 일시적으로 사용할 수 없습니다
SQLSTATE: 할당된 항목 없음
<serviceName>
서비스는 일시적으로 유지 관리 중입니다. 나중에 다시 시도하세요.
온라인 모드에서는 행/열 보안이 있는 테이블을 지원하지 않습니다.
SQLSTATE: 할당된 항목 없음
테이블 <tableFullName>
행/열 보안 및 온라인 구체화된 뷰를 둘 다 사용할 수 없습니다.
업데이트할 행이 너무 많습니다
SQLSTATE: 할당된 항목 없음
업데이트할 행이 너무 많아, 업데이트를 중단합니다.