相关文章推荐

这是 Azure Databricks 返回的常见命名错误条件的列表。

Databricks Runtime 和 Databricks SQL

AMBIGUOUS_COLUMN_OR_FIELD

列或字段不明确且具有匹配项。

AMBIGUOUS_CONSTRAINT

对约束的模糊引用。

AMBIGUOUS_LATERAL_COLUMN_ALIAS

横向列别名不明确且具有匹配项。

AMBIGUOUS_REFERENCE

引用不明确,可能是:。

ARGUMENT_NOT_CONSTANT

函数在需要常量参数的位置处包含参数。 请单独计算参数,并以常量形式传递结果。

ARITHMETIC_OVERFLOW

. 如有必要,请将 设置为“false”以绕过此错误。

BUILT_IN_CATALOG

不支持内置目录。

CANNOT_CAST_DATATYPE

无法将 强制转换为

CANNOT_CONSTRUCT_PROTOBUF_DESCRIPTOR

构造 FileDescriptor 时出错

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

无法将 Protobuf 转换为 SQL ,因为架构不兼容(protobufType = ,sqlType = )。

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

无法将 Protobuf 的 转换为 SQL 类型

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_ENUM_TYPE

无法将 SQL 转换为 Protobuf,因为它未在 ENUM 中定义,因此无法写入

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

无法将 SQL 转换为 Protobuf ,因为架构不兼容(protobufType = ,sqlType = )。

CANNOT_COPY_STATE

无法将目录状态(如当前数据库和临时视图)从 Unity Catalog 复制到旧目录。

CANNOT_DECODE_URL

无法解码 URL:

CANNOT_DELETE_SYSTEM_OWNED

不能删除系统拥有的项。

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

无法删除名称由 CHECK 约束

以及 PRIMARY KEY 或 FOREIGN KEY 约束共享的约束。 可以通过以下查询删除 PRIMARY KEY 或

FOREIGN KEY 约束:

ALTER TABLE .. DROP PRIMARY KEY 或

ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_LOAD_FUNCTION_CLASS

注册函数时无法加载类,请确保它位于类路径上。

CANNOT_LOAD_PROTOBUF_CLASS

无法加载名称为 的 Protobuf 类。 请确保类名包含 package 前缀。

CANNOT_PARSE_DECIMAL

无法分析十进制

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

将文件 描述符字节 [] 分析为描述符对象时出错

CANNOT_PARSE_TIMESTAMP

. 如有必要,请将 设置为“false”以绕过此错误。

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

无法从安全提供程序读取敏感密钥“

CANNOT_REFERENCE_UC_IN_HMS

无法在 Hive 元存储对象中引用 Unity Catalog。

CANNOT_RENAME_ACROSS_CATALOG

不允许跨目录重命名表。

CANNOT_RENAME_ACROSS_METASTORE

不允许跨元存储服务重命名表。

CANNOT_RENAME_ACROSS_SCHEMA

不允许跨架构重命名表。

CANNOT_UP_CAST_DATATYPE

无法将 强制转换为

CAST_INVALID_INPUT

类型 的值 无法强制转换为 ,因为其格式错误。 根据语法更正值,或更改其目标类型。 使用 try_cast 来容许格式错误的输入并改为返回 NULL。 如有必要,请将 设置为“false”以绕过此错误。

CAST_OVERFLOW

由于溢出,类型的值无法强制转换为。 使用 try_cast 容许溢出,并返回 NULL。 如有必要,请将 设置为“false”以绕过此错误。

CAST_OVERFLOW_IN_TABLE_INSERT

由于发生溢出,无法将类型值插入类型列。 对输入值使用 try_cast 以容许溢出并改为返回 NULL。

COLUMN_ALREADY_EXISTS

列已存在。 请考虑选择其他名称或重命名现有列。

COLUMN_NOT_FOUND

找不到列。 根据 SQL 配置验证列名的拼写和正确性。

CONCURRENT_QUERY

此查询的另一个实例刚刚由并发会话启动。

CONNECT

泛型 Spark 连接错误。

有关详细信息,请参阅 CONNECT

CONSTRAINTS_REQUIRE_UNITY_CATALOG

表约束仅在 Unity Catalog 中受支持。

CONVERSION_INVALID_INPUT

无法转换值 (),因为它的格式错误。 请根据语法更正值,或更改其格式。 用于容许格式错误的输入并改为返回 NULL。

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

无效方案 。 COPY INTO 源加密目前仅支持 s3/s3n/s3a/wasbs/abfss。

COPY_INTO_CREDENTIALS_REQUIRED

COPY INTO 源凭据必须指定

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

复制的文件在并发 COPY INTO 操作中提交。 请稍后再试。

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

无效方案 。 COPY INTO 源加密目前仅支持 s3/s3n/s3a/abfss。

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

COPY INTO 加密仅支持 ADLS Gen2 或 abfss:// 文件方案

COPY_INTO_ENCRYPTION_REQUIRED

COPY INTO 源加密必须指定“ ”。

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

无效加密选项 。 COPY INTO 源加密必须指定“ ”=“ ”。

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

除了追加数据外,COPY INTO 不能与其他事务同时运行。 请稍后再试。

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

COPY INTO 无法加载其状态,超过最大重试次数。

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

源文件的格式必须为 CSV、JSON、AVRO、ORC、PARQUET、TEXT 或 BINARYFILE 中的一种。 不支持在 Delta 表上使用 COPY INTO 作为源,因为在进行 OPTIMIZE 操作后可能会引入重复数据。 可以通过运行 SQL 命令 set spark.databricks.delta.copyInto.formatCheck.enabled = false 来关闭此检查。

CREATE_TABLE_COLUMN_OPTION_DUPLICATE

CREATE TABLE 列多次指定了选项“”,这是无效的指定

DATABRICKS_DELTA_NOT_ENABLED

未在帐户中启用 Databricks Delta。

DATATYPE_MISMATCH

由于数据类型不匹配,无法进行解析:

有关更多详细信息,请参阅 DATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

DataType 需要长度参数,例如 (10)。 请指定长度。

DATETIME_OVERFLOW

日期/时间操作溢出:

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

小数精度 超过最大精度

DEFAULT_DATABASE_NOT_EXISTS

默认数据库不存在,请先创建该数据库,或将默认数据库更改为“default”。

DIVIDE_BY_ZERO

被零除。 使用 try_divide 容许除数为 0,并返回 NULL。 如有必要,请将 设置为“false”以绕过此错误。

DUPLICATE_KEY

发现重复键

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

函数 的调用包含已分配到参数 的多个自变量。 最多只能将一个自变量分配到每个参数。

ELEMENT_AT_BY_INDEX_ZERO

索引 0 无效。 索引应 < 0 或 > 0(第一个元素的索引为 1)。

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

暂存 查询中包含空本地文件

ENCODER_NOT_FOUND

找不到 Spark SQL 内部表示形式的类型编码器。 考虑将输入类型更改为 数据类型 支持的类型之一。

EXCEPT_NESTED_COLUMN_INVALID_TYPE

EXCEPT 列 已解析,本应该为 StructType,但发现类型为

EXCEPT_OVERLAPPING_COLUMNS

EXCEPT 列表中的列必须非重复且不重叠。

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

EXCEPT 列 [ ] 已解析,但不与星形扩展中的任何 [ ] 列匹配。

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

无法解析 EXCEPT 子句中的列/字段名称。 你是否指的是下列其中一项:[]?

注意:在结构扩展期间,EXCEPT 子句中的嵌套列可能不包含限定符(表名、父结构列名等);如果将限定符用于嵌套列,请尝试删除限定符。

EXT_TABLE_INVALID_SCHEME

外部表不支持方案。

FAILED_EXECUTE_UDF

无法执行用户定义的函数 ( : ( ) => )

FAILED_FUNCTION_CALL

为调用准备函数失败。 请仔细检查函数的参数。

FAILED_RENAME_PATH

未能将 重命名为 ,因为目标已经存在

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

在经典 SQL 仓库上不受支持。 若要使用此功能,请使用专业或无服务器 SQL 仓库。 若要了解有关仓库类型的详细信息,请参阅

FEATURE_REQUIRES_UC

在没有 Unity Catalog 的情况下不受支持。 若要使用此功能,请启用 Unity Catalog。 若要了解有关 Unity Catalog 的详细信息,请参阅

FEATURE_UNAVAILABLE

在你的环境中不受支持。 若要使用此功能,请联系 Databricks 支持人员。

FIELD_NOT_FOUND

中没有此类结构字段

FILE_IN_STAGING_PATH_ALREADY_EXISTS

暂存路径 中的文件已存在,但未设置 OVERWRITE

FORBIDDEN_OPERATION

不允许对以下项执行该操作:

FOREIGN_KEY_MISMATCH

外键父列与主键子列不匹配。

GRAPHITE_SINK_INVALID_PROTOCOL

无效的 Graphite 协议:

GRAPHITE_SINK_PROPERTY_MISSING

Graphite 接收器需要“ ”属性。

GROUPING_COLUMN_MISMATCH

在分组列 中找不到分组列 ( )

GROUPING_ID_COLUMN_MISMATCH

grouping_id ( ) 和分组列 ( ) 不匹配

GROUPING_SIZE_LIMIT_EXCEEDED

分组集大小不能大于

GROUP_BY_AGGREGATE

GROUP BY 中不允许使用聚合函数,但找到了

GROUP_BY_POS_AGGREGATE

GROUP BY 引用了包含聚合函数的表达式 。 GROUP BY 中不允许使用聚合函数。

GROUP_BY_POS_OUT_OF_RANGE

GROUP BY 位置 不在选择列表中(有效范围为 [1, ])。

INCOMPARABLE_PIVOT_COLUMN

无效透视列 。 透视列必须可比较。

INCOMPATIBLE_DATASOURCE_REGISTER

检测到不兼容的 DataSourceRegister。 请从类路径中删除不兼容的库或升级它。 错误:

INCONSISTENT_BEHAVIOR_CROSS_VERSION

由于升级到,可能会得到其他结果

有关详细信息,请参阅 INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_END_OFFSET

rowsPerSecond 的最大偏移量为 ,但当前为 。

INCORRECT_NUMBER_OF_ARGUMENTS

至少需要 个参数,最多需要 个参数。

INCORRECT_RAMP_UP_RATE

rowsPerSecond 的最大偏移量为 ,但“rampUpTimeSeconds”为 。

INDEX_ALREADY_EXISTS

无法创建索引,因为它已存在。 。 .

INDEX_NOT_FOUND

找不到索引。 .

INSUFFICIENT_PERMISSIONS

权限不足:

INSUFFICIENT_PERMISSIONS_EXT_LOC

用户对外部位置的权限不足。

INSUFFICIENT_PERMISSIONS_NO_OWNER

没有所有者。 要求管理员设置所有者。

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

用户不拥有 。

INSUFFICIENT_PERMISSIONS_SECURABLE

用户对 没有权限。

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

的所有者不同于 的所有者。

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

存储凭据的权限不足。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

由于基础安全对象的权限,用户无法启用。

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

由于基础安全对象的权限,用户无法启用:

INTERNAL_ERROR

INTERVAL_ARITHMETIC_OVERFLOW

INTERVAL_DIVIDED_BY_ZERO

被零除。 使用 try_divide 容许除数为 0,并返回 NULL。

INVALID_AGGREGATE_FUNCTION_USAGE_IN_SQL_FUNCTION

SQL 函数 中聚合函数的使用无效

INVALID_ARRAY_INDEX

索引 超出界限。 数组具有 个元素。 使用 SQL 函数 get() 容许访问无效索引上的元素,并改为返回 NULL。 如有必要,请将 设置为“false”以绕过此错误。

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

索引 超出界限。 数组具有 个元素。 使用 try_element_at 容许访问无效索引上的元素,并返回 NULL。 如有必要,请将 设置为“false”以绕过此错误。

INVALID_BUCKET_FILE

无效 Bucket 文件:

INVALID_BYTE_STRING

预期的格式为 ByteString,但实际为 ( )。

INVALID_COLUMN_OR_FIELD_DATA_TYPE

列或字段的类型是要求的类型。

INVALID_DEST_CATALOG

SYNC 命令的目标目录必须位于 Unity Catalog 中。 已找到。

INVALID_EMPTY_LOCATION

位置名称不能为空字符串,但已给出 \<location\>

INVALID_EXTRACT_FIELD

无法从 中提取。

INVALID_FIELD_NAME

字段名称 无效: 不是结构。

INVALID_FORMAT

格式无效:。

有关更多详细信息,请参阅 INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

秒的分数必须为零。 有效的范围为 [0, 60]。 如有必要,请将 设置为“false”以绕过此错误。

INVALID_IDENTIFIER

标识符 无效。 请考虑用反引号将其引用为 \<ident\>

INVALID_JSON_SCHEMA_MAP_TYPE

输入架构 只能包含 STRING 作为 MAP 的键类型。

INVALID_LATERAL_JOIN_TYPE

不允许使用具有 LATERAL 关联的 JOIN,因为 OUTER 子查询无法与其连接伙伴相关联。 删除 LATERAL 关联,或者改用 INNER JOIN 或 LEFT OUTER JOIN。

INVALID_LIKE_PATTERN

模式 无效。

有关更多详细信息,请参阅 INVALID_LIKE_PATTERN

INVALID_PANDAS_UDF_PLACEMENT

组聚合 pandas UDF 不能与其他非 pandas 聚合函数一起调用。

INVALID_PARAMETER_VALUE

中参数“ ”的值无效:

INVALID_PRIVILEGE

的特权无效。

INVALID_PROPERTY_KEY

是一个无效的属性键,请使用引号,例如 SET =

INVALID_PROPERTY_VALUE

是一个无效的属性值,请使用引号,例如 SET =

INVALID_PROTOBUF_MESSAGE_TYPE

不是 Protobuf 消息类型

INVALID_S3_COPY_CREDENTIALS

COPY INTO 凭据必须包括 AWS_ACCESS_KEY、AWS_SECRET_KEY 和 AWS_SESSION_TOKEN。

INVALID_SCHEMA

输入架构不是有效的架构字符串。

有关更多详细信息,请参阅 INVALID_SCHEMA

INVALID_SCHEME

Unity Catalog 不支持作为默认文件方案。

INVALID_SECRET_LOOKUP

机密查找无效:

有关更多详细信息,请参阅 INVALID_SECRET_LOOKUP

INVALID_SOURCE_CATALOG

源目录不得位于 SYNC 命令的 Unity Catalog 中。 已找到。

INVALID_SQL_ARG

sql() 参数无效。 请考虑将其替换为 SQL 文本语句。

INVALID_SQL_FUNCTION_PLAN_STRUCTURE

无效的 SQL 函数计划结构

INVALID_SQL_SYNTAX

无效的 SQL 语法:

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

暂存 查询中的暂存路径无效:

INVALID_SUBQUERY_EXPRESSION

子查询无效:

有关更多详细信息,请参阅 INVALID_SUBQUERY_EXPRESSION

INVALID_TIMESTAMP_FORMAT

提供的时间戳 与预期的语法 不匹配。

INVALID_TYPED_LITERAL

类型化文本的值无效:。

INVALID_UPGRADE_SYNTAX

源表在 Hive 元存储中,而目标表在 Unity Catalog 中。

INVALID_WHERE_CONDITION

WHERE 条件包含无效表达式:。

重写查询以避免 WHERE 子句中的窗口函数、聚合函数和生成器函数。

LOCATION_ALREADY_EXISTS

无法将托管表命名为 ,因为它的关联位置 已存在。 请选择其他表名,或者先删除现有位置。

MALFORMED_PROTOBUF_MESSAGE

在消息反序列化中检测到格式错误的 Protobuf 消息。 分析模式: 。 若要将格式错误的 protobuf 消息作为 null 结果处理,请尝试将选项“mode”设置为“PERMISSIVE”。

MANAGED_TABLE_WITH_CRED

不支持使用存储凭据创建托管表。

MISSING_AGGREGATION

非聚合表达式基于不参与 GROUP BY 子句的列。

将列或表达式添加到 GROUP BY、聚合表达式,或者在不关心返回组中哪些值时使用。

MISSING_GROUP_BY

查询不包含 GROUP BY 子句。 添加 GROUP BY 或使用 OVER 子句将其转换为窗口函数。

MISSING_NAME_FOR_CHECK_CONSTRAINT

CHECK 约束必须具有名称。

MISSING_STATIC_PARTITION_COLUMN

未知静态分区列:

MODIFY_BUILTIN_CATALOG

不支持修改内置目录。

MULTIPLE_LOAD_PATH

Databricks Delta 在 load() API 中不支持多个输入路径。

路径: 。 若要通过从同一 Delta 表加载多个路径来

生成单个数据帧,请加载

具有相应分区筛选器的 Delta 表。 如果多个路径

来自不同的 Delta 表,请使用数据集的 union()/unionByName() API

来合并由单独的 load() API 调用生成的数据帧。

MULTIPLE_MATCHING_CONSTRAINTS

找到至少两个与给定条件匹配的约束。

MULTI_UDF_INTERFACE_ERROR

不允许实现多个 UDF 接口,UDF 类

NAMESPACE_ALREADY_EXISTS

无法创建命名空间 ,因为它已存在。

选择其他名称、删除现有命名空间,或添加 IF NOT EXISTS 子句以容许现有的命名空间。

NAMESPACE_NOT_EMPTY

无法删除命名空间 ,因为它包含对象。

使用 DROP NAMESPACE ... CASCADE 删除命名空间及其所有对象。

NAMESPACE_NOT_FOUND

找不到命名空间 。 请验证该命名空间的拼写和正确性。

如果你未限定名称,请验证 current_schema() 输出,或正确限定名称。

若要容许删除时出错,请使用 DROP NAMESPACE IF EXISTS。

NESTED_AGGREGATE_FUNCTION

不允许在另一个聚合函数的参数中使用聚合函数。 请在子查询中使用内部聚合函数。

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

当 MERGE 语句中有多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略该条件。

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

当 MERGE 语句中有多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。

NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

当 MERGE 语句中有多个 NOT MATCHED 子句时,只有最后一个 NOT MATCHED 子句可以省略该条件。

NON_LITERAL_PIVOT_VALUES

必须为透视值提供文本表达式,但找到的是 。

NON_PARTITION_COLUMN

PARTITION 子句不能包含非分区列:。

NOT_SUPPORTED_WITH_DB_SQL

在 SQL 上不受支持。

NO_HANDLER_FOR_UDAF

没有适用于 UDAF“ ”的处理程序。 请改用 sparkSession.udf.register(…)。

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

在 Protobuf 架构中找不到

NO_UDF_INTERFACE

UDF 类 不实现任何 UDF 接口

NULLABLE_ARRAY_OR_MAP_ELEMENT

数组或映射位于包含可为空的元素,但要求它不可为 null。

NULLABLE_COLUMN_OR_FIELD

列或字段可为空,但要求它不可为 null。

NULL_COMPARISON_RESULT

比较结果为 null。 如果要将 null 处理为 0(相等),可以将“spark.sql.legacy.allowNullComparisonResultInArraySort”设置为“true”。

NULL_MAP_KEY

不能使用 null 作为映射键。

NUMERIC_OUT_OF_SUPPORTED_RANGE

值不能解释为数字,因为它的位数超过了 38 位。

NUMERIC_VALUE_OUT_OF_RANGE

无法表示为 Decimal( , )。 如有必要,请设置为“false”以绕过此错误,并改为返回 NULL。

NUM_COLUMNS_MISMATCH

只能对列数相同的输入执行,但第一个输入包含 列,而 输入包含 列。

OPERATION_REQUIRES_UNITY_CATALOG

操作 需要启用 Unity Catalog。

OP_NOT_SUPPORTED_READ_ONLY

在只读会话模式下不受支持。

ORDER_BY_POS_OUT_OF_RANGE

ORDER BY 位置 不在选择列表中(有效范围为 [1, ])。

PARSE_EMPTY_STATEMENT

语法错误,意外空语句

PARSE_SYNTAX_ERROR

位置或附近有语法错误

PARTITIONS_ALREADY_EXIST

无法在表 中添加 (ADD) 或重命名 (RENAME TO) 分区 ,因为它们已存在。

选择其他名称、删除现有分区,或添加 IF NOT EXISTS 子句以容许现有的分区。

PARTITIONS_NOT_FOUND

在表 中找不到分区

请验证分区规范和表名。

若要容许删除时出错,请使用 ALTER TABLE ... DROP IF EXISTS PARTITION。

PARTITION_METADATA

不允许在表上进行此操作,因为 Unity Catalog 中不支持存储分区元数据。

PATH_NOT_FOUND

路径不存在:。

PIVOT_VALUE_DATA_TYPE_MISMATCH

透视值“ ”无效:值数据类型 与透视列数据类型 不匹配

PROTOBUF_DEPENDENCY_NOT_FOUND

找不到依赖项:

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

读取路径中的 Protobuf 描述符文件时出错:

PROTOBUF_FIELD_MISSING

在 Protobuf 架构中的 处搜索与给定的 匹配的 。 候选项:

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

在 Protobuf 架构中找到了 ,但 SQL 架构中没有匹配项

PROTOBUF_FIELD_TYPE_MISMATCH

字段的类型不匹配:

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

不支持 Java 类。 有关备用选项,请联系 Databricks 支持人员。

PROTOBUF_MESSAGE_NOT_FOUND

无法在描述符中找到消息

PROTOBUF_TYPE_NOT_SUPPORT

尚不支持 Protobuf 类型:

QUERY_RESULT_PARSE_AS_ARROW_FAILED

将结果分析为 Arrow 数据集时发生内部错误。

QUERY_RESULT_READ_FROM_CLOUD_STORE_FAILED

从云存储下载结果集时发生内部错误。

QUERY_RESULT_WRITE_TO_CLOUD_STORE_FAILED

将结果集上传到云存储时发生内部错误。

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

函数调用具有 和 set,它们是彼此的别名。 请仅设置其中一个。

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

必须在没有名称的位置 分配函数 的必需

RECURSIVE_PROTOBUF_SCHEMA

在 Protobuf 架构中找到了递归引用,Spark 默认无法处理这种引用:。 请尝试将选项 recursive.fields.max.depth 设置为 0 到 10 之间。 不允许超过 10 个递归级别。

RENAME_SRC_PATH_NOT_FOUND

由于未找到 ,重命名失败

REQUIRED_PARAMETER_NOT_FOUND

在位置 处找不到函数 的必需参数 ,请按位置而不是按名称提供此参数。

RESERVED_CDC_COLUMNS_ON_WRITE

写入包含保留列 ,这些列

在内部用作更改数据馈送的元数据。 若要写入表,可以重命名/删除

这些列,或者将 设置为 false 来禁用表上的更改数据馈送。

设置为 false 来隐藏这些详细信息。

RESET_PERMISSION_TO_ORIGINAL

无法将原始权限 设置回创建的路径: 。 异常:

ROUTINE_ALREADY_EXISTS

无法创建函数 ,因为它已存在。

选择其他名称、删除或替换现有函数,或者添加 IF NOT EXISTS 子句以容许现有的函数。

ROUTINE_NOT_FOUND

找不到函数 。 请验证架构和目录的拼写和正确性。

如果未使用架构和目录限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP FUNCTION IF EXISTS。

ROUTINE_PARAMETER_NOT_FOUND

函数 不支持位置 处指定的参数

ROW_COLUMN_ACCESS

使用行筛选器或列掩码时出错:

有关更多详细信息,请参阅 ROW_COLUMN_ACCESS

SAMPLE_TABLE_PERMISSIONS

示例数据库/表不支持权限。

SCALAR_SUBQUERY_TOO_MANY_ROWS

用作表达式的子查询返回了多个行。

SCHEMA_ALREADY_EXISTS

无法创建架构 ,因为它已存在。

选择其他名称、删除现有架构,或添加 IF NOT EXISTS 子句以容许现有的架构。

SCHEMA_NOT_EMPTY

无法删除架构 ,因为它包含对象。

使用 DROP SCHEMA … CASCADE 删除架构及其所有对象。

SCHEMA_NOT_FOUND

找不到架构 。 请验证架构和目录的拼写和正确性。

如果你未使用目录限定名称,请验证 current_schema() 输出,或使用正确的目录限定名称。

若要容许删除时出错,请使用 DROP SCHEMA IF EXISTS。

SCHEMA_REGISTRY_CONFIGURATION_ERROR

无法初始化架构注册表中的架构。 .

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

函数的第二个参数需是整数。

STAGING_PATH_CURRENTLY_INACCESSIBLE

访问目标暂存路径 时发生暂时性错误,请在几分钟后重试

STAR_GROUP_BY_POS

使用 GROUP BY 和序号位置时,不允许在选择列表中使用星号 (*)。

STREAMING_TABLE_NOT_SUPPORTED

只能在增量实时表和 Databricks SQL 仓库中创建和刷新流式处理表。

STREAMING_TABLE_OPERATION_INTERNAL_ERROR

对流式处理表进行操作期间出现内部错误:请提交 bug 报告。

STREAMING_TABLE_OPERATION_NOT_ALLOWED

不允许该操作:

有关更多详细信息,请参阅 STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAM_FAILED

查询 [id = , runId = ] 已终止并发生异常:

SYNC_METADATA_DELTA_ONLY

仅 delta 表支持修复表同步元数据命令。

SYNC_METADATA_NOT_SUPPORTED

仅 Unity Catalog 表支持修复表同步元数据命令。

SYNC_SRC_TARGET_TBL_NOT_SAME

源表名称必须与目标表名相同。

TABLE_OR_VIEW_ALREADY_EXISTS

无法创建表或视图 ,因为它已存在。

选择其他名称、删除或替换现有对象、添加 IF NOT EXISTS 子句以容许预先存在的对象,或添加 OR REFRESH 子句来刷新现有的流式处理表。

TABLE_OR_VIEW_NOT_FOUND

找不到表或视图 。 请验证架构和目录的拼写和正确性。

如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

若要容许删除时出错,请使用 DROP VIEW IF EXISTS 或 DROP TABLE IF EXISTS。

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

无法创建临时视图 ,因为它已存在。

选择其他名称、删除或替换现有视图,或者添加 IF NOT EXISTS 子句以容许现有的视图。

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

CREATE TEMPORARY VIEW 或相应的数据集 API 仅接受单部分视图名称,但为 :

TOO_MANY_ARRAY_ELEMENTS

无法使用大小为 个元素初始化数组

UC_BUCKETED_TABLES

Unity Catalog 中不支持存储桶表。

UC_CATALOG_NAME_NOT_PROVIDED

对于 Unity Catalog,请显式指定目录名称。 例如,在主目录上显示授予 your.address@email.com 权限。

UC_COMMAND_NOT_SUPPORTED

在 Unity Catalog 中不支持。

UC_DATASOURCE_NOT_SUPPORTED

Unity Catalog 中不支持数据源格式。

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

Unity Catalog 中不支持数据源选项。

UC_INVALID_NAMESPACE

Unity Catalog 中不支持嵌套或空命名空间。

UC_INVALID_REFERENCE

无法在 Unity Catalog 对象中引用非 Unity Catalog 对象。

UC_NOT_ENABLED

此群集上未启用 Unity Catalog。

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

用户定义的函数不支持参数默认值。

UDF_USER_CODE_ERROR

函数执行失败。

== 错误 ==

== Stacktrace ==

UNABLE_TO_ACQUIRE_MEMORY

无法获取内存字节,但得到

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

无法将 SQL 类型 转换为 Protobuf 类型

UNBOUND_SQL_PARAMETER

找到未绑定的参数:。 请修复 args 并提供对 SQL 文本语句的映射参数。

UNCLOSED_BRACKETED_COMMENT

找到未闭合的方括号注释。 请在注释的末尾追加 */。

UNEXPECTED_INPUT_TYPE

函数的参数需要类型 ,但类型为 。

UNEXPECTED_POSITIONAL_ARGUMENT

函数 的调用在命名参数 赋值后面包含一个位置自变量。 这是无效的。

UNKNOWN_POSITIONAL_ARGUMENT

函数 的调用在位置 处包含一个未知的位置自变量 。 这是无效的。

UNKNOWN_PROTOBUF_MESSAGE_TYPE

尝试将 视为消息,但它是

UNKNOWN_TABLE_TYPE

不支持的表。

UNPIVOT_REQUIRES_ATTRIBUTES

当未给定 表达式时,UNPIVOT 要求所有给定的 表达式都是列。 这些表达式不是列:[ ]。

UNPIVOT_REQUIRES_VALUE_COLUMNS

至少需要为 UNPIVOT 指定一个值列,所有列均指定为 ID

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

逆透视值列必须共享一个最不常见的类型,不包括某些类型:[]

UNPIVOT_VALUE_SIZE_MISMATCH

所有逆透视值列的大小必须与值列名称 ( ) 相同

UNRECOGNIZED_SQL_TYPE

无法识别的 SQL 类型

UNRESOLVED_ALL_IN_GROUP_BY

无法基于 select 子句推断 GROUP BY ALL 的分组列。 请显式指定分组列。

UNRESOLVED_COLUMN

无法解析具有名称的列或函数参数。

有关更多详细信息,请参阅 UNRESOLVED_COLUMN

UNRESOLVED_FIELD

无法使用结构类型列解析具有名称的字段。

有关更多详细信息,请参阅 UNRESOLVED_FIELD

UNRESOLVED_MAP_KEY

无法将列解析为映射键。 如果键是字符串字面量,请在其周围添加单引号。

有关更多详细信息,请参阅 UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

无法解析搜索路径 上的函数。

UNSUPPORTED_CONSTRAINT_CLAUSES

不支持约束子句。

UNSUPPORTED_CONSTRAINT_TYPE

不支持的约束类型。 仅支持

UNSUPPORTED_DATATYPE

不支持的数据类型

UNSUPPORTED_DESERIALIZER

不支持反序列化程序:

有关详细信息,请参阅 UNSUPPORTED_DESERIALIZER

UNSUPPORTED_FEATURE

不支持该功能:

有关详细信息,请参阅 UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

不支持的用户定义函数类型:

UNSUPPORTED_GENERATOR

不支持生成器:

有关详细信息,请参阅 UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

grouping()/grouping_id() 只能与 GroupingSets/Cube/Rollup 结合使用

UNSUPPORTED_SAVE_MODE

不支持保存模式

有关详细信息,请参阅 UNSUPPORTED_SAVE_MODE

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

不支持将数据源 用作共享群集上的流式处理接收器。

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

不支持将数据源 用作共享群集上的流式处理源。

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

函数不支持流式处理。 请删除 STREAM 关键字

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

不支持的子查询表达式:

有关更多详细信息,请参阅 UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TYPED_LITERAL

不支持 类型的文本。 支持的类型为。

UNTYPED_SCALA_UDF

你正在使用非类型化的 Scala UDF,则该 UDF 没有输入类型信息。 Spark 可能会盲目地向具有基元类型参数的 Scala 闭包传递 NULL,闭包将看到 NULL 参数的 Java 类型的默认值,例如 udf((x: Int) =\> x, IntegerType) ,NULL 输入的结果为 0。 若要消除此错误,可以:

  • 使用类型化的 Scala UDF API(没有返回类型参数),例如 udf((x: Int) =\> x)
  • 如果输入类型都是非基元,则使用 Java UDF API,例如 udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
  • 将“spark.sql.legacy.allowUntypedScalaUDF”设置为“true”,并谨慎使用此 API
  • UPGRADE_NOT_SUPPORTED

    表不符合从 Hive 元存储升级到 Unity Catalog 的条件。 原因:

    有关更多详细信息,请参阅 UPGRADE_NOT_SUPPORTED

    USER_DEFINED_FUNCTIONS

    用户定义函数无效:

    有关更多详细信息,请参阅 USER_DEFINED_FUNCTIONS

    VIEW_ALREADY_EXISTS

    无法创建视图,因为它已存在。

    选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。

    VIEW_NOT_FOUND

    找不到视图。 请验证架构和目录的拼写和正确性。

    如果未使用架构限定名称,请验证 current_schema() 输出,或使用正确的架构和目录限定名称。

    若要容许删除时出错,请使用 DROP VIEW IF EXISTS。

    VOLUME_ALREADY_EXISTS

    无法创建卷,因为它已存在。

    选择其他名称、删除或替换现有对象,或者添加 IF NOT EXISTS 子句以容许现有的对象。

    WITH_CREDENTIAL

    不支持 WITH CREDENTIAL 语法。

    WRITE_STREAM_NOT_ALLOWED

    只能在流式处理数据集/数据帧上调用 writeStream

    WRONG_NUM_ARGS

    函数 的参数数目无效。

    有关更多详细信息,请参阅 WRONG_NUM_ARGS

    ZORDERBY_COLUMN_DOES_NOT_EXIST

    ZOrderBy 列 不存在。

    Delta Lake

    DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

    找不到活动的 SparkSession

    DELTA_ACTIVE_TRANSACTION_ALREADY_SET

    当 txn 已处于活动状态时,无法将新的 txn 设置为活动状态

    DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

    未能添加列,因为名称是保留的。

    DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

    要添加列 的索引 小于 0

    DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

    无法添加,因为其父级不是 StructType。 已找到

    DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

    未在位置 找到结构

    DELTA_ADD_CONSTRAINTS

    请使用 ALTER TABLE ADD CONSTRAINT 添加 CHECK 约束。

    DELTA_AGGREGATE_IN_GENERATED_COLUMN

    已找到。 生成的列不能使用聚合表达式

    DELTA_AGGREGATION_NOT_SUPPORTED

    中不支持聚合函数。

    DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

    ALTER TABLE CHANGE COLUMN 不支持将列 更改为

    DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

    不允许的操作:不允许对 S3 上的托管 Delta 表执行 ALTER TABLE RENAME TO 操作,因为 S3 上的最终一致性可能会损坏 Delta 事务日志。 如果你坚持这样做,并确保以前从未有过具有新名称的 Delta 表,可以通过将 设置为 true 来启用它。

    DELTA_AMBIGUOUS_PARTITION_COLUMN

    不明确的分区列可以是。

    DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

    CREATE TABLE 包含两个不同的位置:

    可以从 CREATE TABLE 语句中删除 LOCATION 子句,或将 设置

    为 true 以跳过此检查。

    DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

    如果表启用了更改数据馈送 (CDF),并且已使用 DROP COLUMN 或 RENAME COLUMN 进行架构更改,则不允许执行操作“”。

    DELTA_BLOCK_COLUMN_MAPPING_SCHEMA_INCOMPATIBLE_OPERATION

    在具有读取不兼容的架构更改(例如重命名或删除或数据类型更改)的表上不受支持。

    读取的架构: 不兼容的数据架构:。

    虽然强烈建议不要这样做,但你也可以通过打开 SQL conf 来强制忽略架构检查,但需自行承担结果可能不正确的风险。

    DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

    无法删除以下不存在的列的 Bloom 筛选器索引:

    DELTA_CANNOT_CHANGE_DATA_TYPE

    无法更改数据类型:

    DELTA_CANNOT_CHANGE_LOCATION

    无法使用 SET TBLPROPERTIES 更改 Delta 表的“位置”。 请改用 ALTER TABLE SET LOCATION。

    DELTA_CANNOT_CHANGE_PROVIDER

    “provider”是保留的表属性,不能更改。

    DELTA_CANNOT_CONVERT_TO_FILEFORMAT

    无法将 转换为 FileFormat。

    DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

    无法为以下不存在的列创建 Bloom 筛选器索引:

    DELTA_CANNOT_CREATE_LOG_PATH

    DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

    无法描述视图的历史记录。

    DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

    无法删除非索引列 上的 bloom 筛选器索引

    DELTA_CANNOT_EVALUATE_EXPRESSION

    无法计算表达式:

    DELTA_CANNOT_FIND_BUCKET_SPEC

    需要 Bucket 存储 Delta 表,但在表中找不到 Bucket 规格

    DELTA_CANNOT_FIND_VERSION

    无法在 中找到“sourceVersion”

    DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

    无法生成表达式 的代码

    DELTA_CANNOT_GENERATE_UPDATE_EXPRESSIONS

    不带生成的列的调用应始终返回每个列的更新表达式

    DELTA_CANNOT_MODIFY_APPEND_ONLY

    此表配置为仅允许追加。 如果要允许更新或删除,请使用“ALTER TABLE <table_name> SET TBLPROPERTIES ( =false)”。

    DELTA_CANNOT_MODIFY_TABLE_PROPERTY

    用户无法指定 Delta 表配置

    DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

    在事务日志中找到无法转换为相对路径的 uri ( )。

    DELTA_CANNOT_RELATIVIZE_PATH

    无法与事务日志中找到的当前输入相对化的

    路径 ( )。 请用以下方式重新运行:

    %%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(" ", true)

    然后运行:

    %%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(" ")

    DELTA_CANNOT_RENAME_PATH

    无法将 重命名为

    DELTA_CANNOT_REPLACE_MISSING_TABLE

    无法替换表 ,因为它不存在。 使用 CREATE OR REPLACE TABLE 创建表。

    DELTA_CANNOT_RESOLVE_COLUMN

    无法解析 中的列

    DELTA_CANNOT_RESOLVE_SOURCE_COLUMN

    无法在源查询中解析限定源列 。 请联系 Databricks 支持人员。

    DELTA_CANNOT_RESTORE_TABLE_VERSION

    无法将表还原到 版本。 可用版本:[ , ]。

    DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

    无法将表还原到时间戳 ( ),因为它在可用的最新版本之后。 请使用早于 ( ) 的时间戳

    DELTA_CANNOT_SET_LOCATION_MULTIPLE_TIMES

    无法多次设置位置。 已找到

    DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

    无法更改基于路径的表的位置。

    DELTA_CANNOT_UPDATE_ARRAY_FIELD

    无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.element 来更新元素

    DELTA_CANNOT_UPDATE_MAP_FIELD

    无法更新 %1$s 字段 %2$s 类型:通过更新 %2$s.key 或 %2$s.value 更新映射

    DELTA_CANNOT_UPDATE_OTHER_FIELD

    无法更新 类型的字段

    DELTA_CANNOT_UPDATE_STRUCT_FIELD

    无法更新 字段 类型:通过添加、删除或更新其字段来更新结构

    DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

    无法将所有列用于分区列

    DELTA_CANNOT_WRITE_INTO_VIEW

    是视图。 不支持对视图的写入。

    DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

    无法设置配置 delta.enableChangeDataFeed。 来自 Delta 的更改数据馈送尚不可用。

    DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

    由于数据架构不兼容,检索版本 和 之间的表更改失败。

    读取架构处于版本 ,但我们发现版本 处的数据架构不兼容。

    如果可能,请使用通过设置为 endVersion 的最终版本的架构来检索表更改,或者联系支持人员。

    DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

    由于架构更改不兼容,检索版本 和 之间的表更改失败。

    你的读取架构处于版本 ,但我们发现版本 处的架构更改不兼容。

    如果可能,请分别将查询表从版本 更改为 - 1,从版本 更改为 。

    DELTA_CHANGE_TABLE_FEED_DISABLED

    无法写入到设置了 delta.enableChangeDataFeed 的表。 来自 Delta 的更改数据馈送不可用。

    DELTA_CHECKPOINT_NON_EXIST_TABLE

    无法为不存在的表创建检查点。 是否手动删除了 _delta_log 目录中的文件?

    DELTA_CHECKPOINT_SNAPSHOT_MISMATCH

    检查点的状态与快照状态不匹配。

    DELTA_CLONE_AMBIGUOUS_TARGET

    提供两条路径作为 CLONE 目标,因此使用哪条路径是不明确的。 在提供

    路径的同时,还在 处提供 CLONE 的外部位置

    DELTA_CLONE_INCOMPLETE_FILE_COPY

    未完全复制文件 ( )。 预期文件大小 ,找到: 。 若要忽略文件大小检查以继续操作,请将 \<config\> 设置为 false。

    DELTA_CLONE_UNSUPPORTED_SOURCE

    克隆源 '' 不受支持,其格式为 。

    支持的格式为“delta”(任何模式)和“parquet”(仅限浅表)。

    DELTA_COLUMN_NOT_FOUND

    无法找到给定 [ ] 的 \<columnName\>

    DELTA_COLUMN_NOT_FOUND_IN_MERGE

    无法从以下 INSERT 列找到目标表的列“”:。 INSERT 子句必须为目标表的所有列指定值。

    DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

    在下列位置无法找到 列:

    DELTA_COLUMN_PATH_NOT_NESTED

    应为嵌套数据类型,但找到的类型为 正在查找

    嵌套字段中的索引

    DELTA_COLUMN_STRUCT_TYPE_MISMATCH

    结构列 无法插入到 中的 字段

    DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

    列中发现嵌套的 NullType,其数据类型为 。 Delta 不支持在复杂类型中写入 NullType。

    DELTA_CONFLICT_SET_COLUMN

    这些 SET 列 ( ) 之间存在冲突。

    DELTA_CONSTRAINT_ALREADY_EXISTS

    约束“”已存在。 请先删除旧约束。

    DELTA_CONSTRAINT_DOES_NOT_EXIST

    无法从表 中删除不存在的约束 。 若要避免引发错误,请提供参数 IF EXISTS 或将 SQL 会话配置 设置为

    DELTA_CONVERSION_NO_PARTITION_FOUND

    在目录中找不到表 的分区信息。 你是否已对你的表运行“MSCK REPAIR TABLE”来发现分区?

    DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

    使用 CONVERT TO DELTA 时,无法将配置“ ”设置为 \<mode\>

    DELTA_CONVERT_NON_PARQUET_TABLE

    CONVERT TO DELTA 仅支持 Parquet 表,但你尝试转换源:

    DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

    你正在尝试使用 Delta 从

    \<path\> 创建外部表 ,但在输入路径为空时

    未指定架构。

    若要详细了解 Delta,请参阅

    DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

    你正在尝试使用 Delta 从

    %2$s 创建外部表,但 %2$s/_delta_log 中不存在事务日志。

    %2$s/_delta_log . 检查上游作业,确保它正在使用

    格式(“delta”)写入,并且该路径是表的根。

    若要详细了解 Delta,请参阅

    DELTA_CREATE_TABLE_SCHEME_MISMATCH

    指定的架构与位于 的现有架构不匹配。

    == Specified ==

    == Existing ==

    == Differences ==

    如果打算保留现有架构,可以

    从 create table 命令省略该架构。 否则请确保

    架构匹配。

    DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

    指定的分区与 处的现有分区不匹配。

    == Specified ==

    == Existing ==

    DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

    指定的属性与位于以下位置的现有属性不匹配:。

    == Specified ==

    == Existing ==

    DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

    无法创建表 (‘’)。 关联的位置 (‘’) 不为空,并且它也不是 Delta 表。

    DELTA_DATA_CHANGE_FALSE

    无法更改表元数据,因为“dataChange”选项设置为 false。 尝试的操作:“”。

    DELTA_DELETION_VECTOR_CHECKSUM_MISMATCH

    无法验证删除向量完整性,CRC 校验和验证失败。

    DELTA_DELETION_VECTOR_SIZE_MISMATCH

    删除矢量完整性检查失败。 遇到大小不匹配的情况。

    DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

    删除列的索引低于 0

    DELTA_DUPLICATE_COLUMNS_FOUND

    已找到重复列:

    DELTA_DUPLICATE_COLUMNS_ON_INSERT

    INSERT 子句中的重复列名

    DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

    请在更新表之前删除重复的列。

    DELTA_DV_HISTOGRAM_DESERIALIZATON

    在表完整性验证期间,无法反序列化已删除的记录计数直方图。

    DELTA_EMPTY_DATA

    创建 Delta 表时使用的数据没有任何列。

    DELTA_EMPTY_DIRECTORY

    在以下目录中未找到任何文件:。

    DELTA_EXCEED_CHAR_VARCHAR_LIMIT

    超过 char/varchar 类型长度限制。 失败的检查:。

    DELTA_EXPRESSIONS_NOT_FOUND_IN_GENERATED_COLUMN

    无法在生成的列 中找到表达式

    DELTA_EXTRACT_REFERENCES_FIELD_NOT_FOUND

    提取引用时无法找到字段

    DELTA_FAILED_CAST_PARTITION_VALUE

    无法将分区值 \<value\> 强制转换为

    DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

    在现有目标输出中找不到

    DELTA_FAILED_FIND_PARTITION_COLUMN_IN_OUTPUT_PLAN

    在输出计划中无法找到。

    DELTA_FAILED_INFER_SCHEMA

    无法从给定的文件列表推断架构。

    DELTA_FAILED_MERGE_SCHEMA_FILE

    无法合并文件 的架构:

    无法读取文件的页脚:

    DELTA_FAILED_RECOGNIZE_PREDICATE

    无法识别谓词 ‘’

    DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

    需要对最新版本的 Delta 源进行完全扫描,但发现版本的历史扫描

    DELTA_FAILED_TO_MERGE_FIELDS

    无法合并字段“ ”和“ ”。

    DELTA_FAIL_RELATIVIZE_PATH

    未能将路径 () 相对化。 当绝对路径使其进入事务日志时

    就会发生这种情况,事务日志以架构

    s3://、wasbs:// 或 adls:// 开头。 这是 DBR 5.0 之前存在的 bug。

    要解决此问题,请将编写器作业升级到 DBR 5.0,然后运行:

    %%scala com.databricks.delta.Delta.fixAbsolutePathsInLog( )。

    如果此表是使用跨文件系统

    (不同的 bucket/容器)的浅克隆创建的,并且不在生产环境中使用,则可以

    设置 SQL 配置

    设置为 true。 使用此 SQL 配置可能会导致意外的数据丢失,

    因此我们不建议使用此标志,除非

    这是用于测试的浅克隆。

    DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

    无法对此表执行操作,因为以下表功能已在元数据中已启用,但在协议中未列出:。

    DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

    无法启用表功能,因为它需要更高的读取器协议版本(当前为 )。 请考虑将表的读取器协议版本升级到 ,或升级到支持读取器表功能的版本。 有关表协议版本的详细信息,请参阅 。

    DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

    无法启用表功能,因为它需要更高的编写器协议版本(当前为 )。 请考虑将表的编写器协议版本升级到 ,或升级到支持编写器表功能的版本。 有关表协议版本的详细信息,请参阅 。

    DELTA_FILE_ALREADY_EXISTS

    现有文件路径

    DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

    无法同时指定文件列表和模式字符串。

    DELTA_FILE_NOT_FOUND

    DELTA_FILE_OR_DIR_NOT_FOUND

    无此类文件或目录:

    DELTA_FILE_TO_OVERWRITE_NOT_FOUND

    未在候选文件中找到要重写的文件 ( ):

    DELTA_FOUND_MAP_TYPE_COLUMN

    已找到 MapType。 若要访问 MapType 的键或值,请指定一个

    后跟列的名称(仅当该列是结构类型时)。

    例如 mymap.key.mykey

    如果列是基本类型,mymap.key 或 mymap.value 就足够了。

    DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

    是生成的列或由生成的列使用的列。 数据类型为 。 它不接受数据类型

    DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

    生成的列 的表达式类型为 ,但列类型为

    DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

    是生成的列或由生成的列使用的列。 数据类型为 ,无法转换为数据类型

    DELTA_ILLEGAL_FILE_FOUND

    在 dataChange = false 事务中找到的非法文件。 文件:

    DELTA_ILLEGAL_OPTION

    选项 '' 的值“ ”无效,

    DELTA_ILLEGAL_USAGE

    对 Delta 表执行 时不允许使用

    DELTA_INCONSISTENT_BUCKET_SPEC

    Delta 存储表上的 BucketSpec 与元数据中的 BucketSpec 不匹配。应为: 。 实际:

    DELTA_INCONSISTENT_LOGSTORE_CONFS

    () 不能设置为不同的值。 请仅设置其中的一个,或将其设置为相同的值。

    DELTA_INCORRECT_ARRAY_ACCESS

    错误访问 ArrayType。 使用 arrayname.element.elementname 位置

    添加到数组。

    DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

    已找到 ArrayType。 要访问 ArrayType 的元素,请指定

    DELTA_INCORRECT_GET_CONF

    使用 getConf() 而不是 `conf.getConf()

    DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

    该错误通常在使用 LogStore 默认实现

    (即 hdfslostore)在非 HDFS 存储系统上写入 Delta 表时发生。

    若要获取表更新的事务 ACID 保证,必须使用

    适合你的存储系统的正确 LogStore 实现。

    请参阅 了解详细信息。

    DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

    删除列的索引 等于或大于结构长度:

    DELTA_INDEX_LARGER_THAN_STRUCT

    添加列 的索引 大于结构长度:

    DELTA_INSERT_COLUMN_ARITY_MISMATCH

    无法写入“ ”的 ,目标表具有 列,但插入的数据具有

    DELTA_INSERT_COLUMN_MISMATCH

    在 INSERT 中未指定列

    DELTA_INVALID_BUCKET_COUNT

    无效桶计数: 。 桶计数应该是一个正数,是 2 的幂,至少是 8。 可以改用 。

    DELTA_INVALID_BUCKET_INDEX

    无法在分区列中找到 Bucket 列

    DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

    间隔不能为 null 或空白。

    DELTA_INVALID_CDC_RANGE

    从起始值到结束值的 CDC 范围无效。 结束值不能早于起始值。

    DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

    属性名“ ”在“,;{}()\n\t=”中包含无效字符。 请使用别名对其进行重命名。

    DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

    在架构列名的“,;{}()\n\t=”中发现无效字符。

    DELTA_INVALID_CLONE_PATH

    CLONE 的目标位置需要是绝对路径或表名。 使用

    绝对路径而不是

    DELTA_INVALID_COMMITTED_VERSION

    提交的版本是 ,但当前版本是 。 请联系 Databricks 支持人员。

    DELTA_INVALID_FORMAT

    检测到不兼容的格式。

    \<deltaRootPath\>/_delta_log 处发现 Delta 事务日志,

    但你正尝试使用格式(“”)访问 \<path\> 。 必须在读取和

    写入 delta 表时使用“格式(‘delta’)”。

    若要禁用此检查,请设置 spark.databricks.delta.formatCheck.enabled=false

    若要详细了解 Delta,请参阅

    DELTA_INVALID_FORMAT_FROM_SOURCE_VERSION

    不支持的格式。 所需版本应该小于或等于 ,但是为 。 请升级到较新版本的 Delta。

    DELTA_INVALID_GENERATED_COLUMN_FORMAT

    生成的列仅受 Delta 支持

    DELTA_INVALID_GENERATED_COLUMN_REFERENCES

    生成的列不能使用不存在的列或其他生成的列

    DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

    幂等 Dataframe 写入的选项无效:

    DELTA_INVALID_INTERVAL

    不是有效的 INTERVAL。

    DELTA_INVALID_ISOLATION_LEVEL

    无效隔离级别“

    DELTA_INVALID_LOGSTORE_CONF

    无法同时设置 \<classConfig\> \<schemeConfig\> 。 请仅设置其中一组。

    DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

    你正在尝试使用 Delta 创建托管表

    但未指定架构。

    若要详细了解 Delta,请参阅

    DELTA_INVALID_PARTITIONING_SCHEMA

    AddFile 包含不同于表分区架构的分区架构

    若要禁用此检查,请将 设置为“false”

    DELTA_INVALID_PARTITION_COLUMN

    不是表 中的有效分区列。

    DELTA_INVALID_PARTITION_COLUMN_NAME

    在“,;{}()nt=”中找到了包含无效字符的分区列。 请将名称更改为分区列。 可以通过设置 spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false) 来关闭此检查,但不建议这样做,因为 Delta 的其他功能可能无法正常工作。

    DELTA_INVALID_PARTITION_COLUMN_TYPE

    不支持使用类型列作为分区列。

    DELTA_INVALID_PARTITION_PATH

    分区路径片段的形式应为 part1=foo/part2=bar 。 分区路径:

    DELTA_INVALID_PROTOCOL_DOWNGRADE

    协议版本无法从 降级到

    DELTA_INVALID_PROTOCOL_VERSION

    Delta 协议版本对于此版本的 Databricks 来说太新了:表需要 ,客户端最高支持 。 请升级到较新版本。

    DELTA_INVALID_SOURCE_VERSION

    sourceVersion( ) 无效

    DELTA_INVALID_TABLE_VALUE_FUNCTION

    函数是 CDC 读取不支持的表值函数。

    DELTA_INVALID_TIMESTAMP_FORMAT

    提供的时间戳 与预期的语法 不匹配。

    DELTA_INVALID_V1_TABLE_CALL

    调用不应使用基于 的路径

    DELTA_ITERATOR_ALREADY_CLOSED

    迭代器已关闭

    DELTA_LOG_ALREADY_EXISTS

    Delta 日志已存在于

    DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

    如果你从未删除过它,则可能是你的查询未跟上进度。 请删除其检查点以从头开始。 为了避免再次发生这种情况,可以更新 Delta 表的保留策略

    DELTA_MAX_ARRAY_SIZE_EXCEEDED

    请使用小于 Int.MaxValue - 8 的限制。

    DELTA_MAX_COMMIT_RETRIES_EXCEEDED

    此提交失败,因为它已尝试 次,但均未成功。

    这可能是由多个并发提交连续提交 Delta 表

    提交开始于版本:

    提交失败的版本:

    尝试提交的操作数:

    尝试此提交所花费的总时间: ms

    DELTA_MAX_LIST_FILE_EXCEEDED

    文件列表必须最多有 个条目,有 。

    DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

    无法将十进制类型与不兼容的 合并

    DELTA_MERGE_MISSING_WHEN

    MERGE 语句中必须至少包含一个 WHEN 子句。

    DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

    意外分配密钥: -

    DELTA_METADATA_ABSENT

    提交 Delta 表的第一个版本时找不到元数据。 若要禁用

    此检查,可设置为“false”

    DELTA_MISSING_CHANGE_DATA

    获取 [ , ] 范围的更改数据时出错,因为未记录

    版本 [ ] 的更改数据。 如果在此表上启用了更改数据馈送,

    请使用 DESCRIBE HISTORY 查看它首次启用的时间。

    否则,若要开始记录更改数据,请使用 `ALTER TABLE table_name SET TBLPROPERTIES

    ( =true)`。

    DELTA_MISSING_COLUMN

    无法在表列 ( ) 中找到

    DELTA_MISSING_DELTA_TABLE

    不是 Delta 表。

    DELTA_MISSING_FILES_UNEXPECTED_VERSION

    Delta 表中的流应从版本 处理数据,

    但是 _delta_log 目录中最早的可用版本为 。 事务日志

    中的文件可能因日志清理而被删除。 为了避免丢失

    数据,建议使用新的检查点位置重新启动流

    并增加 delta.logRetentionDuration 设置(如果已将其显式设置为 30 天

    如果想要忽略丢失的数据,并从其离开的位置继续

    流式传输,可以将 .option("

    readStream 语句的一部分。

    DELTA_MISSING_ICEBERG_CLASS

    找不到 Iceberg 类。 请确保已安装 Delta Iceberg 支持。

    有关更多详细信息,请参阅

    DELTA_MISSING_NOT_NULL_COLUMN_VALUE

    写入表中的数据中缺失具有 NOT NULL 约束的 列。

    DELTA_MISSING_PARTITION_COLUMN

    架构 中找不到分区列 \<columnName\>

    DELTA_MISSING_PART_FILES

    找不到检查点版本的所有部件文件:

    DELTA_MISSING_PROVIDER_FOR_CONVERT

    CONVERT TO DELTA 仅支持 Parquet 表。 请将目标重写为 Parquet。 如果它是 Parquet 目录,则为 \<path\>

    DELTA_MISSING_SET_COLUMN

    SET 列 没有找到给定列:

    DELTA_MISSING_TRANSACTION_LOG

    检测到不兼容的格式。

    你正在尝试使用 Delta 执行 \<path\> ,但没有

    事务日志。 检查上游作业,确保它正在使用

    格式(“delta”)写入,并且你正在尝试 %1$s 表基路径。

    若要禁用此检查,请设置 spark.databricks.delta.formatCheck.enabled=false

    若要详细了解 Delta,请参阅

    DELTA_MODE_NOT_SUPPORTED

    不支持指定模式“ ”。 支持的模式包括:

    DELTA_MULTIPLE_CDC_BOUNDARY

    为 CDC 读取提供的多个 参数。 请提供一个 时间戳或 版本。

    DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

    传递给 列命令的多个 bloom 筛选器索引配置

    DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

    无法执行合并,因为多个源行匹配并尝试

    以可能冲突的方式修改 Delta 表中的同一目标行。 根据合并的 SQL 语义,

    当多个源行在同一目标行上匹配时,结果可能是不明确的,

    因为不清楚应该使用哪一个源行来更新或删除匹配的

    目标行。 你可以预处理源表来消除

    出现多个匹配项的可能性。 请参阅在“建议的文档”中提供的链接中的

    DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

    以下列名仅限 Delta Bucket 表内部使用:

    DELTA_NESTED_FIELDS_NEED_RENAME

    需要重命名嵌套字段以避免数据丢失。 字段:

    原始架构:

    DELTA_NESTED_NOT_NULL_CONSTRAINT

    字段的类型包含 NOT NULL 约束。 Delta 不支持嵌套在数组或映射中的 NOT NULL 约束。 若要消除此错误并以静默方式忽略指定的约束,请设置 = true。

    分析的类型:

    DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

    条件不支持嵌套子查询。

    DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

    中有 行违反新的 CHECK 约束 ( )

    DELTA_NEW_NOT_NULL_VIOLATION

    中的行违反新的 NOT NULL 约束

    DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

    CHECK 约束“”() 应为布尔表达式。

    DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

    中不支持非确定性函数

    DELTA_NON_GENERATED_COLUMN_MISSING_UPDATE_EXPR

    不是生成的列,但缺少其更新表达式

    DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

    当 MERGE 语句中有多个 MATCHED 子句时,只有最后一个 MATCHED 子句可以省略该条件。

    DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

    当 MERGE 语句中有多个 NOT MATCHED BY SOURCE 子句时,只有最后一个 NOT MATCHED BY SOURCE 子句可以省略该条件。

    DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

    当 MERGE 语句中有多个 NOT MATCHED 子句时,只有最后一个 NOT MATCHED 子句可以省略该条件

    DELTA_NON_PARSABLE_TAG

    无法分析标签

    文件标签为:

    DELTA_NON_PARTITION_COLUMN_ABSENT

    写入 Delta 的数据需要包含至少一个非分区列。

    DELTA_NON_PARTITION_COLUMN_REFERENCE

    谓词引用非分区列“ ”。 只能引用分区列:[ ]

    DELTA_NON_PARTITION_COLUMN_SPECIFIED

    指定了非分区列,但只能指定分区列:。

    DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

    Delta 目录需要一个单部分命名空间,但提供了多部分命名空间。

    DELTA_NOT_A_DATABRICKS_DELTA_TABLE

    不是 Delta 表。 如果要使用 Databricks Delta 创建表,请先删除此表。

    DELTA_NOT_A_DELTA_TABLE

    不是 Delta 表。 如果要使用 Delta Lake 重新创建表,请先删除此表。

    DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

    未在结构 中找到不可为空的列

    DELTA_NOT_NULL_CONSTRAINT_VIOLATED

    违反了 NOT NULL 约束。

    DELTA_NOT_NULL_NESTED_FIELD

    无法将不可为 null 的嵌套字段添加到可为空的父列。 请相应地设置父列的可为 Null 性。

    DELTA_NO_COMMITS_FOUND

    未在 找到提交

    DELTA_NO_NEW_ATTRIBUTE_ID

    无法找到 列的新属性 ID。 这应该提前检查。

    DELTA_NO_RECREATABLE_HISTORY_FOUND

    在以下位置找不到可重新创建的提交:

    DELTA_NO_RELATION_TABLE

    DELTA_NO_START_FOR_CDC_READ

    没有为 CDC 读取提供 startingVersion 或 startingTimestamp。

    DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

    Delta 不接受架构中的 NullType 进行流式处理写入。

    DELTA_ONEOF_IN_TIMETRAVEL

    请提供“timestampAsOf”或“versionAsOf”以按时间顺序查看。

    DELTA_ONLY_OPERATION

    仅支持用于 Delta 表。

    DELTA_OPERATION_MISSING_PATH

    请为 提供路径或表标识符。

    DELTA_OPERATION_NOT_ALLOWED

    不允许操作:Delta 表不支持 \<operation\>

    DELTA_OPERATION_NOT_ALLOWED_DETAIL

    不允许操作:Delta 表 不支持 \<operation\>

    DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

    不支持在引用 Delta 表(包含生成列)的临时视图上执行 命令。 请直接在 Delta 表上运行 命令

    DELTA_OVERWRITE_MUST_BE_TRUE

    如果未设置 OVERWRITE =“true”,则无法指定复制选项 overwriteSchema。

    DELTA_PARTITION_COLUMN_CAST_FAILED

    未能将分区列 \<columnName\> 的值 \<value\> 强制转换为 \<dataType\>

    DELTA_PARTITION_COLUMN_NOT_FOUND

    在架构 [] 中找不到分区列

    DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

    转换 Iceberg 表时,无法指定分区架构。 系统会自动推理该架构。

    DELTA_PATH_DOES_NOT_EXIST

    DELTA_PATH_EXISTS

    如果未设置 OVERWRITE =“true”,则无法写入已存在的路径。

    DELTA_POST_COMMIT_HOOK_FAILED

    可成功提交 Delta 表版本 ,但在执行提交后挂钩 时出错

    DELTA_PROTOCOL_PROPERTY_NOT_INT

    协议属性 需要是整数。 已找到

    DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

    无法仅升级读取器协议版本以使用表功能。 编写器协议版本必须至少为 才能继续操作。 有关表协议版本的详细信息,请参阅 。

    DELTA_READ_TABLE_WITHOUT_COLUMNS

    尝试读取没有任何列的 Delta 表。

    使用 mergeSchema = true 选项写入一些新数据,以便能够读取表。

    DELTA_REGEX_OPT_SYNTAX_ERROR

    请重新检查“ ”的语法

    DELTA_REMOVE_FILE_CDC_MISSING_EXTENDED_METADATA

    在不使用扩展元数据的情况下创建的 RemoveFile 不适合 CDC:

    DELTA_REPLACE_WHERE_IN_OVERWRITE

    不能将 replaceWhere 与“按筛选器覆盖”结合使用

    DELTA_REPLACE_WHERE_MISMATCH

    写出的数据与 replaceWhere“ ”不匹配。

    DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

    “replaceWhere”表达式和“partitionOverwriteMode”=“dynamic”不能在 DataFrameWriter 选项中设置。

    DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

    当“dataChange”设置为 false 时,“replaceWhere”不能与数据筛选器结合使用。 筛选器:

    DELTA_SCHEMA_CHANGED

    检测到架构更改:

    流式处理源架构:

    数据文件架构:

    请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

    进展,则原因是你做出了不兼容的架构更改,需要

    使用新的检查点目录从头开始启动查询。

    DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

    在版本 中检测到架构更改:

    流式处理源架构:

    数据文件架构:

    请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

    进展,则原因是你做出了不兼容的架构更改,需要

    使用新的检查点目录从头开始启动查询。 如果该问题在更改为

    新的检查点目录后仍然出现,你可能需要更改现有的

    “startingVersion”或“startingTimestamp”选项,以使用新的检查点目录

    从高于 的版本重新开始。

    DELTA_SCHEMA_CHANGED_WITH_VERSION

    在版本 中检测到架构更改:

    流式处理源架构:

    数据文件架构:

    请尝试重启查询。 如果每次重启查询后此问题重复出现,并且没有

    进展,则原因是你做出了不兼容的架构更改,需要

    使用新的检查点目录从头开始启动查询。

    DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

    自创建 DataFrame 或 DeltaTable 对象以来,

    Delta 表的架构已经以不兼容的方式发生更改。 请重新定义 DataFrame 或 DeltaTable 对象。

    DELTA_SCHEMA_NOT_CONSISTENT_WITH_TARGET

    表架构与目标属性不一致:

    DELTA_SCHEMA_NOT_PROVIDED

    未提供表架构。 使用 REPLACE 表且未提供 AS SELECT 查询时,请提供表的架构(列定义)。

    DELTA_SCHEMA_NOT_SET

    表架构未设置。 将数据写入其中或使用 CREATE TABLE 设置架构。

    DELTA_SET_LOCATION_SCHEMA_MISMATCH

    新 Delta 位置的架构不同于当前表架构。

    原始架构:

    目标架构:

    如果这是预期更改,可以通过运行以下内容来关闭此检查:

    %%sql set = true

    DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

    为 SHOW PARTITIONS 指定了非分区列

    DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

    在未分区的表上不允许 SHOW PARTITIONS:

    DELTA_SOURCE_IGNORE_DELETE

    在版本的流源中检测到已删除的数据(例如 )。 目前不支持。 如果要忽略删除,请将选项“ignoreDeletes”设置为“true”。 源表可以在以下路径中找到:

    DELTA_SOURCE_TABLE_IGNORE_CHANGES

    在版本 的源表中检测到数据更新(例如 )。 目前不支持。 如果要忽略更新,请将选项“ignoreChanges”设置为“true”。 如果你想要反映数据更新,请使用全新的检查点目录重启此查询。 源表可以在以下路径中找到:

    DELTA_SPARK_SESSION_NOT_SET

    未设置活动的 SparkSession。

    DELTA_SPARK_THREAD_NOT_FOUND

    未在 Spark 任务线程上运行

    DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

    请提供 '' 或 ''

    DELTA_STATE_RECOVER_ERROR

    重新构造版本 时无法恢复

    Delta 表的 。 是否手动删除了 _delta_log 目录中的文件?

    DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

    在 Parquet 元数据中找不到列的 统计信息:

    DELTA_STREAM_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

    检查列映射架构更改时无法获取起始版本的 Delta 日志快照。 请选择其他起始版本,或通过将 '' 设置为“true”来强制启用流式读取,但需自负风险。

    DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

    无法对表启用变更数据捕获。 表已包含

    这些列将在内部用作表的更改数据馈送的元数据。 若要为

    表上的更改数据馈送将重命名/删除这些列。

    DELTA_TABLE_ALREADY_EXISTS

    已经存在。

    DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

    DeltaTable.forPath 目前仅支持以 开头的 hadoop 配置键,但获取的键为

    DELTA_TABLE_FOUND_IN_EXECUTOR

    DeltaTable 不能在执行程序中使用

    DELTA_TABLE_LOCATION_MISMATCH

    现有表的位置为 它与指定的位置不匹配。

    DELTA_TABLE_NOT_FOUND

    Delta 表 不存在。

    DELTA_TABLE_NOT_FOUND_STREAMING

    Delta 表 不存在。 请删除流式处理查询检查点并重启。

    DELTA_TABLE_NOT_SUPPORTED_IN_OP

    表在 中不受支持。 请改用路径。

    DELTA_TABLE_ONLY_OPERATION

    不是 Delta 表。 仅支持用于 Delta 表。

    DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

    目标表最终架构为空。

    DELTA_TIMESTAMP_GREATER_THAN_COMMIT

    提供的时间戳 ( ) 晚于该表 ( ) 的

    最新版本可用时间。 请使用早于或等于 的时间戳。

    DELTA_TIMESTAMP_INVALID

    提供的时间戳 () 无法转换为有效时间戳。

    DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

    需要是有效的开始值。

    DELTA_TRUNCATED_TRANSACTION_LOG

    :由于手动删除或日志保留策略 (=) 和检查点保留策略 (=) 导致事务日志被截断,无法在版本中重构状态

    DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

    不允许操作:Delta 表上的 TRUNCATE TABLE 不支持分区谓词;使用 DELETE 删除特定的分区或行。

    DELTA_TXN_LOG_FAILED_INTEGRITY

    事务日志未通过完整性检查。 未通过验证的版本为:

    DELTA_UDF_IN_GENERATED_COLUMN

    已找到。 生成的列不能使用用户定义的函数

    DELTA_UNEXPECTED_ACTION_EXPRESSION

    意外的操作表达式

    DELTA_UNEXPECTED_ACTION_IN_OPTIMIZE

    类型为 的意外操作 。 优化应仅具有 AddFiles 和 RemoveFiles。

    DELTA_UNEXPECTED_ALIAS

    需要别名,但收到了

    DELTA_UNEXPECTED_ATTRIBUTE_REFERENCE

    应为 AttributeReference,但得到的是

    DELTA_UNEXPECTED_CHANGE_FILES_FOUND

    在 dataChange = false 事务中找到的更改文件。 文件:

    DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

    需要分区列 ,但通过分析文件名找到分区列:

    DELTA_UNEXPECTED_PARTIAL_SCAN

    应对 Delta 源进行完整扫描,但发现只扫描了一部分。 path:

    DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

    需要分区列 ,但通过分析文件名找到了分区列:

    DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

    用于调用 CONVERT TO DELTA 的分区架构不同于从目录推理的分区架构,请避免提供架构,以便可以从目录中选择分区架构。

    目录分区架构:

    提供的分区架构:

    DELTA_UNEXPECTED_PROJECT

    需要提供项目,但收到了

    DELTA_UNKNOWN_CONFIGURATION

    指定了未知配置:

    DELTA_UNKNOWN_PRIVILEGE

    未知特权:

    DELTA_UNKNOWN_READ_LIMIT

    未知 ReadLimit:

    DELTA_UNRECOGNIZED_COLUMN_CHANGE

    无法识别的列更改 。 运行的 Delta Lake 版本可能已过时。

    DELTA_UNRECOGNIZED_FILE_ACTION

    无法识别类型为 的文件操作。

    DELTA_UNRECOGNIZED_INVARIANT

    无法识别的不变量。 请升级 Spark 版本。

    DELTA_UNRECOGNIZED_LOGFILE

    无法识别的日志文件

    DELTA_UNSET_NON_EXISTENT_PROPERTY

    尝试取消设置表 中不存在的属性“

    DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

    不支持使用绝对路径添加文件

    DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

    ALTER TABLE REPLACE COLUMNS 操作不受支持。 原因:

    无法将架构从 更改为

    DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

    你尝试将现有表 ( ) 替换为 CLONE。 此操作

    不受支持。 尝试使用其他 CLONE 目标位置或删除当前目标位置中的表。

    DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

    不支持将列映射模式从“ ”更改为“ ”。

    DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

    当前表协议版本不支持使用 更改

    列映射模式。

    列映射所需的 Delta 协议版本:

    表的当前 Delta 协议版本:

    DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

    检测到架构更改:

    在更改列映射模式期间不允许更改架构。

    DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

    不支持使用列映射模式写入数据。

    DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

    不支持在类型为 列上创建 bloom 筛选器索引

    DELTA_UNSUPPORTED_DATA_TYPES

    发现有列使用不受支持的数据类型: 。 可以将“ ”设置为“false”以禁用类型检查。 禁用此类型检查后,用户可以创建不受支持的 Delta 表,并且仅应在尝试读取/写入旧表时使用此选项。

    DELTA_UNSUPPORTED_DEEP_CLONE

    此 Delta 版本不支持深度克隆。

    DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

    是视图。 只有表支持 DESCRIBE DETAIL。

    DELTA_UNSUPPORTED_DROP_COLUMN

    Delta 表不支持 DROP COLUMN。

    DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

    只能从 StructType 中删除嵌套列。 已找到

    DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

    不允许删除分区列 ( )。

    DELTA_UNSUPPORTED_EXPRESSION

    不支持的表达式类型。 支持的类型为 []。

    DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

    无法在生成的列中使用

    DELTA_UNSUPPORTED_FEATURES_FOR_READ

    无法读取此表,因为它需要此版本的 Databricks 不支持的读取器表功能:。

    DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

    无法写入此表,因为它需要此版本的 Databricks 不支持的编写器表功能:。

    DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

    此版本的 Databricks 未识别在以下 Spark 配置或 Delta 表属性中配置的表功能:。

    DELTA_UNSUPPORTED_FEATURE_STATUS

    预期表功能的状态为“已启用”,但状态为“”。

    DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

    仅 StructType 支持更新嵌套字段,但你在尝试更新类型为 的字段。

    DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

    包含删除向量的表版本不支持“FSCK REPAIR TABLE”命令。

    DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

    删除矢量的表版本不支持“GENERATE symlink_format_manifest”命令。

    若要在不删除向量的情况下生成表的版本,请运行“REORG TABLE table APPLY (PURGE)”。 然后重新运行“GENERATE”命令。

    请确保没有并发事务再次在 REORG 和 GENERATE 之间添加删除向量。

    如果需要定期生成清单,或者无法阻止并发事务,请考虑使用“ALTER TABLE table SET TBLPROPERTIES (createDeletionVectors = false)”禁用此表上的删除向量。

    DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

    不支持 StructType 以外的嵌套字段上的不变量。

    DELTA_UNSUPPORTED_IN_SUBQUERY

    条件中不支持 In 子查询。

    DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

    listKeywithPrefix 不可用

    DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

    利用列映射的表不支持清单生成,因为外部读取器无法读取这些 Delta 表。 有关更多详细信息,请参阅 Delta 文档。

    DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

    带有架构演变的 MERGE INTO 操作目前不支持写入 CDC 输出。

    DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

    条件中不支持多列 In 谓词。

    DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

    目前不支持在嵌套列 上创建 bloom 筛选器索引

    DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

    中不支持嵌套字段 (field = )。

    DELTA_UNSUPPORTED_NON_EMPTY_CLONE

    克隆目标表不为空。 在运行 CLONE 之前请对表运行 TRUNCATE 或 DELETE FROM。

    DELTA_UNSUPPORTED_OUTPUT_MODE

    数据源 不支持输出模式

    DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

    不支持在分区列 上创建 bloom 筛选器索引

    DELTA_UNSUPPORTED_RENAME_COLUMN

    Delta 表不支持列重命名。

    DELTA_UNSUPPORTED_SCHEMA_DURING_READ

    Delta 不支持在读取时指定架构。

    DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

    Delta Bucket 表不支持 SORTED BY

    DELTA_UNSUPPORTED_SOURCE

    目标仅支持 Delta 源。

    DELTA_UNSUPPORTED_STATIC_PARTITIONS

    目前在插入期间不支持在分区规格中指定静态分区

    DELTA_UNSUPPORTED_STRATEGY_NAME

    不支持的策略名称:

    DELTA_UNSUPPORTED_SUBQUERY

    (条件 = )中不支持子查询。

    DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

    分区谓词中不支持子查询。

    DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

    无法以多种格式指定“按时间顺序查看”。

    DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

    无法按时间顺序查看视图、子查询、流或更改数据馈送查询。

    DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

    不支持截断示例表

    DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

    清空 Delta 表时,请提供基本路径 ()。 目前不支持清空特定分区。

    DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

    表实现不支持写入操作:

    DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

    不支持写入示例表

    DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

    无法将 强制转换为 。 所有嵌套列必须匹配。

    DELTA_VERSIONS_NOT_CONTIGUOUS

    版本 () 不是连续的。

    有关更多详细信息,请参阅 DELTA_VERSIONS_NOT_CONTIGUOUS

    DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

    具有值 的行违反了 CHECK 约束

    DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

    已违反对表属性

    的验证:

    有关更多详细信息,请参阅 DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

    DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

    是视图。 不能将数据写入视图。

    DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

    数据架构中不存在 Z 排序列。

    DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

    上的 Z 排序将

    无效,因为我们目前不收集这些列的统计数据。 请参阅在“建议的文档”中提供的链接中的

    有关数据跳过和 Z 排序的详细信息。 可以通过

    设置“%%sql set = false”

    禁用此检查

    DELTA_ZORDERING_ON_PARTITION_COLUMN

    是一个分区列。 只能对数据列执行 Z 排序

    自动换带机

    CF_ADD_NEW_NOT_SUPPORTED

    指定了架构时不支持架构演变模式 。 若要使用此模式,可以通过 cloudFiles.schemaHints 提供架构。

    CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

    找到了(默认)目录列表模式的通知设置

    身份验证选项:

    如果要使用文件通知模式,请显式设置:

      .option("cloudFiles.<useNotificationsKey>", "true")
    

    如果要跳过选项验证步骤并忽略这些

    身份验证选项,也可以设置:

      .option("cloudFiles.<ValidateOptionsKey>", "false")
    

    CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

    增量列表模式 (cloudFiles.)

    和文件通知 (cloudFiles.)

    已同时启用。

    请确保仅选择一个。

    CF_AZURE_STORAGE_SUFFIXES_REQUIRED

    Azure 需要 adlsBlobSuffix 和 adlsDfsSuffix

    CF_BUCKET_MISMATCH

    文件事件 \<fileEvent\> 中的 与源 \<source\> 所预期的不同。

    CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

    架构日志为空时无法演变架构。 架构日志位置:

    CF_CANNOT_RESOLVE_CONTAINER_NAME

    无法从路径 解析容器名称,解析的 URI 为

    CF_CANNOT_RUN_DIRECTORY_LISTING

    当有异步回填线程在运行时,无法运行目录列表

    CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

    无法同时打开 cloudFiles.cleanSource 和 cloudFiles.allowOverwrites。

    CF_DUPLICATE_COLUMN_IN_DATA

    尝试推断表的分区架构时出错。 在数据和分区路径中复制了相同的列。 若要忽略分区值,请使用 .option("cloudFiles.", "{comma-separated-list}") 显式提供分区列

    CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

    输入路径 \<path\> 为空时无法推断架构。 请在输入路径中存在文件时尝试启动流,或指定架构。

    CF_EVENT_GRID_AUTH_ERROR

    无法创建事件网格订阅。 请确保服务

    主体具有 事件网格订阅。 有关详细信息,请参阅:

    CF_EVENT_GRID_CREATION_FAILED

    无法创建事件网格订阅。 请确保 Microsoft.EventGrid

    在订阅中注册为资源提供程序。 有关详细信息,请参阅:

    CF_EVENT_GRID_NOT_FOUND_ERROR

    无法创建事件网格订阅。 请确保存储

    帐户 () 位于资源组 () 的下方,并且

    存储帐户是“StorageV2(常规用途 v2)”帐户。 有关详细信息,请参阅:

    CF_EVENT_NOTIFICATION_NOT_SUPPORTED

    不支持自动加载程序事件通知模式。

    CF_FAILED_TO_CHECK_STREAM_NEW

    无法检查流是否为新流

    CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

    无法创建订阅 \<subscriptionName\>。 已存在同名订阅,并与另一个主题 \<otherTopicName\> 相关联。 所需主题为 \<proposedTopicName\>。 要么删除现有订阅,要么创建采用新资源后缀的订阅。

    CF_FAILED_TO_CREATED_PUBSUB_TOPIC

    无法创建主题 \<topicName\>。 已存在同名的主题。 请删除现有主题或使用其他资源后缀重试

    CF_FAILED_TO_DELETE_GCP_NOTIFICATION

    未能删除主题 \<topicName\> 的存储桶 \<bucketName\> 上 ID 为 \<notificationId\> 的通知。 请重试或通过 GCP Console 手动删除通知。

    CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

    无法从字符串反序列化持久化架构:“

    CF_FAILED_TO_EVOLVE_SCHEMA

    无法在没有架构日志的情况下演变架构。

    CF_FAILED_TO_FIND_PROVIDER

    无法为 找到提供程序

    CF_FAILED_TO_INFER_SCHEMA

    无法从输入路径 中的现有文件推断 格式的架构。 请确保正确配置选项或显式指定架构。

    CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

    无法写入位于 的架构日志。

    CF_FILE_FORMAT_REQUIRED

    无法找到所需选项:cloudFiles.format。

    CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

    发现主题 \<topicName\> 有多个( 个)订阅使用自动加载程序前缀:

    每个主题只能有一个订阅。 请手动确保主题没有多个订阅。

    CF_GCP_AUTHENTICATION

    请提供以下所有凭据:

    或者一个都不提供,使用默认的

    GCP 凭据提供程序链对 GCP 资源进行身份验证。

    CF_GCP_LABELS_COUNT_EXCEEDED

    收到太多 GCP 资源的标签( 个)。 每项资源的最大标签计数为

    CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

    收到太多 GCP 资源的资源标记( 个)。 每项资源的最大资源标记计数为 ,因为资源标记存储为资源上的 GCP 标签,而特定于 Databricks 的标记会消耗一部分标签配额。

    CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

    架构日志中的日志文件不完整

    CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

    自动加载程序检查点中的元数据文件不完整

    CF_INCORRECT_SQL_PARAMS

    cloud_files 方法接受两个必需的字符串参数:要从中加载的路径,以及文件格式。 必须在字符串键值映射中提供文件读取器选项。 例如,cloud_files(“path”、“json”、map(“option1”、“value1”))。 收到:

    CF_INVALID_ARN

    无效 ARN:

    CF_INVALID_CHECKPOINT

    此检查点不是有效的 CloudFiles 源

    CF_INVALID_CLEAN_SOURCE_MODE

    清理源选项 的模式无效。

    CF_INVALID_GCP_RESOURCE_TAG_KEY

    GCP 资源的资源标记密钥 \<key\> 无效。 密钥必须以小写字母开头,长度在 1-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。

    CF_INVALID_GCP_RESOURCE_TAG_VALUE

    GCP 资源的资源标记值 \<value\> 无效。 值的长度必须在 0-63 个字符之间,并且仅包含小写字母、数字、下划线 (_) 和连字符 (-)。

    CF_INVALID_SCHEMA_EVOLUTION_MODE

    cloudFiles.<schemaEvolutionModeKey>
    

    必须是以下项之一

    "<addNewColumns>" "<failOnNewColumns>" "<rescue>" "<noEvolution>"

    CF_INVALID_SCHEMA_HINTS_OPTION

    架构提示只能指定特定列一次。

    在这种情况下,请在架构提示

    多次重新定义列

    CF_INVALID_SCHEMA_HINT_COLUMN

    架构提示无法用于覆盖映射和数组的嵌套类型。

    CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

    应在此源上使用 ReadLimit 调用 latestOffset。

    CF_LOG_FILE_MALFORMED

    日志文件格式不正确:无法从 中读取正确的日志版本。

    CF_MAX_MUST_BE_POSITIVE

    最大值必须为正数

    CF_METADATA_FILE_CONCURRENTLY_USED

    多个流式处理查询在同时使用

    CF_MISSING_METADATA_FILE_ERROR

    流式处理源检查点目录中的元数据文件丢失。 此元数据

    文件包含流的重要默认选项,因此流无法立即

    重启。 请联系 Databricks 支持人员获取帮助。

    CF_MISSING_PARTITION_COLUMN_ERROR

    提供的架构 中不存在分区列

    CF_MISSING_SCHEMA_IN_PATHLESS_MODE

    如果在使用文件通知模式时未向 CloudFiles 源提供路径,请使用 .schema() 指定架构。 若要让自动加载程序推断架构,也可在 .load () 中提供基本路径。

    CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

    在存储桶 \<topicName\> 上发现主题 \<bucketName\> 的现有通知:

    notification,id

    若要避免意外事件污染订阅服务器,请删除上述通知并重试。

    CF_NEW_PARTITION_ERROR

    从文件中推断出新的分区列:[]。 请提供架构中的所有分区列,或者提供想要通过使用 .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}") 提取其中的值的分区列列表

    CF_PARTITON_INFERENCE_ERROR

    尝试推断当前文件批次的分区架构时出错。 请使用:option("cloudFiles.", "{comma-separated-list}") 显式提供分区列

    CF_PATH_DOES_NOT_EXIST_FOR_SCHEMA_INFERENCE

    当输入路径 \<path\> 不存在时无法推理架构。 请确保该输入路径存在,然后重试。

    CF_PERIODIC_BACKFILL_NOT_SUPPORTED

    如果禁用异步回填,则不支持定期回填。 可以通过将 spark.databricks.cloudFiles.asyncDirListing 设置为 true 来启用异步回填/目录列表

    CF_PREFIX_MISMATCH

    找到不匹配的事件:密钥 没有前缀

    CF_PROTOCOL_MISMATCH

    如果无需对代码进行任何其他更改,请设置 SQL

    配置:“ =

    以恢复流。 请参阅:

    以获取更多详细信息。

    CF_REGION_NOT_FOUND_ERROR

    无法获取默认 AWS 区域。 请使用 cloudFiles.region 选项指定区域。

    CF_RESOURCE_SUFFIX_EMPTY

    无法创建通知服务:资源后缀不能为空。

    CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

    无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-) 和下划线 (_)。

    CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

    无法创建通知服务:资源后缀只能包含小写字母、数字和短划线 (-)。

    CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

    无法创建通知服务:资源后缀只能包含字母数字字符、连字符 (-)、下划线 (_)、句点 (.)、波浪字符 (~)、加号 (+) 和百分比符号 ()。

    CF_RESOURCE_SUFFIX_LIMIT

    无法创建通知服务:资源后缀不能超过 个字符。

    CF_RESOURCE_SUFFIX_LIMIT_GCP

    无法创建通知服务:资源后缀的字符数介于 之间。

    CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

    找到受限的 GCP 资源标记密钥 (\<key\>)。 自动加载程序限制以下 GCP 资源标记密钥:[]

    CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

    cloudFiles.cleanSource.retentionDuration 不能大于 cloudFiles.maxFileAge。

    CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

    无法为前缀为 \<prefix\> 的主题 \<topic\> 创建通知。 已经有一个具有相同名称且前缀为 \<oldPrefix\> 的主题。 尝试使用不同的资源后缀进行设置或删除现有设置。

    CF_SOURCE_DIRECTORY_PATH_REQUIRED

    请提供带有选项 path 的源目录路径

    CF_SOURCE_UNSUPPORTED

    云文件源目前仅支持 S3、Azure Blob Storage (wasb/wasbs),以及 Azure Data Lake Gen1 (adl) 和 Gen2 (abfs/abfss) 路径。 路径:“”,解析 URL:“

    CF_THREAD_IS_DEAD

    线程终止。

    CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

    无法从源检查点位置派生流检查点位置:

    CF_UNABLE_TO_DETECT_FILE_FORMAT

    无法在 采样文件中检测源文件格式,找到了 。 请指定格式。

    CF_UNABLE_TO_EXTRACT_BUCKET_INFO

    无法提取存储桶信息。 路径:“”,解析 URL:“”。

    CF_UNABLE_TO_EXTRACT_KEY_INFO

    无法提取密钥信息。 路径:“”,解析 URL:“”。

    CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

    无法提取存储帐户信息。路径:“”,解析 URL:“

    CF_UNABLE_TO_LIST_EFFICIENTLY

    已收到路径 的目录重命名事件,但无法有效列出此目录。 为了使流继续,请将选项“cloudFiles.ignoreDirRenames”设置为 true,并考虑使用 cloudFiles.backfillInterval 启用常规回填来处理此数据。

    CF_UNKNOWN_OPTION_KEYS_ERROR

    找到未知选项密钥:

    请确保所有提供的选项密钥都正确。 如果要跳过

    选项验证步骤并忽略这些未知选项,你可以设置:

      .option("cloudFiles.<validateOptions>", "false")
    

    CF_UNKNOWN_READ_LIMIT

    未知 ReadLimit:

    CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

    格式 不支持架构推理。 请指定架构。

    CF_UNSUPPORTED_LOG_VERSION

    UnsupportedLogVersion:支持的最大日志版本为 v,但遇到的是 v。 日志文件由较新的 DBR 版本生成,但无法由此版本读取。 请升级。

    CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

    格式 不支持架构演变模式

    CF_USE_DELTA_FORMAT

    此语法不支持从 Delta 表进行读取。 如果要使用 Delta 中的数据,请参阅文档:读取 Delta 表 (),或读取 Delta 表作为流源 ()。 来自 Delta 的流式处理源已针对数据的增量使用进行了优化。

    GEOJSON_PARSE_ERROR

    分析 GeoJSON 时出错: 位于 位置

    H3_INVALID_CELL_ID

    不是有效的 H3 单元格 ID

    H3_INVALID_GRID_DISTANCE_VALUE

    H3 网格距离 必须为非负

    H3_INVALID_RESOLUTION_VALUE

    H3 分辨率必须介于 和 (含)之间

    H3_NOT_ENABLED

    已禁用或不受支持。 请考虑启用 Photon 或切换到支持 H3 表达式的层

    H3_PENTAGON_ENCOUNTERED_ERROR

    计算网格距离 的六边形环时出现五边形

    H3_UNDEFINED_GRID_DISTANCE

    之间的 H3 网格距离未定义

    WKB_PARSE_ERROR

    分析 WKB 时出错: 位于 位置

    WKT_PARSE_ERROR

    分析 WKT 时出错: 位于 位置